پایگاه خبری تحلیلی جهت پرس

جستجو
این کادر جستجو را ببندید.

روزنامه نگاری تحقیقی منتشر شده در ماه آوریل توسط رسانه اسرائیلی Local Call نشان می دهد که ارتش اسرائیل یک برنامه ترور دسته جمعی بی سابقه ای را برنامه ریزی کرده است که هدف گیری الگوریتمی را با تحلیل بالا برای مرگ و جراحات افراد ناظر ترکیب می کند.

منتشر شده در 17 اردیبهشت 1403
در سرویس

به گزارش جهت پرس؛ فارن‌پالیسی در گزارشی به قلم سیمون فرانکلین پرات، مدرس مدرسه علوم سیاسی دانشگاه ملبورن، گزارش تحقیقی رسانه اسرائیلی «لوکال کال» (Local Call) را زیر ذره‌بین برده و برنامه ترور دسته‌جمعی با ابعاد پیش‌بینی‌ناپذیر که مبتنی بر هوش مصنوعی است، تحلیل می‌کند. از نظر او به رغم آنکه اسرائیلی‌ها ادعا می‌کنند به قوانین و استانداردهای بشردوستانه بین‌المللی پایبند هستند، با این برنامه بسیاری از فلسطینی‌ها را هدف می‌گیرند.

نویسنده معتقد است از آغاز درگیری اسرائیل و حماس، رژیم صهیونیستی مکان‌یابی تجمعات انسانی را به جای ترور فرماندهان نظامی را در دستور کار قرار داده و براساس پردازش داده‌های خامی که در برنامه‌ای با نام «اسطوخودوس» (Lavender) صورت می‌گیرد، کشتار یا خودداری از آن را تجویز می‌کند.

الگوریتم کار این برنامه کشتار به این شکل است که پس از ثبت نام همه جمعیت نوار غزه و ترکیب اطلاعاتی مانند پیام‌های سرویس‌های پیام‌رسان فلسطینی‌ها و ویدئوهایی که پیش از آن در این سامانه ذخیره شده، اهداف کشتار اولویت‌بندی می‌شوند. متغیرهایی همچون مشابه بودن نام افراد با افراد مدنظر اسرائیل، قرار داشتن آنها در خانه به واسطه آنکه هدف‌گیری آنها آسان‌تر است تا در میدان نبرد، ارتباطات احتمالی آنها با حماس، جنسیت آنها، اهمیت یا اولویت هدف‌گیری آنها را تعیین می‌کند.

نویسنده در ادامه در مورد این بحث کرده است که آیا این شکل از استفاده از هوش مصنوعی در هدف‌گیری انسان‌ها، نسل‌کشی به حساب می‌آید یا خیر و آیا آسیب‌های استفاده از چنین سامانه‌هایی قابل پیش‌بینی است یا خیر. اما مهمتر این است که بدانیم آیا این شکل از تعامل انسان و ماشین، پیشرفت خواهد داشت؟ نویسنده تصریح می‌کند سیاست‌های اسرائیل، هنجارهای نوظهور استفاده مسئولانه از هوش مصنوعی را نقض می‌کند. از نظر او، این ماشین با ربات‌های قاتل تفاوت‌های بنیادی دارد و به ویژه به یک ماشین غیرپاسخگوی مهاجم تبدیل شده است.

نکته قابل توجه دیگری که نویسنده بدان توجه دارد، این است که تصمیم در مورد عملیاتی‌سازی این تجزیه و تحلیل‌ها به مرور زمان و با آشکار شدن ناتوانی اسرائیل در تصرف نوار غزه روی میز فرماندهان نظامی اسرائیل آمده. جایی که آنها کشتن صدها نفر از فلسطینی‌ها را برای حذف یک نفر از فرماندهان حماس مجاز می‌دانند. رقمی که برای نیروهای جوان حماس، ۱۵ است. این خطای ماشین کشتاری که اسرائیل به راه انداخته، همه هنجارها و استانداردهای معمول نظامی را نقض کرده است. تا جایی که یک منبع نظامی ارتش اسرائیل گفته است به سربازی که دو روز پیش دوستش را در میدان نبرد از دست داده و میل به انتقام دارد، اعتماد بیشتری دارد تا اسطوخودوس.

تهدید این ماشین کشتار مبتنی بر هوش مصنوعی نویسنده را به این نکته می‌رساند که نظارت قانونی، اخلاقی و انضباطی را نمی‌توان به رایانه‌ها واگذار کرد، و الگوریتم‌ها سوگیری‌ها، محدودیت‌ها و خطاهای ورودی داده‌های آن‌ها را در پشت یک روکش فریبنده از عینیت فرضی پنهان می‌کنند. بر اساس گزارش‌ها، تحت فشار بسیار زیاد، تحلیلگران اطلاعاتی ارتش اسرائیل تقریباً هیچ منبعی را برای بازرسی دوباره اهدافی که اسطوخودوس پیشنهاد می‌کند، در اختیار ندارند.

اشتراک گذاری :
jhtp.ir/169579

اخبار پیشنهادی

نظرات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار ویژه

تبلیغات

اخبار جدید

شبکه های اجتماعی