لوندر، ماشین هوش مصنوعی که بمباران اسرائیل در غزه را هدایت می کند
اخیرا مقاله مفصلی بر اساس منابع اطلاعاتی صهیونیستی منتشر شده که نشان میدهد رژیم صهیونیستی چگونه با استفاده از یک ابزار هوش مصنوعی به نام لوندر قتل عام میکند. صهیونیستها برای کشتار هیچ خط قرمز و مرزی ندارند که در این مقاله بسیار تکان دهنده و وحشتناک میتوان به خوبی این موضوع را فهمید.
پایگاه خبری جهت پرس؛ تحقیقات جدید مجله +972 نشان میدهد که ارتش اسرائیل یک برنامه مبتنی بر هوش مصنوعی به نام لوندر را توسعه داده است که برای اولین بار رونمایی میشود. به گفته شش افسر اطلاعاتی اسرائیل که همگی در طول جنگ در نوار غزه در ارتش خدمت کردهاند و با استفاده از هوش مصنوعی برای تهیه لیست اهداف به منظور ترور مشارکت داشتهاند، لوندر نقش اصلی را در بمباران بیسابقه غزه ایفا کرده است. در واقع به گفته این منابع، تاثیر آن بر عملیات ارتش به حدی بود که آنها اساساً با خروجیهای دستگاه هوش مصنوعی «به گونهای برخورد میکردند که گویی این یک تصمیم انسانی است».
سیستم لوندر به گونه ای طراحی شده است که همه عوامل مظنون در شاخه های نظامی حماس و جهاد اسلامی فلسطین از جمله افراد رده پایین را به عنوان اهداف بالقوه مشخص کند. به گفته منابع در هفتههای اول جنگ، ارتش تقریباً به طور کامل به لوندر متکی بود که در نهایت توانست ۳۷۰۰۰ هدف را به عنوان شبهنظامیان مظنون شناسایی کند.
در مراحل اولیه جنگ، ارتش به افسران تاییدیه گستردهای داد تا فهرستهای کشتار لوندر را بدون نیاز به بررسی کامل چرایی این انتخابها بپذیرند. یک منبع اظهار داشت که پرسنل انسانی اغلب فقط حدود “۲۰ ثانیه” را به هر هدف اختصاص می دادند آن هم فقط برای اطمینان از اینکه هدف مشخص شده توسط لوندر مرد است.
لوندر چگونه کار میکند؟
ارتش اسرائیل به طور سیستماتیک به اهداف خود در حالی که در خانه های خود بودند – معمولاً در شب در حالی که تمام خانواده های آنها حضور داشتند و نه در طول فعالیت نظامی – حمله میکرد. به گفته این منابع، این به این دلیل است که از نظر آنها مکان یابی افراد در خانه های شخصی آسان تر بود. سیستم خودکار دیگری به نام «پدر کجاست؟» نیز به کمک لوندر میآمد و به طور خاص برای ردیابی افراد مورد نظر و انجام بمباران وقتی که وارد محل سکونت خانواده خود شده بودند استفاده می شد. نتیجه همانطور که منابع شهادت دادند این است که هزاران فلسطینی – بیشتر آنها زن و کودک یا افرادی که در جنگ شرکت نداشتند – توسط حملات هوایی اسرائیل، به ویژه در هفته های اول جنگ، به دلیل تصمیمات برنامه هوش مصنوعی به شهادت رسیدند!
یکی از منابع میگوید: “ما علاقه ای به کشتن عوامل حماس تنها زمانی که در یک ساختمان نظامی بودند یا درگیر یک فعالیت نظامی بودند، نداشتیم. برعکس، ارتش اسرائیل به عنوان اولین گزینه، بدون تردید آنها را در خانه ها بمباران می کرد. بمباران خانه یک خانواده بسیار ساده تر است. این سیستم برای جستجوی آنها در این شرایط ساخته شده است.”
در این جنگ ماشین لوندر به یک سیستم هوش مصنوعی دیگر به نام «GOSPEL» که در نوامبر ۲۰۲۳ در نشریات خود ارتش اسرائیل نامش فاش شد، کمک کرد. یک تفاوت اساسی بین این دو سیستم در تعریف هدف است: در حالی که GOSPEL ساختمانها و سازههایی را که ارتش ادعا میکند شبهنظامیان در آنها کار میکنند علامتگذاری میکند، لاوندر افراد شبهنظامی را علامتگذاری میکند و آنها را در لیست کشتار قرار میدهد.
علاوه بر این، به گفته این منابع، زمانی که نوبت به هدف قرار دادن شبه نظامیان ادعایی که توسط لوندر مشخص شده بودند می شد، ارتش ترجیح می داد (برخلاف بمب های دقیق هوشمند) فقط از بمب های هدایت نشونده استفاده کند که این امر باعث میشد کل ساختمان ها بالای سر ساکنان نیز فرو میریخت و تلفات قابل توجهی ایجاد میکرد. درواقع استفاده از بمب های هدایت نشونده برای کاهش هزینه ها بود.
به گفته دو منبع، در اقدامی بیسابقه، ارتش در هفتههای اول جنگ تصمیم گرفت که به ازای هر عامل رده پایین حماس که لوندر علامتگذاری میکرد، مرگ ۱۵ یا ۲۰ غیرنظامی را مجاز اعلام کند. در گذشته، ارتش اجازه هیچ “خسارت جانبی” را در هنگام ترور ستیزه جویان رده پایین نمی داد. این منابع افزودند، در صورتی که هدف یکی از مقامات ارشد حماس با درجه فرماندهی گردان یا تیپ باشد، ارتش در چندین نوبت اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده داده است.
این منابع گفتند که مجوز حمله به فهرستهای کشتار لوندر که قبلاً فقط به عنوان ابزار کمکی استفاده میشد، حدود دو هفته پس از جنگ اعطا شد. اگر لوندر به این نتیجه برسد که فردی در حماس یک ستیزه جو است، اساساً از آنها خواسته شده بود که آن را به عنوان یک دستور تلقی کنند، بدون نیاز به بررسی مستقل که چرا دستگاه این انتخاب را کرده است.
ساعت ۵ صبح نیروی هوایی می آمد و تمام خانه هایی را که علامت گذاری کرده بودیم را بمباران می کرد. همه چیز را در سیستمهای خودکار قرار دادیم و به محض اینکه یکی از افراد علامت گذاری شده در خانه بود، بلافاصله هدف قرار می گرفت. ما او و خانهاش را بمباران می کردیم. برای من بسیار تعجب آور بود که از ما خواسته شد خانه ای را برای کشتن یک سرباز که اهمیتش در جنگ بسیار کم بود، بمباران کنیم. ما آن اهداف را «اهداف زباله» می نامیدیم.
نتایج مرگبار کاهش محدودیتها برای هوش مصنوعی در مراحل اولیه جنگ، خیره کننده بود. بر اساس دادههای وزارت بهداشت فلسطین در غزه، اسرائیل در شش هفته اول جنگ، حدود ۱۵۰۰۰ فلسطینی را کشته است – تقریباً نیمی از تلفات تاکنون – تا زمانی که آتش بس یک هفتهای در ۲۴ نوامبر به توافق رسید.
هرچه اطلاعات و تنوع بیشتر باشد، بهتر است
نرم افزار لاوندر اطلاعات جمع آوری شده در مورد اکثر ۲.۳ میلیون ساکن نوار غزه را از طریق یک سیستم نظارت جمعی تجزیه و تحلیل می کند، سپس احتمال حضور هر فرد خاص در شاخه نظامی حماس را ارزیابی و رتبه بندی می کند. به گفته منابع، این دستگاه تقریباً به هر فرد در غزه امتیازی از ۱ تا ۱۰۰ می دهد و نشان می دهد که چقدر احتمال دارد که آنها یک شبه نظامی باشند.
اطلاعات بصری، اطلاعات سلولی، ارتباطات رسانه های اجتماعی، اطلاعات میدان جنگ، مخاطبین تلفن، عکس ها و… برای هوش مصنوعی استفاده میشوند. لوندر گاهی اوقات به اشتباه افرادی را که الگوهای ارتباطی مشابه با عوامل شناخته شده حماس یا جهاد اسلامی داشتند – از جمله کارکنان پلیس و بستگان آنها، ساکنانی که نام و نام مستعارشان با نام مستعار اعضای حماس یکسان بود – نشان می داد.
یک فرد چقدر باید به حماس نزدیک باشد تا در نظر یک دستگاه هوش مصنوعی وابسته به این سازمان باشد؟ این یک مرز مبهم است. آیا فردی که از حماس حقوق نمی گیرد، اما در همه کارها به آنها کمک می کند، عامل حماس است؟ آیا کسی که در گذشته در حماس بود، اما امروز دیگر آنجا نیست، یکی از عوامل حماس است؟ هر یک از این ویژگیها – ویژگیهایی که یک ماشین به عنوان مشکوک نشان میدهد – نادرست است.
مشکلات مشابهی در مورد توانایی ماشین ها برای ارزیابی تلفن مورد استفاده توسط یک فرد علامت گذاری شده برای ترور وجود دارد. در جنگ، فلسطینیها همیشه تلفنهایشان را عوض میکنند. افراد ارتباط خود را با خانواده خود قطع می کنند، تلفن خود را به یک دوست یا همسر می دهند، شاید آن را از دست بدهند و… . هیچ راهی برای اتکای صد درصدی به مکانیزم خودکار که تعیین میکند کدام شماره تلفن متعلق به چه کسی است، وجود ندارد.
نتیجه استفاده از این سیستم در جنگ غزه، قتل عام بیش از 33 هزار انسان اعم از زن و کودک، پیر و جوان در نوار غزه بود؛ قتل عامی که سبب شد بار دیگر چهره کثیف رژیم صهیونیستی برای جهانیان نمایان شود.
نظرات
لطفا نظرات خود را با حروف فارسی تایپ کنید.
از ارسال نظراتی که حاوی مطالب کذب، توهین یا بیاحترامی به اشخاص، قومیتها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزههای دین مبین اسلام باشد خودداری کنید.
لطفا از نوشتن نظرات خود به صورت حروف لاتین (فینگیلیش) خودداری نماييد.
نظرات پس از تایید مدیر بخش مربوطه منتشر میشود.