پایگاه خبری تحلیلی جهت پرس

جستجو
این کادر جستجو را ببندید.

اخیرا مقاله مفصلی‌ بر اساس منابع اطلاعاتی‌ صهیونیستی منتشر شده که نشان میدهد رژیم صهیونیستی چگونه با استفاده از یک ابزار هوش مصنوعی به نام لوندر قتل عام می‌کند. صهیونیست‌ها برای کشتار هیچ خط قرمز و مرزی ندارند که در این مقاله بسیار تکان دهنده و وحشتناک میتوان به خوبی‌ این موضوع را فهمید.

منتشر شده در 19 فروردین 1403

پایگاه خبری جهت پرس؛ تحقیقات جدید مجله +972 نشان می‌دهد که ارتش اسرائیل یک برنامه مبتنی بر هوش مصنوعی به نام لوندر را توسعه داده است که برای اولین بار رونمایی می‌شود. به گفته شش افسر اطلاعاتی اسرائیل که همگی در طول جنگ در نوار غزه در ارتش خدمت کرده‌اند و با استفاده از هوش مصنوعی برای تهیه لیست اهداف به منظور ترور مشارکت داشته‌اند، لوندر نقش اصلی را در بمباران بی‌سابقه غزه ایفا کرده است. در واقع به گفته این منابع، تاثیر آن بر عملیات ارتش به حدی بود که آنها اساساً با خروجی‌های دستگاه هوش مصنوعی «به گونه‌ای برخورد می‌کردند که گویی این یک تصمیم انسانی است».

سیستم لوندر به گونه ای طراحی شده است که همه عوامل مظنون در شاخه های نظامی حماس و جهاد اسلامی فلسطین از جمله افراد رده پایین را به عنوان اهداف بالقوه مشخص کند. به گفته منابع در هفته‌های اول جنگ، ارتش تقریباً به طور کامل به لوندر متکی بود که در نهایت توانست ۳۷۰۰۰ هدف را به عنوان شبه‌نظامیان مظنون شناسایی کند.

در مراحل اولیه جنگ، ارتش به افسران تاییدیه گسترده‌ای داد تا فهرست‌های کشتار لوندر را بدون نیاز به بررسی کامل چرایی این انتخاب‌ها بپذیرند. یک منبع اظهار داشت که پرسنل انسانی اغلب فقط حدود “۲۰ ثانیه” را به هر هدف اختصاص می دادند آن هم فقط برای اطمینان از اینکه هدف مشخص شده توسط لوندر مرد است.

لوندر چگونه کار می‌کند؟

ارتش اسرائیل به طور سیستماتیک به اهداف خود در حالی که در خانه های خود بودند – معمولاً در شب در حالی که تمام خانواده های آنها حضور داشتند و نه در طول فعالیت نظامی – حمله می‌‌کرد. به گفته این منابع، این به این دلیل است که از نظر آنها مکان یابی افراد در خانه های شخصی آسان تر بود. سیستم‌ خودکار دیگری به نام «پدر کجاست؟» نیز به کمک لوندر می‌آمد و به طور خاص برای ردیابی افراد مورد نظر و انجام بمباران وقتی‌ که وارد محل سکونت خانواده خود شده بودند استفاده می شد. نتیجه همانطور که منابع شهادت دادند این است که هزاران فلسطینی – بیشتر آنها زن و کودک یا افرادی که در جنگ شرکت نداشتند – توسط حملات هوایی اسرائیل، به ویژه در هفته های اول جنگ، به دلیل تصمیمات برنامه هوش مصنوعی به شهادت رسیدند!

یکی از منابع می‌گوید: “ما علاقه ای به کشتن عوامل حماس تنها زمانی که در یک ساختمان نظامی بودند یا درگیر یک فعالیت نظامی بودند، نداشتیم. برعکس، ارتش اسرائیل به عنوان اولین گزینه، بدون تردید آنها را در خانه ها بمباران می‌ کرد. بمباران خانه یک خانواده بسیار ساده تر است. این سیستم برای جستجوی آنها در این شرایط ساخته شده است.”

در این جنگ ماشین لوندر به یک سیستم هوش مصنوعی دیگر به نام «GOSPEL» که در نوامبر ۲۰۲۳ در نشریات خود ارتش اسرائیل نامش فاش شد، کمک کرد. یک تفاوت اساسی بین این دو سیستم در تعریف هدف است: در حالی که GOSPEL ساختمان‌ها و سازه‌هایی را که ارتش ادعا می‌کند شبه‌نظامیان در آن‌ها کار می‌کنند علامت‌گذاری می‌کند، لاوندر افراد شبه‌نظامی را علامت‌گذاری می‌کند و آنها را در لیست کشتار قرار می‌دهد.

علاوه بر این، به گفته این منابع، زمانی که نوبت به هدف قرار دادن شبه نظامیان ادعایی که توسط لوندر مشخص شده بودند می شد، ارتش ترجیح می داد (برخلاف بمب های دقیق هوشمند) فقط از بمب های هدایت نشونده استفاده کند که این امر باعث می‌شد کل ساختمان ها بالای سر ساکنان نیز فرو می‌‌ریخت و تلفات قابل توجهی ایجاد می‌کرد. درواقع استفاده از بمب های هدایت نشونده برای کاهش هزینه ها بود.

به گفته دو منبع، در اقدامی بی‌سابقه، ارتش در هفته‌های اول جنگ تصمیم گرفت که به ازای هر عامل رده پایین حماس که لوندر علامت‌گذاری می‌کرد، مرگ ۱۵ یا ۲۰ غیرنظامی را مجاز اعلام کند. در گذشته، ارتش اجازه هیچ “خسارت جانبی” را در هنگام ترور ستیزه جویان رده پایین نمی داد. این منابع افزودند، در صورتی که هدف یکی از مقامات ارشد حماس با درجه فرماندهی گردان یا تیپ باشد، ارتش در چندین نوبت اجازه کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده داده است.

این منابع گفتند که مجوز حمله به فهرست‌های کشتار لوندر که قبلاً فقط به عنوان ابزار کمکی استفاده می‌شد، حدود دو هفته پس از جنگ اعطا شد. اگر لوندر به این نتیجه برسد که فردی در حماس یک ستیزه جو است، اساساً از آنها خواسته شده بود که آن را به عنوان یک دستور تلقی کنند، بدون نیاز به بررسی مستقل که چرا دستگاه این انتخاب را کرده است.

ساعت ۵ صبح نیروی هوایی می آمد و تمام خانه هایی را که علامت گذاری کرده بودیم را بمباران می کرد. همه چیز را در سیستم‌های خودکار قرار دادیم و به محض اینکه یکی از افراد علامت گذاری شده در خانه بود، بلافاصله هدف قرار می‌ گرفت. ما او و خانه‌اش را بمباران می‌ کردیم. برای من بسیار تعجب آور بود که از ما خواسته شد خانه ای را برای کشتن یک سرباز که اهمیتش در جنگ بسیار کم بود، بمباران کنیم. ما آن اهداف را «اهداف زباله» می‌ نامیدیم.

نتایج مرگبار کاهش محدودیت‌ها برای هوش مصنوعی در مراحل اولیه جنگ، خیره کننده بود. بر اساس داده‌های وزارت بهداشت فلسطین در غزه، اسرائیل در شش هفته اول جنگ، حدود ۱۵۰۰۰ فلسطینی را کشته است – تقریباً نیمی از تلفات تاکنون – تا زمانی که آتش بس یک هفته‌ای در ۲۴ نوامبر به توافق رسید.

هرچه اطلاعات و تنوع بیشتر باشد، بهتر است

نرم افزار لاوندر اطلاعات جمع آوری شده در مورد اکثر ۲.۳ میلیون ساکن نوار غزه را از طریق یک سیستم نظارت جمعی تجزیه و تحلیل می کند، سپس احتمال حضور هر فرد خاص در شاخه نظامی حماس را ارزیابی و رتبه بندی می کند. به گفته منابع، این دستگاه تقریباً به هر فرد در غزه امتیازی از ۱ تا ۱۰۰ می دهد و نشان می دهد که چقدر احتمال دارد که آنها یک شبه نظامی باشند.

اطلاعات بصری، اطلاعات سلولی، ارتباطات رسانه های اجتماعی، اطلاعات میدان جنگ، مخاطبین تلفن، عکس ها و… برای هوش مصنوعی استفاده می‌‌شوند. لوندر گاهی اوقات به اشتباه افرادی را که الگوهای ارتباطی مشابه با عوامل شناخته شده حماس یا جهاد اسلامی داشتند – از جمله کارکنان پلیس و بستگان آنها، ساکنانی که نام و نام مستعارشان با نام مستعار اعضای حماس یکسان بود – نشان می داد.

یک فرد چقدر باید به حماس نزدیک باشد تا در نظر یک دستگاه هوش مصنوعی وابسته به این سازمان باشد؟ این یک مرز مبهم است. آیا فردی که از حماس حقوق نمی گیرد، اما در همه کارها به آنها کمک می کند، عامل حماس است؟ آیا کسی که در گذشته در حماس بود، اما امروز دیگر آنجا نیست، یکی از عوامل حماس است؟ هر یک از این ویژگی‌ها – ویژگی‌هایی که یک ماشین به‌ عنوان مشکوک نشان می‌دهد – نادرست است.

مشکلات مشابهی در مورد توانایی ماشین ها برای ارزیابی تلفن مورد استفاده توسط یک فرد علامت گذاری شده برای ترور وجود دارد. در جنگ، فلسطینی‌ها همیشه تلفن‌هایشان را عوض می‌کنند. افراد ارتباط خود را با خانواده خود قطع می کنند، تلفن خود را به یک دوست یا همسر می دهند، شاید آن را از دست بدهند و… . هیچ راهی برای اتکای صد درصدی به مکانیزم خودکار که تعیین می‌کند کدام شماره تلفن متعلق به چه کسی است، وجود ندارد.

نتیجه استفاده از این سیستم در جنگ غزه، قتل عام بیش از 33 هزار انسان اعم از زن و کودک، پیر و جوان در نوار غزه بود؛ قتل عامی که سبب شد بار دیگر چهره کثیف رژیم صهیونیستی برای جهانیان نمایان شود.

اشتراک گذاری :
jhtp.ir/166356

اخبار پیشنهادی

نظرات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار ویژه

تبلیغات

اخبار جدید

شبکه های اجتماعی