اسرائیل از هوش مصنوعی برای کشتار فلسطینیان غزه استفاده می‌کند

 

شش افسر اطلاعاتی اسرائیل درباره سیستم هوش مصنوعی «لاوندر» افشاگری کرده‌اند که افراد مظنون به عضویت در حماس و جهاد اسلامی را برای کشتن نشانه‌گذاری، و خانه‌هایشان را هنگام حضور آنها برای بمباران به عنوان هدف اعلام می‌کند. این منابع گفته‌اند در هفته‌های ابتدایی جنگ غزه، تلفات جانبی ۱۵ تا ۲۰ غیرنظامی به ازای هدف قراردادن یک عضو رده‌پایین حماس، و تا ۱۰۰ غیرنظامی به ازای یک افسر رده‌بالای حماس مجاز اعلام شده بود.

گزارش تحقیقی جدیدی نشان می‌دهد که اسرائیل از یک نرم‌افزار هوش مصنوعی برای هدف قرار دادن فلسطینی‌ها استفاده می‌کند. این هدف‌گیری بدون دقت و بررسی لازم صورت گرفته و به کشتار هزاران غیرنظامی انجامیده است.

گزارش تحقیقی مشترک وبسایت خبری اسرائیلی ــ فلسطینی «مجله +۹۷۲» (+972) و وبسایت خبری اسرائیلی «لوکال کال» (Local Call) از برنامه‌ای به نام «لاوندر» (Lavender به معنای اسطوخودوس) پرده‌برداری کرده که نقشی اساسی در بمباران فلسطینیان به ویژه در مراحل ابتدایی جنگ غزه پس از هفتم اکتبر گذشته داشته است. شش افسر اطلاعاتی اسرائیلی که در جنگ کنونی در ارتش اسرائیل خدمت کرده اند و برای نخستین بار از لاوندر استفاده کرده اند، منابع +۹۷۲ و لوکال کال هستند.

بنا به منابع گزارش، نتایج استفاده از این برنامه هوش مصنوعی بسیار تأثیرگذار بوده اند و با خروجی‌های آن «همچون تصمیم‌های یک انسان» برخورد می‌شده است.

سیستم لاوندر به گونه‌ای طراحی شده که تمام افراد مظنون به عضویت در شاخه‌های نظامی حماس و جهاد اسلامی، از جمله جنگجویان رده‌پایین، به عنوان هدف‌های بمباران در نظر گرفته می‌شوند. ۳۷ هزار فلسطینی و خانه‌های آنها به عنوان هدف برای حمله‌های هوایی احتمالی در این سیستم نشانه‌گذاری شده اند.

به گفته منابع گزارش، اسرائیل در هفته‌های نخستین جنگ پس از هفتم اکتبر گذشته به طور کامل بر لاوندر متکی بوده‌اند و افسرهای ارتش می توانستند با دست باز برای کشتن به فهرست هدف‌های لاوندر اتکا کنند بی‌آنکه مجبور باشند دلیل انتخاب افراد در این فهرست را مجددا ارزیابی کنند یا داده‌های خامی را که به این انتخاب انجامیده از نو بررسی کنند.

یکی از آنها می‌گوید که خدمه‌ی انسانی صرفاً تصمیم‌های هوش مصنوعی را اجرا می‌کردند و شخصاً برای اینکه اجازه بمباران هدفی را بدهند یا ندهند، ۲۰ ثانیه وقت می‌گذاشته‌اند تا مطمئن شوند هدف انتخاب‌شده از سوی لاوندر، مرد باشد. این اتفاق در حالی رخ می‌داده که آنها می‌دانستند ماشین هوش مصنوعی در ۱۰ درصد موارد «دچار خطا» می‌شود و سابقه داشته افرادی را برای کشتن نشانه‌گذاری کند که ارتباط چندان محکمی با گروه‌های حماس و جهاد اسلامی نداشته‌اند.

این گزارش همچنین فاش می‌کند که ارتش اسرائیل به شکل نظام‌مند افراد نشانه‌گذاری‌شده در فهرست ترورش را زمانی هدف قرار می‌داده که آنها داخل خانه‌هایشان بوده‌اند؛ به ویژه شب‌ها، وقتی در کنار خانواده به سر می‌برند، و نه در حین انجام عملیات نظامی. به گفته منابع امنیتی اسرائیلی، دلیل هدف قراردادن آنها در خانه‌هایشان «آسان‌تربودن» یافتن افراد موردنظر در خانه‌هایشان بوده است. یکی از این افسرهای اطلاعاتی اسرائیلی به +۹۷۲ و لوکال کال می‌گوید:

ما علاقه‌ای به این نداشتیم که جنگجویان حماس را فقط وقتی بکشیم که در ساختمانی نظامی هستند یا دارند فعالیت نظامی می‌کنند. بر عکس، ارتش اسرائیل آنها را بدون ذره‌ای تردید و به عنوان گزینه نخست، در خانه‌هایشان بمباران می‌کرد. بمباران محل سکونت یک خانواده به مراتب آسان‌تر است. سیستم طوری طراحی شده که به دنبال آنها [افراد نشانه‌گذاری‌شده برای کشتن] در چنین موقعیت‌هایی بگردد.

سیستم‌های اتوماتیک هوش مصنوعی دیگری همچون سیستمی موسوم به «بابایی کجاست؟» به طور خاص برای این مقصود به کار رفته‌اند که افراد را تعقیب کنند و وقتی وارد خانه‌هایشان می‌شوند، آنها را بمباران کنند.

منابع اسرائیلی می‌گویند حاصل تبعیت از هوش مصنوعی در هفته‌های اولیه جنگ، کشتار هزاران فلسطینی، از جمله زنان و کودکان و دیگر غیرنظامیان بی‌ارتباط با عملیات نظامی در حمله‌های هوایی اسرائیل بود.

آنها همچنین فاش کرده اند که ارتش اسرائیل برای هدف قرار دادن اعضای رده‌پایین حماس از موشک‌های غیرهدایت‌شونده («بمب‌های خنگ») استفاده می‌کند که می‌تواند تمام یک ساختمان مسکونی را از بین ببرد. استفاده از موشک‌های هدایت‌شونده و بمب‌های هوشمند برای چنین اهدافی بیش از حد گران توصیف شده است.

منابع امنیتی اسرائیلی همچنین گفته اند که در هفته‌های ابتدایی، تلفات جانبی ۱۵ تا ۲۰ غیرنظامی به ازای هدف قراردادن یک عضو رده‌پایین حماس مجاز اعلام شده بود. اگر هدف یک افسر رده‌بالای حماس بود، تا ۱۰۰ غیرنظامی به عنوان تلفات جانبی پذیرفته‌شده بود.

سیستم هوش مصنوعی لاوندر به سیستم هوش مصنوعی گاسپل ارتش اسرائیل افزوده شده که آن را هم +۹۷۲ و لوکال کال نوامبر ۲۰۲۳ فاش کردند. تفاوت این دو سیستم هوش مصنوعی در هدف‌هایشان است: گاسپل ساختمان‌هایی را نشانه‌گذاری می‌کند که ارتش اسرائیل مدعی است شبه‌نظامیان در آنها فعالند؛ و لاوندر آدم‌ها را نشانه‌گذاری می‌کند و در فهرست کشتن قرار می‌دهد.

از ابتدای حمله اسرائیل به نوار غزه پس از حمله غافلگیرانه هفتم اکتبر گذشته حماس به اسرائیل، تا کنون بیش از ۳۳ هزار کشته شده اند. ۱۲ هزار تن هم مفقودند. حمله حماس به اسرائیل بیش از یکهزار و ۱۳۰ کشته برجای گذاشت.

شورای امنیت سازمان ملل در قطعنامه‌ای الزام‌آور خواهان آتش‌بس فوری در غزه شده است. اسرائیل به این قطعنامه بی‌اعتناست.

بخش خبر

۱۶  فروردین ۱۴۰۳

 

یک نظر بگذارید