"سيمافور": البشر هم المسؤولون عن مجزرة المدرسة في إيران.. وليس الذكاء الاصطناعي
موقع "سيمافور" يقول إن قصف مدرسة ميناب في إيران ناتج عن أخطاء بشرية في التحليل والمراجعة، وليس بسبب الذكاء الاصطناعي، فالمسؤولية الكاملة تقع على الجهة البشرية المنفذة، في إشارة إلى الإدارة الأميركية.
-
تشييع جثامين شهداء الاعتداء الأميركي على مدرسة جنوبي إيران، 3 آذار/ مارس 2026
كشف موقع "سيمافور" نقلاً عن مصادر، أن البشر، وليس الذكاء الاصطناعي، هم المسؤولون عن الهجوم الدامي على مدرسة إيرانية.
وأشار الموقع إلى أنه في الأيام التي أعقبت الضربة الصاروخية الأميركية المميتة على مدرسة ابتدائية إيرانية، برزت التكهنات حول مسؤولية الذكاء الاصطناعي عن الفعل، إذ سارع النقّاد إلى تحميل هذه التقنية مسؤولية سقوط أكثر من 150 ضحية، مستندين إلى تقارير عن نظام "كلود"، والخلاف العلني بين البنتاغون وشركة "أنثروبيك"، ما أثار جدلاً عالمياً حول الدور المتنامي للذكاء الاصطناعي في الحروب.
وأضاف موقع "سيمافور" أن الحقيقة، بحسب مسؤولين عسكريين سابقين وأشخاص مطلعين على جوانب من "حملة القصف في إيران"، هي أن البشر -وتحديداً آلاف الأشخاص الذين يجمعون المعلومات الاستخباراتية ويحللون صور الأقمار الصناعية لبناء قوائم أهداف ضخمة قبل أي صراعات محتملة- هم المسؤولون عن "مقتل" الطلاب في مدرسة شجرة طيبة الابتدائية.
المسؤولية كاملةً تقع على العنصر البشري
ولفت الموقع إلى أن الخطأ كان من النوع الذي لا يُرجح أن يرتكبه الذكاء الاصطناعي، إذ يُعرف عن التقنية عيوبها الجسيمة، من الهلوسة إلى التملق، ولكنها قادرة على استيعاب معلومات أكبر بكثير مقارنةً بالأنظمة التي يقودها البشر، وكان من الممكن "تجنب الكارثة لو أُجريَ تحليل معمق لصور الأقمار الصناعية أو حتى بحث بسيط على الإنترنت".
وأضاف الموقع أنه كان من المفترض أن يقوم مراجعون بشريون بالفحص قبل الـ 24 إلى 48 ساعة التي سبقت الضربة، وإخضاع الفحص لمزيد من المراجعة بواسطة تقنية رؤية حاسوبية قادرة على تحليل أدق تفاصيل الصورة، ومقارنة صور الأقمار الصناعية، بحثاً عن أي تغييرات محتملة.
ونقل الموقع عن الباحث البارز في مركز الأمن الأميركي الجديد، والمخضرم في الجيش الأميركي لمدة 36 عاماً، والذي شغل منصب المدير المؤسس لمشروع برنامج الذكاء الاصطناعي التابع لوزارة الدفاع الأميركية "مافن"، جاك شاناهان، قوله: "سيكون إيجاد التوازن الأمثل بين البشر والآلات عنصراً حاسماً في التدريب المستقبلي"، مضيفاً: "سيكون هناك خطر الاعتماد المفرط على مخرجات الآلة، وتجاوز المراجعة البشرية الحاسمة".
وأوضح الموقع أن التكنولوجيا العسكرية الحديثة تتيح "استهداف نطاق أوسع بكثير من النزاعات السابقة، وبسرعات أعلى بكثير، وذلك من خلال دمج صور الأقمار الصناعية والرادار والمعلومات الاستخباراتية البشرية وغيرها من مصادر البيانات".
لكن الموقع أشار إلى أنه في الوقت الراهن، صُممت تقنيات الذكاء الاصطناعي في الغالب لمساعدة الجيش في تحديد الأهداف المجهولة أو المتحركة، مقارنةً بالأهداف العسكرية الثابتة والمحددة مسبقاً.
تصاعد دور الذكاء الاصطناعي في آلة الحرب الأميركية
وتعتمد تقنية الأتمتة الأساسية للاستهداف في "البنتاغون" على نظام "مافن" الذكي من شركة "بالانتير"، والذي يُمكّن الأفراد العسكريين من تخطيط الضربات بسهولة تامة عبر النقر والسحب والإفلات في برنامج واحد، مُختصراً ساعات أو أياماً من العمل إلى دقائق، بحسب الموقع.
وبحسب "سيمافور"، يستند هذا النظام إلى منصة "غوثام" الشهيرة من "بالانتير"، والتي تستخدمها جهات إنفاذ القانون وشركات القطاع الخاص، كما أنه يستوعب أجزاءً من البيانات من نماذج لغوية ضخمة مثل "كلود" من "أنثروبيك"، والتي تقوم بمسح وتلخيص الوثائق ذات الصلة بسرعة.
ويستطيع نظام "مافن" اقتراح أهداف محتملة وتحديد كيفية استهدافها، وفقاً للموقع، بدءاً من الوقود اللازم وصولاً إلى الذخائر المستخدمة.
وقد عبّرت شركة "أنثروبيك" وغيرها من شركات الذكاء الاصطناعي علناً عن مخاوفها من أن يحاول الجيش في نهاية المطاف منح نماذج اللغة الضخمة صلاحيات واسعة، مُكلفاً إياها باتخاذ قرارات الاستهداف، إلا أن هذه التقنية لا تزال بعيدة كل البعد عن هذه القدرة، كما لم يُبدِ المسؤولون في الجيش أو شركة "بالانتير" أي رغبة في استبعاد العنصر البشري تماماً من عملية الاستهداف.
وتتوقع شركة "بالانتير"، وفقاً لمصادر مطلعة على طموحات الشركة، أن يزداد دور نماذج اللغة الضخمة أهميةً في المستقبل، فعلى سبيل المثال، يُمكن استخدام هذه النماذج في مراحل تخطيط العمليات العسكرية، لاقتراح استراتيجيات أو حتى اتخاذ قرارات استهداف مستقلة.
مخاوف من تسارع القتل تحت ضغط الأتمتة
أما القلق الأكبر فيتمثل في قدرة المراجعين البشريين على مواكبة الذكاء الاصطناعي في جمعه المزيد من الأهداف بوتيرة أسرع من أي وقت مضى، أو خضوعهم لضغوط الموافقة على القرارات دون الوقت الكافي لفحصها والتأكد من خلوها من أي خطر محتمل على المدنيين، بحسب الموقع.
كما أن النقاش الدائر حول استخدام الذكاء الاصطناعي في المجال العسكري يُشابه، من بعض النواحي، النقاش الدائر حول القيادة الذاتية، على حدّ قول "سيمافور"، إذ من صحيح أن بعض الحوادث المروعة تقع -كما هو الحال مع السائقين البشريين- إلا أن السيارات ذاتية القيادة، في المجمل، تتبنى نهجاً أكثر حذراً في القيادة، وتكون الحوادث المميتة أقل بكثير.
ومع ذلك، قد تُغيّر حوادث فردية نظرة الرأي العام إلى هذه التقنية، فعلى سبيل المثال، أدى حادث واحد إلى إيقاف برنامج أوبر للقيادة الذاتية بالكامل، وواجهت وحدة القيادة الذاتية التابعة لشركة جنرال موتورز، كروز، حادثًا مشابهًا أنهى خدمة سيارات الأجرة الآلية في سان فرانسيسكو.
ووفقاً للموقع، أدت المأساة التي وقعت في مدرسة "شجرة طيبة" إلى تسارع فوري في إلقاء اللوم على الذكاء الاصطناعي في الهجوم الصاروخي المميت، ورغم أن التكهنات الأولية تبين أنها خاطئة، إلا أنها تُشير إلى أن وفيات المدنيين الناجمة عن الأتمتة سيُنظر إليها بشكل مختلف عن تلك التي يتسبب بها البشر، حتى لو أثبتت الأسلحة ذاتية القيادة أنها أكثر أمانًا بشكل عام.
أما العامل المهم الآخر هنا فهو أن القيادة الذاتية تزيد من حجم الضربات العسكرية المحتملة، لذا، في حين أن البشر قد يكونون أقل دقة، فإن الأتمتة قد ترتكب في أسوأ الحالات أخطاءً قاتلة على نطاق واسع، بحسب الموقع.