"الإيكونوميست": هل يجب على مختبرات الذكاء الاصطناعي أن تُطيع أوامر "البنتاغون"؟

تتأصل مخاوف عسكرة الذكاء الاصطناعي في شركتي "Anthropic" و"OpenAI". وحتى وقت قريب، كانتا تضعان ضمانات تمنع استخدام الذكاء الاصطناعي في صنع الأسلحة. هل نشهد تغييراً ما؟

0:00
  • "الإيكونوميست": هل يجب على مختبرات الذكاء الاصطناعي أن تُطيع أوامر "البنتاغون"؟

مجلة "الإيكونوميست" البريطانية تسلط الضوء على النهج الذي يتبناه وزير الحرب الأميركي تجاه استخدام الذكاء الاصطناعي في ساحة المعركة، وتناقش الضغوطات التي يمارسها في هذا المجال.

هل يدخل استخدام الذكاء الاصطناعي في صنع الأسلحة؟ وهل ترضخ مختبرات الذكاء الاصطناعي لضغوطات وزارة الحرب الأميركية في هذا المجال؟ وبماذا تخاطر هذه الشركات؟

فيما يلي نص المقال منقولاً إلى العربية:

يتبنى بيت هيغسيث، وزير الحرب الأميركي، نهجاً حازماً تجاه استخدام الذكاء الاصطناعي في ساحة المعركة. ففي 24 شباط/فبراير، وجّه إنذاراً نهائياً لشركة "أنثروبيك"، الشركة المصنّعة لسلسلة نماذج "كلود": إذا لم توافق على الشروط التي وضعها البنتاغون بشأن استخدام ذكائها الاصطناعي لأغراض دفاعية، فستواجه عقوبات قاسية.

وليست هذه المرة الأولى التي تدخل فيها إدارة ترامب علناً في نزاعات مع شركات لا تلتزم بأوامرها، إلا أن "أنثروبيك" تتمتع في هذه الحالة بموقف تفاوضي قوي.

وقد جرت المواجهة خلال اجتماع في "البنتاغون" بين السيد هيغسيث وداريو أمودي، رئيس شركة "أنثروبيك"، الذي يتبنى شعار "الذكاء الاصطناعي المسؤول". وقد استُدعي السيد أمودي إلى وزارة الحرب نظراً إلى موقع "أنثروبيك" المتميز.

كان هذا المختبر، من بين مختبرات الذكاء الاصطناعي، أول من نفّذ أعمالاً سرية لمصلحة "البنتاغون"، عبر شراكة مع شركة "بالانتير" المتخصّصة في البيانات، وشركة "أمازون" لخدمات الحوسبة السحابية، إلا أنه يضع خطوطاً حمراً واضحة فيما يتعلّق باستخدام نماذجه لأغراض الأمن القومي؛ فقد أصرّ، خلال مفاوضاته مع وزارة الحرب الأميركية، على عدم استخدام نموذج "كلود" في عمليات المراقبة الداخلية الجماعية أو في بناء أسلحة ذاتية التشغيل.

وقد أدت هذه القيود إلى خلاف حاد بينه وبين هيغسيث، الذي اشترط على الشركات التي تُزوّد "البنتاغون" بنماذج الذكاء الاصطناعي أن تمنحه حرية مطلقة في استخدامها كيفما يشاء عند استخدامها في العمليات العسكرية المشروعة. 

وخلال الأسبوع الماضي، أعادت وزارة الحرب الأميركية النظر في علاقتها الكاملة مع مختبر "أنثروبيك"، وفقاً لما صرّح به متحدّث باسمها. وفي الاجتماع الأخير مع السيد أمودي، صعّد السيد هيغسيث من لهجته، متعهداً بإنهاء عقد "أنثروبيك" بحلول 27 شباط/فبراير إذا لم يوافق مختبر الذكاء الاصطناعي على شروط البنتاغون، وذلك بحسب مصادر مطلعة على المناقشات.

صرح مسؤول رفيع في البنتاغون بأنه في حال عدم تعاون شركة "أنثروبيك" مع وزارة الدفاع الأميركية، فإن الأخيرة ستلجأ إلى قانون الإنتاج الدفاعي، وهو قانون يمنح الرئيس سلطة إلزام الشركات بتنفيذ أعمال تتعلّق بالأمن القومي، فضلاً عن تصنيف "أنثروبيك" كجهة تشكل خطراً على سلسلة التوريد. (أدركت "أنثروبيك" أن هذا التهديد لا يقبل إلا خيارين).

لا تتجاوز قيمة العقد الرئيسي لـ"أنثروبيك" مع وزارة الدفاع الأميركية 200 مليون دولار، وهو مبلغ زهيد بالنسبة إلى شركة حققت إيرادات سنوية بلغت 14 مليار دولار في شباط/فبراير، لكن لا يمكن للشركة الاستهانة بهذا الموقف، فإخراج شركة "كلود" من سلسلة توريد "البنتاغون" سيكون له أثر بالغ، نظراً إلى العدد الكبير من الشركات العاملة في مجال الدفاع. وهذه عقوبة تُفرض عادةً على الشركات المرتبطة بقوى معادية. وقد تم تفعيل قانون الإنتاج الدفاعي في حالات طوارئ حديثة مثل جائحة "كوفيد-19"، ونادراً ما يُستخدم بهذه الطريقة العدائية.

لكن تهديد "البنتاغون" باتخاذ هذه الإجراءات الإضافية ضد شركة "أنثروبيك" يشير إلى أن الإدارة تواجه معضلة، فتهديد قانون الإنتاج الدفاعي يوحي بترددها في استبعاد "كلود" من العمل الدفاعي. ووفقاً لمسؤولين دفاعيين سابقين على صلة بوادي السيليكون، يعود ذلك إلى أن أنثروبيك تُعدّ من أفضل الشركات القليلة المتخصصة في تصميم نماذج الذكاء الاصطناعي، ما قد يجعلها لا غنى عنها للمقاتلين.

هل سيُتيح هذا المأزق فرصةً للمنافسين الأقل تحفظًا؟ كانت شركة "OpenAI"، مطورة "ChatGPT"، أبطأ في اغتنام فرصة التعاون مع وزارة الدفاع الأميركية. تستخدم مايكروسوفت، التي كانت تربطها بها علاقة وثيقة، نماذجها في أعمال دفاعية بالغة السرية، لكن "OpenAI" ليست طرفاً في العقد.

يستخدم بعض المتنافسين في مسابقة لتطوير تقنية أسراب الطائرات المسيّرة التي تعمل بالأوامر الصوتية لمصلحة البنتاغون نماذج "OpenAI"، لكن مشاركتها غير مباشرة. عقودها الرسمية الوحيدة مع وزارة الدفاع الأميركية تتعلق بأعمال غير سرية، ويُدرس استخدام نماذجها لأغراض الأمن القومي على أساس كل حالة على حدة.

تتأصل مخاوف عسكرة الذكاء الاصطناعي في شركتي "Anthropic" و"OpenAI". وحتى وقت قريب، كانت كلتاهما تضعان ضمانات تمنع استخدام الذكاء الاصطناعي في صنع الأسلحة (وقد طالبت وزارة الدفاع الأميركية بإلغاء هذه الضمانات). كما تُدرك الشركتان خطر فقدان باحثيهما المتميزين في مجال الذكاء الاصطناعي، والذين يأتي الكثير منهم من الخارج. وقد لا يتبنون أيديولوجية إدارة ترامب.

على النقيض من ذلك، يبدو أن إيلون ماسك، الذي سبق أن حذّر من "الروبوتات القاتلة"، قد تخلى عن تحفظاته. وتفيد التقارير بأن شركة "سبيس إكس"، المتخصصة في الصواريخ والأقمار الصناعية، وشركة "xAI"، المتخصصة في صناعة النماذج والتي تندمج معها، تتنافسان معاً في مسابقة "البنتاغون" لتطوير تقنية أسراب الطائرات المسيّرة. وقد صرّح مسؤول في البنتاغون بأن نموذج غروك، التابع لشركة "xAI"، "موافق" على استخدامه في بيئات سرية.

تتولى "غوغل"، وهي شركة رائدة أخرى في مجال تطوير الذكاء الاصطناعي، عقودًا مع البنتاغون لأعمال سرية وغير سرية، بعد أن ألغت القيود المفروضة على استخدام الذكاء الاصطناعي للأغراض الدفاعية في عام 2024.

ويمثل هذا تحولًا جذرياً بالنسبة إلى عملاق التكنولوجيا، الذي أُجبر عام 2018 على التخلي عن عقد مع البنتاغون يُعرف باسم "مشروع مافن"، والذي كان يستخدم التعلم الآلي لتحليل لقطات من طائرات بدون طيار، وذلك بعد تمرد داخلي.

ويقول مسؤولون دفاعيون سابقون إن قصة "مشروع مافن" حملت دروساً قيّمة لكل من وادي السيليكون و"البنتاغون" جديرة بالتذكر. بالنسبة إلى شركات التكنولوجيا، قد يكون من غير الواقعي الاعتقاد بإمكانية التحكم في كيفية استخدام تقنياتها في ساحة المعركة. صحيح أن بإمكانها حثّ الناس على توخي الحذر، إلا أن الرقابة الدستورية على القوات المسلحة هي التي تحدد في نهاية المطاف كيفية خوض الحروب.

أما بالنسبة إلى وزارة الحرب الأميركية، فإن المطالبة بالوصول غير المقيد إلى التقنيات التي تتمتع بإمكانية إحداث فتك هائل تتطلب بناء أساس متين من الثقة، وهو أساس قد يتآكل إذا استُخدمت هذه التقنيات في أعمال مشكوك في شرعيتها.

يقول مسؤولون دفاعيون سابقون إن قرارات مثيرة للجدل، مثل الضربات الجوية ضد قوارب تهريب المخدرات المدنية في منطقة الكاريبي، تثير مخاوف بشأن إمكانية إساءة استخدام أنظمة الأسلحة ذاتية التشغيل في المستقبل.

منذ أيام "مشروع مافن"، أصبح المناخ في وادي السيليكون أكثر ميلاً نحو "البنتاغون". وقد رحبت العديد من شركات التكنولوجيا الدفاعية بجهود السيد هيغسيث لتسريع وتيرة العمل واستقطاب الكفاءات الجديدة لتطوير أدوات عسكرية مثل أسراب الطائرات المسيّرة وبرامج الذكاء الاصطناعي، ولكن إذا ما قضى على هذه الثقة الناشئة بأساليب قمعية، فقد يُعرّض وصوله إلى أكثر من مجرد "كلود" للخطر.

نقله إلى العربية: الميادين نت