كيف كشفت أزمة البنتاجون و«أنثروبيك» حدود «الذكاء الاصطناعى المسئول»؟

الأحد 15 مارس 2026 - 5:20 م

فى الرابع عشر من يوليو 2025، نشرت شركة «أنثروبيك» الأمريكية المالكة للنموذج اللغوى «كلود» إعلانًا رسميًا على موقعها الرسمى بلغة احتفالية صريحة، أعلنت فيه توقيعها عقدًا قيمته 200 مليون دولار لمدة عامين مع مكتب التحول الرقمى والذكاء الاصطناعى (CDAO) التابع لوزارة الحرب الأمريكية، واصفة إياه بأنه «فصل جديد فى التزام أنثروبيك بدعم الأمن القومى الأمريكى»، ومؤكدة أن نماذجها مُصممة لتكون «موثوقة وقابلة للتفسير وقابلة للتوجيه» فى البيئات الحكومية الأكثر حساسية.

إلا أن ما بدا فى يوليو 2025 تتويجًا مؤسسيًا لسنوات من بناء هوية «الذكاء الاصطناعى المسئول»، تحوّل فى 28 فبراير 2026 إلى موضع نقاش أخلاقى واسع. فقد أشارت تقارير إلى أن نموذج «كلود»، عبر نظام (Maven Smart System) التابع لشركة «بالانتير» والمستخدم ضمن شبكات عسكرية مُصنَّفة، قد استُخدم فى إنتاج قوائم استهداف تتضمن إحداثيات (GPS) دقيقة لعدد كبير من الأهداف خلال 24 ساعة، وذلك فى سياق الضربات الأمريكية الإسرائيلية على إيران.

وفى اللحظة ذاتها التى رفضت فيها «أنثروبيك» توسيع بنود العقد وتحوّلت إلى مواجهة مع البنتاجون، كانت متاجر التطبيقات تُسجل ارتفاعًا بنسبة 295% فى عمليات إلغاء تثبيت «تشات جى بى تى»، فيما تصدّر «كلود» النموذج العسكرى نفسه الذى أشعل الأزمة قائمة (App Store) الأمريكية للمرة الأولى فى تاريخه.

وهذا التناقض المركب لا يُمثل مجرد أزمة علاقات عامة لشركة تقنية ناشئة؛ بل هو كاشف بامتياز عن سؤال مُؤجل منذ أن وطأ الذكاء الاصطناعى عتبة المنظومة العسكرية مفاده: هل يمكن لمبدأ «المسئولية» أن يصمد حين تصطدم خطوطه الحمراء المُعلنة بمتطلبات الأمن القومى؟ وهل «أخلاقيات الذكاء الاصطناعى» التى تعلنها الشركات تُمثل حدودًا مبدئية ثابتة؟

• • •

لا يمكن فهم أزمة نموذج «كلود» أواخر شهر فبراير 2026 دون استحضار ما تضمنه إعلان يوليو 2025 من تناقضات لم تظهر على السطح فى حينه؛ إذ تضمن الإعلان الرسمى لـ«أنثروبيك» بذور الأزمة فى صياغاته نفسها قبل أن تتكشف لاحقًا فجأة. ويتجلى هذا التناقض البنيوى فى عدد من المستويات التى يمكن رصدها على النحو الآتى:

1- لغة المبدأ فى خدمة العقد: وصف إعلان يوليو 2025 الشراكة العسكرية بأنها تنبثق من «الاقتناع بأن أقوى التقنيات تحمل أعظم المسئوليات»، مُقدمًا الاندماج مع البنتاجون باعتباره تعبيرًا عن القيم لا تناقضًا معها. بيد أن هذه اللغة ذاتها التى تُسوّغ العقد العسكرى بخطاب الأمن الديمقراطى هى ما جعلت الأزمة اللاحقة أكثر صدمة؛ لأن الشركة التى بنت مصداقيتها على الشفافية هى من وقعت أولًا على الاندماج فى الشبكات المُصنَّفة بعيدًا عن أى رقابة عامة ممكنة.

2- الخطان الأحمران كموقف تفاوضى: رفضت «أنثروبيك» مطلب البنتاجون بمنح الجيش الأمريكى صلاحية استخدام «كلود» لجميع الأغراض القانونية دون قيود، مشترطة ألا يُستخدم النموذج فى المراقبة الجماعية للمواطنين الأمريكيين، ولا فى أسلحة مستقلة كليًا دون إشراف بشرى. لكن اعتراف الرئيس التنفيذى لـ«أنثروبيك»، داريو أمودى، بأن الشركة «لم تعترض فى أى وقت على عمليات عسكرية بعينها»، كشف أن الخلاف لم يكن حول مبدأ الاستخدام العسكرى ذاته؛ بل حول صياغة بنود العقد.

3- التسمية الرسمية كمرآة كاشفة: نشرت «أنثروبيك»، فى 5 مارس الجارى، بيان الأزمة تحت عنوان (Where things stand with the Department of War)، لا لأنها اختارت توظيف التسمية بلاغيًا؛ بل لأن الخطاب الرسمى الذى تلقته من البنتاجون فى 4 مارس جاء موقّعًا باسم «وزارة الحرب» ذاتها؛ وهى التسمية المعتمدة رسميًا منذ 5 سبتمبر الماضى، حين وقع الرئيس دونالد ترامب أمرًا تنفيذيًا أعاد إحياء لقب «وزارة الحرب» بوصفه لقبًا ثانويًا رسميًا، فغيرت الوزارة موقعها إلى (war.gov)، وعلّق بيت هيجسيث لافتة «مكتب وزير الحرب» على بابه. وهنا تكمن الدلالة الحقيقية؛ ليس فى اختيار «أنثروبيك» لهذه التسمية؛ بل فى أن الجهة التى طُوّر «كلود» لخدمتها بعقد قيمته 200 مليون دولار باتت تُوقع مراسلاتها الرسمية باسم «وزارة الحرب»؛ الأمر الذى يوضح أن الفجوة بين خطاب «الذكاء الاصطناعى المسئول» والسياق الذى يعمل فيه فعليًا أوسع مما أقرت به «أنثروبيك» فى أى بيان.

• • •

لا تقف أزمة نموذج «كلود» عند حدود الخلاف التعاقدى بين «أنثروبيك» والبنتاجون؛ بل تُمثل لحظة كاشفة لمعضلات أعمق ظلت كامنة خلف خطاب «الذكاء الاصطناعى المسئول» منذ توقيع العقد. وتتضح هذه المعضلات فى النقاط التالية:

1- تناقض التصنيف كأداة ضغط: صنّف البنتاجون «أنثروبيك»، عقب هذا الخلاف، بوصفها «خطرًا على سلسلة التوريد الأمنى القومى»، وهو تصنيف كان محجوزًا تاريخيًا للشركات الصينية والروسية. غير أن السياق السياسى الذى رافق هذا التصنيف يكشف طبيعته الحقيقية؛ إذ كتب ترامب على منصة «تروث سوشيـال»: «لن تسمح الولايات المتحدة أبدًا لشركة يسارية متطرفة بأن تُملى على جيشنا العظيم كيف يخوض الحروب ويكسبها»، واصفًا «أنثروبيك» بأنها «شركة ذكاء اصطناعى يسارية متطرفة يديرها أناس لا يفقهون شيئًا فى الواقع»، وأمر على إثر ذلك الوكالات الفيدرالية بوقف استخدام تقنيات الشركة فورًا. وقد أوضح بيان الرئيس التنفيذى للشركة، داريو أمودى، فى 5 مارس الجارى، أن نطاق التصنيف ضيّق قانونيًا ولا يُقيّد استخدام «كلود» إلا فيما يتصل مباشرة بعقود وزارة الحرب تحديدًا؛ ما يكشف أن التصنيف لم يكن تقييمًا أمنيًا موضوعيًا بقدر ما كان رافعة تفاوضية ذات دوافع سياسية صريحة؛ وهو ما يُقوِّض مصداقية المنظومة التنظيمية برمّتها.

2- المستخدم يُصوّت على المواقف لا على الوقائع: لم تكن الأرقام التى سجلتها متاجر التطبيقات فى 28 فبراير الماضى مجرد تفاعل عاطفى عابر؛ إذ ارتفعت مراجعات النجمة الواحدة لنموذج «تشات جى بى تى» بنسبة 775% فى يوم واحد، وتصدّر «كلود» قائمة (App Store) فى اليوم ذاته. لكن المفارقة الصارخة أن «كلود» نفسه كان يعمل فى الميدان العسكرى فى اللحظة التى كان فيها المستخدمون يتدفقون إليه هربًا من «تشات جى بى تى». وهذا يعنى أن الوعى الأخلاقى للمستخدم يتشكل بناءً على المواقف المُعلنة لا على العمليات المُصنَّفة غير المرئية؛ وهو ما يطرح تساؤلًا بالغ الأهمية حول طبيعة «التصويت الأخلاقى» فى زمن تُحجب فيه المعلومات الجوهرية بحكم القانون.

3- اندماج وادى السيليكون فى المجمع العسكرى: لا يمكن قراءة هذه الأزمة بمعزل عن المشهد الأشمل الذى تجلى فى عشاء البيت الأبيض فى سبتمبر الماضى، حين تعهد قادة كبرى شركات وادى السيليكون باستثمارات فى البنية التحتية للذكاء الاصطناعى تتجاوز 1,2 تريليون دولار. غير أن هذا الاندماج لا يجرى عشوائيًا، بل وفق منطق بنيوى واضح؛ إذ يُعيد الذكاء الاصطناعى الأمريكى إنتاج نفسه عبر ما يمكن تسميته «التخصص المرن»؛ أى التخلى عن فكرة النموذج الواحد الشامل لصالح نماذج تضمن الوجود فى كل قطاع على حدة، بما فيها القطاع الأكثر حساسية وربحية استراتيجيًا؛ الأمن القومى والحرب.

وفى هذا السياق، جاء «كلود» مثالًا واضحًا على هذا التخصص المرن بامتياز؛ فبينما يحتفظ بهويته كنموذج عام، اكتسب تفوقًا نوعيًا فى البيئات الأكثر تصنيفًا وحساسية. بيد أن الكاشف الأعمق جاء من «أنثروبيك» نفسها؛ ففى بيانها الرسمى بتاريخ 5 مارس الجارى، وبعد أن صنّفتها وزارة الحرب «خطرًا على سلسلة التوريد الأمنى»، أعلن داريو أمودى استعداد الشركة لمواصلة تزويد الوزارة بنماذجها من دون مقابل تجارى طوال فترة الانتقال، مؤكدًا أن «أنثروبيك تملك من القواسم المشتركة مع وزارة الحرب أكثر مما يفصلها عنها». وقد كشف البيان ذاته أن اعتراض «كلود» لم يتجاوز استثناءين ضيقين هما الأسلحة المستقلة كليًا والمراقبة الجماعية الداخلية، من دون أى اعتراض على قوائم الاستهداف التشغيلية. وهذا بدوره يكشف أن ما بدا موقفًا مبدئيًا لم يكن فى جوهره سوى خلاف على صياغة بنود العقد، فى حين ظلّت الشركة مندمجة عضويًا فى منظومة الحرب.

ختامًا، لا تُمثل أزمة نموذج «كلود» مع البنتاجون مجرد خلاف تعاقدى عابر بين شركة وجهة حكومية، ولا مجرد انفجار أخلاقى عابر فى ذاكرة الرأى العام الرقمى؛ بل هى المرة الأولى فى التاريخ التى يُصوت فيها ملايين المستخدمين بقراراتهم اليومية على معضلة شائكة يُفترض أنها حِكر على الأكاديميين وصانعى القرار؛ فهل تنتهى أخلاقيات الذكاء الاصطناعى حين تبدأ متطلبات السيادة الوطنية؟

وبينما أعادت «أنثروبيك» فى بيانها تأطير نفسها بوصفها حارسة للمبادئ لا طرفًا تفاوضيًا خسر جولة، وسارعت شركة «أوبن إيه آى» إلى ملء الفراغ العقدى، وواصل البنتاغون تشغيل ما سمّاه خطرًا أمنيًا لستة أشهر مقبلة؛ يبقى السؤال الأعمق معلّقًا: فى عصر باتت فيه خوارزميات الاستهداف تعمل بسرعة الآلة لا سرعة الإنسان، هل لا يزال مفهوم «الذكاء الاصطناعى المسئول» قابلًا للتطبيق حين تكون الأداة العسكرية هى النموذج اللغوى ذاته؟

رامز صلاح

مركز للأبحاث والدراسات المتقدمة

النص الأصلى:

https://tinyurl.com/2shamdf9

 

مقالات اليوم

قد يعجبك أيضا

شارك بتعليقك

بوابة الشروق 2026 - جميع الحقوق محفوظة