أنثروبيك والبنتاجون: أزمة أخلاقية حول استخدام الذكاء الاصطناعي عسكرياً

أنثروبيك والبنتاجون: أزمة أخلاقية حول استخدام الذكاء الاصطناعي عسكرياً

25.02.2026
7 mins read
تواجه شركة الذكاء الاصطناعي أنثروبيك ضغوطاً من البنتاجون لاستخدام تقنياتها في تطبيقات عسكرية، مما يثير جدلاً واسعاً حول أخلاقيات تسليح الذكاء الاصطناعي.

في خطوة تعكس التوتر المتزايد بين وادي السيليكون والمؤسسة العسكرية الأمريكية، دخلت شركة الذكاء الاصطناعي الناشئة أنثروبيك (Anthropic) في مواجهة مباشرة مع وزارة الدفاع الأمريكية (البنتاجون). وجه البنتاجون إنذاراً للشركة، مهدداً بإنهاء عقود عسكرية قائمة إذا لم تمتثل لشروط الحكومة المتعلقة باستخدام تقنياتها المتقدمة، وذلك وفقاً لمصادر مطلعة تحدثت لوكالة “بلومبرج”.

تصاعد الخلاف خلال اجتماع عُقد بين مسؤولي البنتاجون والرئيس التنفيذي لشركة “أنثروبيك”، داريو أمودي، حيث هدد المسؤولون الحكوميون باللجوء إلى “قانون الإنتاج الدفاعي” لإجبار الشركة على التعاون، أو إعلانها كخطر على سلسلة التوريد الدفاعية، وهو ما قد يؤدي إلى إلغاء عقود تبلغ قيمتها حوالي 200 مليون دولار كان الجيش الأمريكي قد وافق على تنفيذها مع الشركة.

خلفية الصراع: أخلاقيات الذكاء الاصطناعي في مواجهة الأمن القومي

تأسست شركة “أنثروبيك” على يد موظفين سابقين في شركة OpenAI، وكان دافعهم الأساسي هو التركيز على بناء أنظمة ذكاء اصطناعي آمنة ومسؤولة أخلاقياً. تضع الشركة سياسة استخدام صارمة تمنع بشكل قاطع استخدام نماذجها في تطوير الأسلحة، أو الاستهداف المستقل للمقاتلين، أو تطبيقات المراقبة الجماعية. هذا الموقف المبدئي هو جوهر الخلاف الحالي مع البنتاجون، الذي يسعى بشكل متزايد إلى دمج قدرات الذكاء الاصطناعي في مختلف عملياته لتعزيز تفوقه الاستراتيجي.

أهمية الحدث وتأثيره المتوقع

لا يعد هذا الصراع حدثاً معزولاً، بل هو جزء من نقاش أوسع يدور في قطاع التكنولوجيا حول مدى أخلاقية التعاون مع الجيوش. يذكرنا هذا الموقف بحادثة “مشروع مافن” (Project Maven) في عام 2018، عندما احتج آلاف الموظفين في جوجل على استخدام تقنيات الشركة في تحليل لقطات الطائرات بدون طيار لصالح البنتاجون، مما دفع جوجل في النهاية إلى عدم تجديد العقد. موقف “أنثروبيك” يعزز هذا التوجه ويضع ضغطاً على شركات الذكاء الاصطناعي الأخرى لتحديد مواقفها الأخلاقية بوضوح.

على الصعيد الدولي، تأتي هذه المواجهة في وقت تتسابق فيه القوى العالمية، وعلى رأسها الولايات المتحدة والصين، لتسخير الذكاء الاصطناعي عسكرياً. قرار “أنثروبيك” قد يؤثر على سرعة تبني الجيش الأمريكي لهذه التقنيات، لكنه يفتح الباب أيضاً أمام حوار ضروري حول وضع ضوابط دولية لاستخدام الذكاء الاصطناعي في الحروب، ومنع تطوير “الأسلحة الفتاكة المستقلة”. إن نتيجة هذا الصراع بين “أنثروبيك” والبنتاجون سترسم ملامح العلاقة المستقبلية بين مبتكري التكنولوجيا ومستخدميها في المجال الدفاعي، وقد تضع سابقة لكيفية الموازنة بين متطلبات الأمن القومي والمسؤولية الأخلاقية في عصر الذكاء الاصطناعي.

اترك تعليقاً

Your email address will not be published.

أذهب إلىالأعلى