قال البنتاغون، الجمعة، إنه توصل إلى اتفاقيات مع سبع شركات تكنولوجيا لاستخدام الذكاء الاصطناعي في شبكات الكمبيوتر السرية الخاصة بها، مما يسمح للجيش باستخدام قدرات الذكاء الاصطناعي لمساعدته في شن الحرب.
وقالت وزارة الدفاع إن جوجل ومايكروسوفت وأمازون ويب سيرفيسز وNvidia وOpenAI وReflection وSpaceX ستوفر قدراتها للمساعدة في “تعزيز عملية صنع القرار في المقاتلين الحربيين في البيئات التشغيلية المعقدة”.
ومن أبرز الغائبين عن القائمة شركة الذكاء الاصطناعي Anthropic، بعد نزاعها العلني ومعركتها القانونية مع إدارة ترامب حول أخلاقيات وسلامة استخدام الذكاء الاصطناعي في الحرب.
قامت وزارة الدفاع بتسريع استخدام الذكاء الاصطناعي في السنوات الأخيرة. يمكن لهذه التكنولوجيا أن تساعد الجيوش على تقليل الوقت الذي يستغرقه تحديد الأهداف ومهاجمتها في ساحة المعركة، بينما تساعد أيضًا في تنظيم صيانة الأسلحة وخطوط الإمداد، وفقًا لتقرير صدر في مارس من مركز برينان للعدالة.
لكن الذكاء الاصطناعي أثار بالفعل مخاوف من أن استخدامه قد ينتهك خصوصية الأمريكيين أو يسمح للآلات باختيار الأهداف في ساحة المعركة. وقالت إحدى الشركات المتعاقدة مع البنتاغون إن اتفاقها يتطلب إشرافاً بشرياً في مواقف معينة.
وظهرت المخاوف بشأن الاستخدام العسكري للذكاء الاصطناعي خلال الحرب التي شنتها إسرائيل ضد المسلحين في غزة ولبنان، حيث قامت شركات التكنولوجيا الأمريكية العملاقة بتمكين إسرائيل بهدوء من تتبع الأهداف. لكن عدد الوفيات بين المدنيين ارتفع أيضاً، مما أثار المخاوف من أن تكون هذه الأدوات قد ساهمت في مقتل الأبرياء.
لا تزال الأسئلة حول الاستخدام العسكري للذكاء الاصطناعي قيد الإجابة
وقالت هيلين تونر، القائمة بأعمال المدير التنفيذي لمركز الأمن والتكنولوجيا الناشئة بجامعة جورج تاون، إن العقود الأخيرة للبنتاغون تأتي في وقت يسوده القلق بشأن احتمال الاعتماد المفرط على التكنولوجيا في ساحة المعركة.
قال تونر، وهو عضو سابق في مجلس إدارة OpenAI: “تعتمد الكثير من الحروب الحديثة على أشخاص يجلسون في مراكز القيادة خلف المراقبين، ويتخذون قرارات معقدة بشأن مواقف مربكة وسريعة الخطى”. “يمكن أن تكون أنظمة الذكاء الاصطناعي مفيدة من حيث تلخيص المعلومات أو تحليل خلاصات المراقبة ومحاولة تحديد الأهداف المحتملة.”
وأضافت أن الأسئلة المتعلقة بالمستويات المناسبة للمشاركة البشرية والمخاطر والتدريب لا تزال قيد الحل.
“كيف يمكنك تنفيذ هذه الأدوات بسرعة بحيث تكون فعالة وتوفر ميزة استراتيجية؟” سأل تونر: “مع إدراكك أيضًا أنك بحاجة إلى تدريب المشغلين والتأكد من أنهم يعرفون كيفية استخدامها وعدم الاعتماد عليهم كثيرًا؟”
أثارت الأنثروبيك مثل هذه المخاوف. وقالت شركة التكنولوجيا إنها تريد ضمانات في عقدها بأن الجيش لن يستخدم تقنيتها في الأسلحة المستقلة بالكامل ومراقبة الأمريكيين. وقال وزير الدفاع بيت هيجسيث، إن الشركة يجب أن تسمح بأي استخدام يعتبره البنتاغون قانونيا.
تمت مقاضاة شركة Anthropic بعد أن حاول الرئيس الجمهوري دونالد ترامب منع جميع الوكالات الفيدرالية من استخدام برنامج الدردشة الآلي الخاص بالشركة. حاول كلود وهيجسيث تصنيف الشركة على أنها تمثل خطرًا على سلسلة التوريد، وهو تصنيف يهدف إلى الحماية من تخريب أنظمة الأمن القومي من قبل الخصوم الأجانب.
أعلنت OpenAI عن اتفاق مع البنتاغون في مارس لاستبدال Anthropic بشكل فعال بـ ChatGPT في البيئات السرية. وأكدت OpenAI في بيان يوم الجمعة أنها نفس الاتفاقية التي تم الإعلان عنها في أوائل مارس.
وقالت الشركة: “كما قلنا عندما أعلنا اتفاقنا لأول مرة قبل عدة أشهر، نعتقد أن الأشخاص الذين يدافعون عن الولايات المتحدة يجب أن يمتلكوا أفضل الأدوات في العالم”.
تضمنت اتفاقية إحدى الشركات مع البنتاغون لغة تنص على أنه يجب أن تكون هناك رقابة بشرية على أي مهام تعمل فيها أنظمة الذكاء الاصطناعي بشكل مستقل أو شبه مستقل، وفقًا لشخص مطلع على الاتفاقية غير مخول بالتحدث عن الأمر علنًا. وينص النص أيضًا على أنه يجب استخدام أدوات الذكاء الاصطناعي بطريقة تتفق مع الحقوق الدستورية والحريات المدنية.
تشبه هذه نقاط الخلاف بالنسبة لشركة Anthropic، على الرغم من أن OpenAI قالت سابقًا إنها حصلت على ضمانات مماثلة عندما أبرمت صفقتها الخاصة مع البنتاغون.
وجهة نظر البنتاغون
وقال إميل مايكل، كبير مسؤولي التكنولوجيا في البنتاغون، لشبكة CNBC يوم الجمعة، إنه سيكون من غير المسؤول الوثوق بشركة واحدة فقط، وهو اعتراف بالخلاف مع شركة أنثروبيك.
قال مايكل: “وعندما اكتشفنا أن أحد الشركاء لا يريد حقًا العمل معنا بالطريقة التي أردنا العمل بها، خرجنا وتأكدنا من أن لدينا العديد من الموردين المختلفين”.
عملت بعض الشركات، بما في ذلك أمازون ومايكروسوفت، منذ فترة طويلة مع الجيش في إعدادات سرية ولم يكن من الواضح على الفور ما إذا كانت الاتفاقيات الجديدة قد غيرت بشكل كبير شراكاتها الحكومية. وهناك شركات أخرى، مثل شركة تصنيع الرقائق Nvidia وشركة Reflection الناشئة، جديدة في هذا النوع من العمل. تقوم كلتا الشركتين بإنشاء نماذج مفتوحة المصدر للذكاء الاصطناعي، والتي وصفها مايكل بأنها أولوية لتوفير “بديل أمريكي” للتطور السريع لأنظمة الذكاء الاصطناعي في الصين، حيث تكون بعض المكونات الرئيسية متاحة للعامة حتى يتمكن الآخرون من استخدامها.
وقال البنتاغون يوم الجمعة إن الأفراد العسكريين يستخدمون بالفعل قدرات الذكاء الاصطناعي من خلال منصته الرسمية GenAI.mil.
وقال البنتاغون: “إن المقاتلين والمدنيين والمقاولين يستخدمون هذه القدرات عمليًا في الوقت الحالي، مما يقلل العديد من المهام من أشهر إلى أيام”، مضيفًا أن قدرات الذكاء الاصطناعي المتنامية للجيش “ستمنح المقاتلين الأدوات التي يحتاجونها للعمل بثقة وحماية الأمة من أي تهديد”.
وقال تونر من جامعة جورج تاون، إنه في كثير من الحالات، يستخدم الجيش الذكاء الاصطناعي بنفس الطريقة التي يستخدمها المدنيون: لأداء المهام الروتينية التي قد يستغرق إكمالها ساعات أو أيام.
وقالت إنه يمكن استخدام الذكاء الاصطناعي للتنبؤ بشكل أفضل عندما تحتاج طائرة هليكوبتر إلى الصيانة أو معرفة كيفية نقل كميات كبيرة من القوات والمعدات بكفاءة. ويمكن أن يساعد أيضًا في تحديد ما إذا كانت المركبات الموجودة في موجزات مراقبة الطائرات بدون طيار مدنية أم عسكرية.
لكن لا ينبغي للناس أن يعتمدوا عليه بشكل مفرط.
وقال تونر: “هناك ظاهرة تسمى التحيز الآلي، حيث يمكن أن يميل الناس إلى افتراض أن الآلات تعمل بشكل أفضل مما تفعله في الواقع”.
أفاد أوبراين من بروفيدنس، رود آيلاند.
اتبع تغطية AP للذكاء الاصطناعي على https://apnews.com/hub/artificial-intelligence.
– بن فينلي ومات أوبراين، وكالة أسوشيتد برس










