كشفت وزارة الدفاع الأمريكية أن الذكاء الاصطناعي قاد طائرة مشابهة لطائرة إف-16 لمدة 17 ساعة موزّعة على 12 رحلة، وقد جرت هذه الرحلات في ديسمبر الماضي في قاعدة إدواردز الجوية بكاليفورنيا باستخدام طائرة تجريبية تدعى X-62A فيستا.
وقد تحكّمت بالطائرة أربع خوارزميات للذكاء الاصطناعي نفذت القتال الجوي في مهمات تُحاكي المعارك الجوية الحقيقية، بما في ذلك الإقلاع والهبوط الآليين.
ولا يُعد استخدام نظام الطيار الآلي شيئًا جديدًا، سواء في الطائرات المقاتلة أو في طائرات الركّاب، إذ يُستخدم هذا النظام للتنقل على مسارٍ محدد باستخدام تقنية تحديد الموقع الجغرافي GPS. إلّا أن القتال الجوي دون أي تدخل بشري هو شيء جديد بالكامل. وتقول شركة (لوكهيد مارتن)، التي صممت الطائرة، إن هذه أول مرة يجري فيها “التعامل مع طائرة تكتيكية بواسطة الذكاء الاصطناعي”.
ويأتي ذلك ضمن مشروع بحثي مشترك بين وكالة مشاريع البحث المتقدم للدفاع (DARPA) والقوات الجوية الأمريكية لتعزيز تقنيات الطيران الذاتي.
ويهدف البرنامج إلى تطوير التحكم الذاتي المدعوم بالذكاء الاصطناعي في طائرات الاعتراض والهجوم، وقد بدأ البرنامج في عام 2019، وأقيم في أغسطس 2020 مسابقة تحدي وضعت هذه التقنية في معركة جوية افتراضية انتهت بفوز الذكاء الاصطناعي على طيار حربي محترف يقود طائرة F-16 محاكاة.
وقال العقيد (رايان هيفرون)، مدير البرنامج إن الفريق أجرى عدة رحلات لاختبار الخوارزميات في ظروف مختلفة من حيث نوعية الأعداء وقدراتهم السلاحية، بهدف تدريب التقنية الجديدة على التكيف مع مختلف ظروف القتال بشكل أفضل.
ويُثير استخدام الذكاء الاصطناعي في اتخاذ القرارات العسكرية جدلًا كبيرًا بين المؤيدين والمعارضين، وذلك منذ عدة أعوام عندما ظهرت التقارير التي تتحدث عن اختبار الدول الكبرى لهذه التقنية. إذ يرى المؤيدون أن التقنية تُساهم في تحسين القدرات العسكرية وتقليل الخطأ البشري، في حين يشعر المعارضون بالقلق من المخاطر المحتملة والعواقب غير المقصودة التي قد تجلبها هذه التقنية.
ويقلق المعارضون من احتمال غياب المساءلة والشفافية في حال الاعتماد على الذكاء الاصطناعي في اتخاذ القرارات، إذ يصبح من الصعب تتبّع أسباب تلك القرارات وبالتالي صعوبة حصر المسؤولية لو اتخذ الذكاء الاصطناعي قرارًا خاطئًا قد يؤدي إلى نتائج كارثية كاستهداف الصواريخ لأهداف خاطئة أو إيقاع خسائر بين المدنيين. والسؤال المطروح هنا هو: هل يتحمل المسؤولية مُشغّلي التقنية؟ أم الصانع؟ أم الجهاز نفسه؟
هناك أيضًا مخاوف بشأن احتمال تعطّل أنظمة الذكاء الاصطناعي أو اختراقها من قبل الخصوم، مما يمكن أن يؤدي إلى عواقب غير مقصودة. إذ يرى المعارضون للتقنية احتمال أن تؤدي إلى زيادة مخاطر التصعيد في الحروب وتقويض إمكانية التوصل إلى الحلول السلمية.