في تطور مقلق، حذر خبراء من أن تقنيات الذكاء الاصطناعي، التي تتسارع وتيرتها، قد تكشف عن طرق خطيرة لتطوير أسلحة بيولوجية، مما يثير مخاوف جدية بشأن الأمن العالمي. هذه التقنيات، التي تروج كقوة دافعة للابتكار العلمي، بدأت تظهر قدرتها على توفير إرشادات قد تُستغل في بناء تهديدات بيولوجية غير تقليدية يصعب احتواؤها.
هذه المخاوف برزت بشكل حاد بعد تجربة صادمة لعالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد، الدكتور ديفيد ريلمان، الذي وجد نفسه أمام معلومات مفصلة حول تعديل مسببات الأمراض ونشرها.
الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية
خلال اختبار لبرنامج دردشة آلي صمّمته إحدى شركات الذكاء الاصطناعي، فوجئ ريلمان بقدرة البرنامج على تقديم شرح دقيق حول كيفية تعديل مسبب مرض خطير في المختبر لجعله مقاوماً للعلاجات المعروفة. وفقاً لصحيفة «نيويورك تايمز»، لم يقتصر الأمر على ذلك، بل اقترح البرنامج سيناريوهات مفصلة لنشر هذا المسبب المرضي، مستهدفاً ثغرات أمنية في نظم النقل العام.
تضمن الشرح خطوات لزيادة عدد الضحايا إلى أقصى حد وتقليل فرص الكشف عن الجهة المنفذة. طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية لمنع استغلال هذه المعلومات في هجمات حقيقية، ما أثار لديه صدمة عميقة جعلته يعرب عن شعوره بالرعب.
قدرات تتجاوز المعرفة العامة
يُعد ريلمان جزءاً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وقد أظهرت المحادثات بين هؤلاء الخبراء وروبوتات الدردشة قدرة النماذج المتاحة للجمهور على تقديم معلومات تتجاوز المعرفة العامة.
فقد شرحت هذه النماذج الأساليب المفصلة لشراء المواد الوراثية الخام، وتحويلها إلى أسلحة بيولوجية، وحتى نشرها في الأماكن العامة، مع اقتراح وسائل للتهرب من الكشف. لطالما وضعت الحكومات، ومنها الحكومة الأميركية، سيناريوهات لمواجهة تهديدات بيولوجية محتملة.
وشهد العالم حوادث بيولوجية محدودة، مثل هجمات الرسائل الملوثة عام 2001 التي أودت بحياة خمسة أميركيين. ورغم أن الخبراء يرون أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن التأثيرات المحتملة للأسلحة البيولوجية الفعّالة قد تكون كارثية، إذ يمكن أن تؤدي إلى وفاة ملايين الأشخاص.
الذكاء الاصطناعي يوسّع نطاق المخاطر
يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يُعد عاملاً رئيسياً في زيادة هذه المخاطر، من خلال توسيع دائرة الأفراد القادرين على الوصول إلى أدوات ومعلومات كانت حكراً على المتخصصين. أصبحت البروتوكولات العلمية المتقدمة متوفرة عبر الإنترنت، كما تبيع الشركات مكونات جينية صناعية (DNA وRNA) مباشرة للمستهلكين.
يمكن لبرامج الدردشة المساعدة في إدارة العمليات المعقدة، مثل تقسيم الأعمال الحساسة وإسنادها إلى مختبرات خاصة. وقد شارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي، حيث شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.
في مثال آخر، صنف برنامج آخر مسببات الأمراض بناءً على قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان، وهي معلومات وصفها إسفلت بأنها بالغة الخطورة لدرجة لا يمكن نشرها علناً.
تجارب صادمة ومعلومات خطرة
في تجربة أخرى، طلب عالم أميركي من نظام ذكاء اصطناعي تقديم “بروتوكول خطوة بخطوة” لإعادة تصنيع فيروس تسبب في جائحة سابقة. جاء الرد في شكل تعليمات مفصلة بلغت نحو 8 آلاف كلمة، تتضمن كيفية الحصول على المكونات الجينية وتجميعها.
رغم وجود بعض الأخطاء في هذه المعلومات، إلا أنها قد تكون مفيدة لشخص لديه نوايا عدائية. تتزامن هذه المخاوف مع تراجع الرقابة على هذه التقنيات، خاصة في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال تقنيات الذكاء الاصطناعي.
المستقبل والاحتواء
في حين يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، يرى آخرون أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وعملاً معملياً مكثفاً.
تؤكد شركات التكنولوجيا الكبرى، مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل”، أنها تعمل باستمرار على تطوير أنظمتها وتحسين إجراءات الأمان لتحقيق توازن بين الفوائد والمخاطر. يظل التحدي الأكبر هو كيفية صياغة سياسات وإجراءات سلامة فعالة لمواجهة هذا التهديد المتنامي، مع توقع الحاجة إلى تعاون دولي مكثف لتطويق مخاطر الذكاء الاصطناعي في هذا المجال الحساس.




























