مشهد من المستقبل… مطار ياباني يبدأ استخدام روبوتات بشرية في مناولة الأمتعة

خبراء يحذّرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في ظل التطور المتسارع لتقنيات الذكاء الاصطناعي، تتعاظم المخاوف بشأن استغلال هذه الأدوات في مجالات حساسة وخطيرة، خاصة مع ظهور مؤشرات مقلقة على قدرة الذكاء الاصطناعي على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية. هذه التهديدات غير التقليدية تثير قلق الخبراء حيال توسيع نطاق المخاطر الأمنية.

شهدت هذه المخاوف تأكيداً عملياً عندما فوجئ الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة بجامعة ستانفورد، بقدرة أحد برامج الدردشة الآلية على شرح كيفية تعديل مسبب مرض خطير ليصبح مقاوماً للعلاجات، وتقديم سيناريوهات لنشره. هذه التجربة التي كُشف عنها في تقرير لـ صحيفة «نيويورك تايمز»، تعكس تحدياً أمنياً جديداً يواجهه العالم.

تجربة صادمة لعالم في جامعة ستانفورد تكشف عن مخاطر الذكاء الاصطناعي

في تفاصيل التجربة التي أجراها الدكتور ديفيد ريلمان، كُلّف من قبل شركة تعمل في مجال الذكاء الاصطناعي بتقييم منتجها. البرمجية لم تكتفِ بتقديم إجابات عامة، بل قدمت شرحاً مفصلاً لطرق تعديل مسبب مرض خطير في المختبر لجعله مقاوماً للعلاجات المعروفة. ولعل الأكثر إثارة للقلق هو عرض البرنامج لسيناريوهات دقيقة حول كيفية نشر هذا المسبب المرضي، مع الإشارة إلى ثغرة أمنية في نظام نقل عام كبير لزيادة عدد الضحايا وتقليل فرص الكشف.

طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية، بسبب خطورة المعلومات التي أُفصِح عنها. هذه التجربة سببت له صدمة عميقة، وقال: «لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب».

ورغم أن الشركة المطوّرة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر المتزايدة لـ الأسلحة البيولوجية.

خبراء يحذرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

ريلمان هو واحد من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وأظهرت محادثات هؤلاء الخبراء مع روبوتات الدردشة، والتي وصل عددها إلى أكثر من 12 محادثة، أن النماذج المتاحة للجمهور تجاوزت مجرد توفير المعلومات العامة.

فقد قدمت هذه النماذج شرحاً مفصلاً لكيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل وحتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف.

لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، بما في ذلك استخدام بكتيريا أو فيروسات أو سموم فتاكة. وشهد العالم عشرات الحوادث البيولوجية المحدودة منذ سبعينات القرن الماضي، مثل هجمات الرسائل الملوثة عام 2001 التي أودت بحياة 5 أميركيين.

ويرى الخبراء أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، لكن تداعياتها المحتملة قد تكون كارثية، حيث يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.

الذكاء الاصطناعي يوسّع نطاق خطر الأسلحة البيولوجية

يؤكد عشرات الخبراء أن الذكاء الاصطناعي يمثل عاملاً رئيسياً يزيد من هذه المخاطر، من خلال توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين. أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية مباشرة للمستهلكين. ويمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة.

وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج الذكاء الاصطناعي. في إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة. وفي مثال آخر، قام برنامج بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً، مما يؤكد المخاطر المحتملة لـ التهديدات البيولوجية.

تراجع الرقابة ومخاوف متزايدة من إساءة استخدام الذكاء الاصطناعي

في سياق متصل، أثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إضافة إلى انخفاض ملحوظ في ميزانيات الدفاع البيولوجي.

من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة لمجال الذكاء الاصطناعي والمخاطر المصاحبة لهذه التقنيات. ما يزال النقاش حول سبل تنظيم هذه التقنيات مفتوحاً مع تصاعد المخاوف من التصنيع البيولوجي غير المشروع.

في المستقبل القريب، يُتوقع أن يستمر الجدل حول كيفية تحقيق التوازن بين الابتكار والتحكم في تقنيات الذكاء الاصطناعي. من الضروري مراقبة التطورات التشريعية والتقنية التي تسعى لضمان الاستخدام الآمن لهذه الأدوات، مع التركيز على التعاون الدولي لتقليل مخاطر الأسلحة البيولوجية والتهديدات البيولوجية المتزايدة.