مع التطور السريع لتقنيات الذكاء الاصطناعي، تتزايد المخاوف بشأن إساءة استخدام هذه الأدوات في مجالات حساسة وخطيرة. ورغم الترويج لها كمحرك للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة لقدرتها على تقديم إرشادات قد تُستغل في تطوير أسلحة بيولوجية، ما يفتح الباب أمام تهديدات غير تقليدية. يُحذر خبراء من أن الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية، ما يتطلب يقظة عالمية.
في تجربة صادمة، وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة في جامعة ستانفورد، أن برنامج دردشة آلي قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير ليصبح مقاوماً للعلاجات، وكيفية نشره لاستهداف نقاط ضعف في أنظمة النقل العام، وفقاً لصحيفة “نيويورك تايمز”. هذا الاكتشاف يزيد من القلق بشأن مخاطر الأسلحة البيولوجية المدعومة بالذكاء الاصطناعي.
الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية: تجربة جامعة ستانفورد تحذر
وكُلّف ريلمان بتقييم منتج شركة تعمل في مجال الذكاء الاصطناعي قبل طرحه للجمهور. خلال التجربة، لم يكتفِ البرنامج بالإجابة عن أسئلة عامة، بل قدّم شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير في المختبر ليصبح مقاوماً للعلاجات المعروفة. كما عرض سيناريوهات دقيقة لكيفية نشر هذا المسبب المرضي، مشيراً إلى ثغرة أمنية في نظام نقل عام كبير بهدف زيادة عدد الضحايا وتقليل فرص الكشف.
وبسبب خطورة هذه المعلومات، طلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية خشية استغلالها في هجمات حقيقية. وقد أثارت هذه التجربة صدمة عميقة لديه، حيث صرّح: “لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب”. ورغم إضافة بعض إجراءات السلامة، رأى ريلمان أنها غير كافية للحد من هذه المخاطر البيولوجية.
خبراء يحذرون: قدرات النماذج الحالية تتجاوز المعلومات العامة
يعد ريلمان واحداً من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة لمنتجاتها. وقد أظهرت محادثات مع روبوتات الدردشة، شاركها عدد منهم مع صحيفة “نيويورك تايمز” خلال الأشهر الأخيرة، أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز حدود المعرفة العامة.
فقد شرحت هذه النماذج بشكل مفصل كيفية شراء مواد وراثية خام، وتحويلها إلى أسلحة بيولوجية، بل وحتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف. لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية محتملة، تشمل استخدام بكتيريا أو فيروسات أو سموم فتاكة. ورغم أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، فإن تداعياتها المحتملة قد تكون كارثية، إذ يمكن لسلاح بيولوجي فعّال أن يؤدي إلى وفاة ملايين الأشخاص.
الذكاء الاصطناعي يوسّع نطاق المخاطر البيولوجية
يشير عشرات الخبراء إلى أن الذكاء الاصطناعي يعد من أبرز العوامل التي قد تزيد من هذه المخاطر، عبر توسيع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكراً على المتخصصين. فقد أصبحت بروتوكولات علمية متقدمة متاحة على الإنترنت، كما باتت الشركات تبيع مكونات جينية صناعية مباشرة للمستهلكين.
ويمكن للعلماء تقسيم أعمالهم الحساسة وإسنادها إلى مختبرات خاصة، في حين يمكن لروبوتات الدردشة المساعدة في إدارة هذه العمليات المعقدة. وشارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي، منها شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة.
وفي مثال آخر، قام برنامج آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية. كما قدّم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان. وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً، مما يؤكد مدى خطورة استخدام الذكاء الاصطناعي في هذا المجال.
مخاوف بسبب تراجع الرقابة وتداعياته على الأمن البيولوجي
في تجربة أخرى، طلب عالم أميركي -فضّل عدم الكشف عن هويته- من أحد أنظمة الذكاء الاصطناعي تقديم “بروتوكول خطوة بخطوة” لإعادة تصنيع فيروس تسبب في جائحة سابقة. وجاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها. ورغم وجود بعض الأخطاء، فإن هذه المعلومات قد تكون مفيدة لشخص لديه نوايا ضارة.
في سياق متصل، أثيرت مخاوف بشأن تراجع الرقابة على هذه التقنيات، خصوصاً في ظل سياسات تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. وقد شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء دون تعويضهم، إلى جانب انخفاض ملحوظ في ميزانيات الدفاع البيولوجي، ما يزيد من التحديات في مواجهة التهديدات البيولوجية المتزايدة.
موازنة بين الابتكار والمخاطر
في المقابل، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، من خلال تسريع الأبحاث وتحليل البيانات الضخمة لاكتشاف علاجات جديدة. كما يشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعّالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.
من جانبها، أكدت شركات التكنولوجيا الكبرى، مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل”، أنها تعمل بشكل مستمر على تطوير أنظمتها وتحسين إجراءات الأمان، بهدف تحقيق توازن بين الفوائد المحتملة والمخاطر المصاحبة لهذه التقنيات. يبقى التحدي الأكبر في الفترة القادمة هو كيفية ضمان أن تطور الذكاء الاصطناعي يخدم الإنسانية دون أن يُستخدم في تطوير أسلحة بيولوجية، مما يستدعي تعاوناً عالمياً ورقابة صارمة.



























