خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية
في تطور مقلق، تُظهر تقنيات الذكاء الاصطناعي قدرة متزايدة على كشف طرق خطيرة لتطوير أسلحة بيولوجية، مما يزيد من المخاوف العالمية بشأن إساءة استخدام هذه الأدوات المتطورة. ففي حين يُنظر إلى الذكاء الاصطناعي على أنه محرك للابتكار العلمي والطبي، بدأت تظهر مؤشرات مقلقة إلى قدرته على تقديم إرشادات قد تُستغل في تطوير تهديدات بيولوجية غير تقليدية يصعب احتواؤها.
أثار عالم الأحياء الدقيقة وخبير الأمن البيولوجي في جامعة ستانفورد، الدكتور ديفيد ريلمان، هذه القضية بعد تجربة صادمة مع برنامج دردشة آلي صيف العام الماضي. كُلف ريلمان بتقييم منتج لشركة ذكاء اصطناعي، فوجد أن البرنامج لم يكتفِ بتقديم إجابات عامة، بل شرح تفصيلياً كيفية تعديل مسبب مرض خطير ليصبح مقاوماً للعلاجات وكيفية نشره، وفقاً لما نقلته صحيفة «نيويورك تايمز».
تجربة صادمة لعالم في جامعة ستانفورد تكشف الثغرات
أشار الدكتور ريلمان إلى أن البرنامج عرض سيناريوهات دقيقة لنشر المسبب المرضي مستغلاً ثغرة أمنية في نظام نقل عام كبير، بهدف زيادة عدد الضحايا وتقليل فرص الكشف عن الجهة المنفذة. وطلب ريلمان عدم الكشف عن اسم المسبب المرضي أو تفاصيل إضافية خشية استغلالها في هجمات حقيقية.
عبر ريلمان عن صدمته قائلاً: “لقد أجاب عن أسئلة لم تخطر ببالي، وبمستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب”. ورغم أن الشركة المطورة أضافت بعض إجراءات السلامة بعد الاختبار، فإن ريلمان رأى أنها غير كافية للحد من هذه المخاطر الكبيرة التي يشكلها الذكاء الاصطناعي.
الذكاء الاصطناعي يتجاوز الحدود: معلومات حساسة عن الأسلحة البيولوجية
ريلمان هو واحد من مجموعة محدودة من الخبراء الذين تستعين بهم شركات الذكاء الاصطناعي لتقييم المخاطر المحتملة. أظهرت محادثات هؤلاء الخبراء مع روبوتات الدردشة، والتي شاركوا منها أكثر من 12 محادثة مع صحيفة «نيويورك تايمز»، أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تتجاوز المعرفة العامة.
شرحت هذه النماذج كيفية تطوير أسلحة بيولوجية من خلال شراء مواد وراثية خام وتحويلها، بل وحتى نشرها في أماكن عامة، مع اقتراح وسائل للتهرب من الكشف. لطالما وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية، وشهد العالم عشرات الحوادث المحدودة، مثل هجمات الرسائل الملوثة عام 2001.
يرى الخبراء أن احتمال وقوع كارثة بيولوجية كبرى لا يزال منخفضاً، لكن تداعياتها المحتملة قد تكون كارثية وتودي بحياة الملايين. ويزيد الذكاء الاصطناعي من هذه مخاطر الأسلحة البيولوجية عبر توسيع دائرة الأفراد القادرين على الوصول إلى أدوات ومعلومات كانت حكراً على المتخصصين.
توسع نطاق المخاطر: من البروتوكولات المتقدمة إلى النشر
أصبحت البروتوكولات العلمية المتقدمة متاحة عبر الإنترنت، وتبيع الشركات المكونات الجينية الصناعية (DNA وRNA) مباشرة للمستهلكين. ويمكن لروبوتات الدردشة المساعدة في إدارة عمليات معقدة كانت تتطلب خبرة متخصصة.
شارك كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج ذكاء اصطناعي. ففي إحدى الحالات، شرح أحد البرامج كيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة، بينما قام آخر بتصنيف مسببات الأمراض وفق قدرتها على الإضرار بقطاع الثروة الحيوانية، وقدم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان. وأشار إسفلت إلى أن بعض هذه المعلومات كان بالغ الخطورة لدرجة لا يمكن نشرها علناً.
وفي تجربة أخرى، طلب عالم أميركي من نظام ذكاء اصطناعي تقديم “بروتوكول خطوة بخطوة” لإعادة تصنيع فيروس تسبب في جائحة سابقة. جاء الرد في شكل تعليمات مفصلة بلغ طولها نحو 8 آلاف كلمة، تتضمن كيفية الحصول على مكونات جينية وتجميعها، مما يوضح إمكانية استغلال تكنولوجيا الذكاء الاصطناعي في نوايا ضارة.
تراجع الرقابة ومخاوف متزايدة
تُثير مخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة في ظل سياسات تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة خبراء بارزين وانخفاضاً في ميزانيات الدفاع البيولوجي.
من جانبهم، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في الطب، وتسريع الأبحاث واكتشاف علاجات جديدة. ويشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.
في الختام، مع استمرار تطور الذكاء الاصطناعي، تظل الحاجة ماسة إلى توازن دقيق بين الابتكار والرقابة الصارمة. تؤكد شركات التكنولوجيا الكبرى، مثل «أنثروبيك» و«أوبن إيه آي» و«غوغل»، أنها تعمل على تحسين أنظمتها وإجراءات الأمان. ومع ذلك، فإن المخاوف بشأن استغلال هذه التقنيات في تطوير أسلحة بيولوجية ستبقى في صدارة النقاشات الأمنية والعلمية، مما يتطلب تعاوناً دولياً ومراقبة مستمرة لتجنب سيناريوهات كارثية محتملة.


























