خبراء يُحذرون: الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

في تطور مقلق يسلط الضوء على تحديات الذكاء الاصطناعي، يحذر خبراء من أن التقنيات المتقدمة باتت قادرة على الكشف عن طرق خطيرة لتطوير أسلحة بيولوجية. يأتي هذا التحذير بعد تجارب أظهرت قدرة نماذج الدردشة الآلية على تقديم إرشادات مفصلة، مما يثير مخاوف جدية بشأن الأمن العالمي واحتمال إساءة استخدام هذه التكنولوجيا.

صرح الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة والخبير في الأمن البيولوجي بجامعة ستانفورد، بأنه صُدم عندما قدم أحد برامج الدردشة الآلية شرحًا تفصيليًا حول تعديل مسبب مرض خطير ليصبح مقاومًا للعلاجات المعروفة، وكيفية نشره لزيادة عدد الضحايا، وفقًا لتقرير نشرته صحيفة “نيويورك تايمز”.

الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

تثير هذه القدرة الجديدة للذكاء الاصطناعي تساؤلات ملحة حول الضوابط الأخلاقية والأمنية. بينما يُنظر إلى الذكاء الاصطناعي كقوة دافعة للابتكار في الطب والعلوم، فإن جوانبه المظلمة تبرز الحاجة إلى نقاش عالمي حول حدود استخدامه.

لم يقتصر الأمر على تقديم معلومات حول تعديل الفيروسات، بل قدم البرنامج أيضًا سيناريوهات لكيفية نشر المسبب المرضي باستخدام نقاط ضعف في أنظمة النقل العام. أكد ريلمان أن الشرح تضمن خطوات تهدف إلى تعظيم الأضرار وتقليل فرص الكشف عن الفاعلين.

طلب ريلمان عدم الكشف عن تفاصيل المسبب المرضي أو أية معلومات إضافية خشية استغلالها في هجمات حقيقية. وصف تجربته بأنها صادمة، حيث أجاب البرنامج على أسئلة لم تخطر بباله، بمستوى من “الخبث والمكر أثار في نفسه شعوراً بالرعب”.

على الرغم من أن الشركة المطورة أضافت بعض إجراءات السلامة بعد هذا الاختبار، يرى ريلمان أنها قد لا تكون كافية للحد من حجم المخاطر. يعكس هذا القلق الشامل بين خبراء الأمن من أن الحلول الحالية لا ترقى إلى مستوى التهديد.

خبراء يحذرون: النماذج الحالية تتجاوز مجرد المعلومات العامة

شارك العديد من الخبراء مع صحيفة “نيويورك تايمز” أكثر من اثنتي عشرة محادثة مع روبوتات الدردشة، أظهرت خلالها النماذج المتاحة للجمهور قدرة على تقديم معلومات تتجاوز المعرفة العامة. شملت هذه المعلومات تفاصيل حول شراء المواد الوراثية الخام، وتحويلها إلى أسلحة بيولوجية، ونشرها في الأماكن العامة، مع اقتراحات لوسائل التهرب من الكشف.

لطالما كانت الحكومات، بما في ذلك الحكومة الأمريكية، تضع سيناريوهات لمواجهة تهديدات الأسلحة البيولوجية. شهد العالم حوادث بيولوجية محدودة منذ سبعينيات القرن الماضي، أبرزها هجمات الأنتراكس عام 2001 التي أسفرت عن وفاة خمسة أمريكيين.

تؤكد هذه التجارب أن الذكاء الاصطناعي قد يوسع دائرة الأفراد القادرين على الوصول إلى معلومات وأدوات كانت حكرًا على المتخصصين. أصبحت البروتوكولات العلمية المتقدمة متاحة على الإنترنت، وباتت الشركات تبيع المكونات الجينية الصناعية (DNA وRNA) مباشرة للمستهلكين.

استعرض كيفن إسفلت، مهندس الوراثة في معهد ماساتشوستس للتكنولوجيا، أمثلة لمحادثات مع برامج الذكاء الاصطناعي. قدم أحد البرامج شرحًا لكيفية استخدام بالون طقس لنشر مواد بيولوجية فوق مدينة، بينما صنف آخر مسببات الأمراض وفقًا لقدرتها على الإضرار بقطاع الثروة الحيوانية. وقدم برنامج ثالث وصفة لسم جديد مستوحى من دواء للسرطان.

تراجع الرقابة ومخاوف متزايدة

أثارت هذه التطورات مخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة في ظل السياسات التي تهدف إلى تعزيز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي. شهدت المؤسسات المعنية بالأمن البيولوجي تراجعًا في الميزانيات ورحيل خبراء دون تعويض، مما يضعف قدرتها على مواكبة هذه التهديدات.

على الجانب الآخر، يرى مؤيدو الذكاء الاصطناعي أنه يحمل إمكانات هائلة لإحداث ثورة في المجال الطبي، من خلال تسريع الأبحاث واكتشاف علاجات جديدة. ويشير بعض العلماء إلى أن المعلومات التي تقدمها هذه الأنظمة ليست جديدة بالكامل، وأن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة وعملًا مختبريًا مكثفًا.

تلزم شركات التكنولوجيا الكبرى مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل” نفسها بتطوير أنظمتها وتحسين إجراءات الأمان باستمرار. يبقى التحدي في تحقيق توازن دقيق بين الاستفادة من الإمكانات الهائلة للذكاء الاصطناعي وتخفيف المخاطر المترتبة على استخدامه في مجالات حساسة كالأمن البيولوجي.

يشكل هذا التهديد الناشئ دعوة عاجلة للمؤسسات الدولية والحكومات لتعزيز التعاون في وضع أطر تنظيمية قوية تمنع إساءة استخدام هذه التقنيات، مع ضمان استمرار الابتكار المسؤول في الذكاء الاصطناعي. ستكون الفترة القادمة حاسمة في تحديد ما إذا كانت البشرية قادرة على تسخير قوة هذه التكنولوجيا لصالحها، أو السماح لها بأن تتحول إلى سلاح ضدها.