اقترح قادة شركة أبحاث الذكاء الاصطناعي (أوبن أي آي) OpenAI، التي طوّرت روبوت الدردشة الذائع الصيت (شات جي بي تي) ChatGPT، تشكيل هيئة تنظيمية دولية للذكاء الاصطناعي على غرار الوكالة الدولية للطاقة الذرية.
وقال رئيس الشركة (جريج بروكمان) ومديرها التنفيذي (سام ألتمان) في منشور على مدونتها إنه ينبغي لنا من الآن بدء التفكير في إدارة الذكاء الخارق، وهي أنظمة الذكاء الاصطناعي المستقبلية التي ستبلغ من القدرة مبلغًا يجعلها تتفوق على ما يُعرف بـ «الذكاء الاصطناعي العام».
وقالت الشركة: «بالنظر إلى الصورة كما نراها الآن، فمن المتصور أنه في غضون السنوات العشر القادمة، سوف تتفوق أنظمة الذكاء الاصطناعي على الخبراء في معظم المجالات، وسوف تنفذ قدرًا كبيرًا من النشاط الإنتاجي مثل واحدة من أكبر الشركات اليوم».
وفيما يتعلق بكل من الجوانب الإيجابية والسلبية المحتملة، تعتقد (أوبن أي آي) OpenAI أن الذكاء الخارق سيكون أقوى من التقنيات الأخرى التي كان على البشرية مواجهتها في الماضي.
وقالت الشركة: «يمكننا أن نحظى بمستقبل أكثر ازدهارًا؛ لكن علينا إدارة المخاطر لبلوغ ذلك المستقبل. وبالنظر إلى احتمال وجود مخاطر وجودية على البشر، لا يمكننا أن نكون مجرد رد فعل». وضربت على ذلك مثالًا بالطاقة النووية والبيولوجيا التركيبية.
موضوعات ذات صلة بما تقرأ الآن:
ومع أنه يجب علينا أن نخفف من مخاطر تقنية الذكاء الاصطناعي الحالية، قالت الشركة إن الذكاء الخارق سيتطلب معالجة وتنسيقًا خاصين.
ولفعل ذلك، اقترحت (أوبن أي آي) OpenAI التنسيق بدرجة معينة بين جهود التطوير لضمان أن يُطوَّر الذكاء الخارق بطريقة تسمح لنا بالحفاظ على السلامة والمساعدة في تكامل هذه الأنظمة مع المجتمع بسلاسة.
وقالت الشركة إن هناك العديد من الطرق التي يمكن من خلالها تنفيذ ذلك، إذ يمكن للحكومات الكبرى في جميع أنحاء العالم أن تنشئ مشروعًا تصبح العديد من الجهود الحالية جزءًا منه، أو يمكن الاتفاق جماعيًا على معدل سنوي محدد لنمو قدرات الذكاء الاصطناعي.
وترى (أوبن أي آي) OpenAI أنه من المحتمل أن نحتاج في النهاية إلى شيء مثل الوكالة الدولية للطاقة الذرية للإشراف على جهود الذكاء الخارق.
ويجب أن يخضع أي جهد يتجاوز حدًا معينًا لسلطة دولية يمكنها فحص الأنظمة، وطلب عمليات تدقيق، واختبار الامتثال لمعايير السلامة، ووضع قيود على درجات النشر ومستويات الأمان ، إلخ.