لجنة خبراء أممية لضمان تحكم البشر في الذكاء الاصطناعي

أعلن الأمين العام للأمم المتحدة، أنطونيو غوتيريش، الجمعة، عن تشكيل لجنة خبراء أممية لضمان تحكم البشر في الذكاء الاصطناعي، وذلك خلال مشاركته في “قمة نيودلهي” المخصصة لمناقشة مستقبل هذه التقنية المتنامية. ورغم تأكيد غوتيريش على أهمية “حوكمة قائمة على العلم”، فقد حذر الوفد الأميركي من السيطرة المركزية على الذكاء الاصطناعي التوليدي، مما يسلط الضوء على التحديات التي تواجه التوصل إلى توافق دولي حول آليات تنظيم هذا المجال.

لجنة خبراء أممية لضمان تحكم البشر في الذكاء الاصطناعي

تهدف لجنة الخبراء الأممية، التي أشرف عليها الأمين العام للأمم المتحدة أنطونيو غوتيريش، إلى ترسيخ “حوكمة قائمة على العلم” فيما يتعلق بالذكاء الاصطناعي. وقد جاء هذا الإعلان خلال “قمة نيودلهي” التي ناقشت مستقبل هذه التقنية الحيوية. وفي المقابل، أبدى الوفد الأميركي تحفظات بشأن فرض سيطرة مركزية على الذكاء الاصطناعي التوليدي، مشيراً إلى صعوبة تحقيق إجماع دولي حول آليات التنظيم والإدارة.

تأتي هذه المبادرات في ظل تصاعد المخاوف بشأن التحديات الناجمة عن التطور المتسارع للذكاء الاصطناعي، بما في ذلك فقدان الوظائف، انتشار المعلومات المضللة، تعزيز أنظمة المراقبة، إساءة الاستخدام عبر الإنترنت، والاستهلاك الهائل للطاقة اللازمة لتشغيل مراكز البيانات. وفي هذا السياق، أكد غوتيريش في القمة أن “الرسالة بسيطة: تقليل التهويل والخوف وزيادة الحقائق والأدلة” في التعامل مع هذا المجال.

وخلال اليوم الأخير للقمة التي امتدت لخمسة أيام، كان من المتوقع أن يتوصل قادة ووزراء بارزون لرسم رؤية مشتركة حول فوائد الذكاء الاصطناعي، مثل الترجمة الفورية واكتشاف الأدوية، إلى جانب مخاطره المحتملة. وتُعد هذه القمة هي الرابعة ضمن سلسلة الاجتماعات العالمية السنوية المخصصة لسياسات الذكاء الاصطناعي، ومن المقرر أن تستضيف جنيف اجتماعاً مماثلاً في النصف الأول من عام 2027.

وأوضح غوتيريش أن الجمعية العامة للأمم المتحدة وافقت على تعيين 40 عضواً في “الفريق العلمي الدولي المستقل المعني بالذكاء الاصطناعي”. يهدف هذا الفريق، الذي أُنشئ في أغسطس 2024، إلى أن يصبح مرجعاً علمياً في مجال الذكاء الاصطناعي، على غرار الهيئة الحكومية الدولية المعنية بتغير المناخ في مجال السياسات البيئية العالمية.

وشدد غوتيريش على أن “الحوكمة القائمة على العلم ليست عائقاً أمام التقدم”، مضيفاً: “عندما نفهم ما يمكن للأنظمة أن تفعله – وما لا يمكنها فعله – نتمكّن من الانتقال من تدابير عامة إلى ضوابط أذكى قائمة على تقدير المخاطر”. وأكد أن “هدفنا هو جعل التحكم البشري واقعاً تقنياً، لا مجرد شعار”.

على الجانب الآخر، حذر مايكل كراتسيوس، مستشار البيت الأبيض لشؤون التكنولوجيا ورئيس الوفد الأميركي، من أن “الاعتماد على الذكاء الاصطناعي لن يفضي إلى مستقبل أفضل إذا خضع للبيروقراطية والسيطرة المركزية”. وأكد رفض الإدارة الأميركية “رفضاً قاطعاً للحوكمة العالمية للذكاء الاصطناعي”، مشدداً على موقف إدارة الرئيس دونالد ترمب.

تُعتبر قمة نيودلهي الأكبر من نوعها حتى الآن، والأولى التي تُعقد في دولة نامية، مما يمنح الهند فرصة لتعزيز تطلعاتها في مجال الذكاء الاصطناعي. وتتوقع الهند استثمارات تتجاوز 200 مليار دولار أميركي خلال العامين المقبلين، وقد أعلنت شركات تكنولوجيا أميركية كبرى عن صفقات جديدة ومشروعات بنية تحتية في البلاد.

وكان سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي”، قد دعا سابقاً إلى الإشراف على التكنولوجيا، لكنه أعرب عن قلقه من أن الإفراط في التنظيم قد يعيق الولايات المتحدة في سباق الذكاء الاصطناعي. وقال ألتمان في القمة: “إن تركيز التحكم بهذه التكنولوجيا في يد شركة واحدة أو دولة واحدة قد يؤدي إلى كارثة”. وأضاف: “هذا لا يعني أننا لن نحتاج إلى أي تنظيم أو ضمانات. نحن بحاجة إليها بشكل عاجل، كما هي الحال مع التقنيات الأخرى القوية”.

قد تجعل الطبيعة الواسعة لمناقشات القمة والوعود غير المحددة التي قُطعت في دوراتها السابقة من الصعب الخروج بالتزامات ملموسة. ومع ذلك، أشارت نيكي إيلياديس، مديرة حوكمة الذكاء الاصطناعي العالمية في مؤسسة “ذا فيوتشر سوسايتي”، إلى أن “حوكمة التقنيات القوية عادة ما تبدأ بالتوصل إلى لغة مشتركة: ما المخاطر المهمة؟ وما المستويات غير المقبولة؟”.

تناولت المناقشات في قمة نيودلهي، التي حضرها الآلاف من ممثلي قطاع الذكاء الاصطناعي، قضايا حيوية مثل حماية الأطفال وضمان الوصول العادل إلى أدوات الذكاء الاصطناعي عالمياً. وكان رئيس الوزراء الهندي، ناريندرا مودي، قد صرح بأن “واجبنا أن نوجّه استخدام الذكاء الاصطناعي بما يخدم الصالح العام العالمي”.

ماذا بعد؟ من المرجح أن تشهد الفترة المقبلة مزيداً من النقاشات حول آليات تطبيق “الحوكمة القائمة على العلم” في مجال الذكاء الاصطناعي. ويبقى التحدي الأكبر هو تحقيق التوازن بين الابتكار والتنظيم، وتجاوز الخلافات الدولية حول نموذج السيطرة على هذه التقنية الواعدة.