الذكاء الاصطناعي أصبح يحتل حيزا كبيرا من حياة البشر، إذ أنه دخل في الكثير من المجالات، ويتمتع بالعديد من الفوائد، ولكن توجد عدة مخاطر تتمثل في استعماله بأغراض غير أخلاقية، وهناك بعض الخيارات للسيطرة على تلك التهديدات ومحاولة الحد منها للحفاظ على الخصوصية بحسب موقع «سي إن إن».
وتأتي خيارات معالجة تهديدات الذكاء الاصطناعي على النحو التالي:
الحد من جمع البيانات والاكتفاء بالحد الأدنى منها
ينصح الخبراء بالحد من جمع البيانات، والاكتفاء بالمهم فقط، إذ يتعارض هذا الأمر مع بعض الشركات التي تجمع أكبر قدر من المعلومات دون مراعاة للتهديدات التي تشكلها وما نتاج هذا الجمع غير المحكم؛ لذا يجب تقليل جمع البيانات بدرجة كبيرة للحد من المخاطر الناتجة عن ذلك، بالإضافة لفرض قيود قانونية على استخدام البيانات بالشكل المحدد المطلوب للوصول إلى الهدف المراد فقط.
تقييمات التأثير الخوارزمي على الاستخدام العام
تقييمات التاثير الخوارزمي من أهدافها الأساسية إخضاع الشركات التي تستخدم صناعة القرار للمحاسبة، ولكن تقييمات التأثير الخوارزمي تواجه مشكلات التعتيم، بالإضافة إلى حث المؤسسات على التخفيف من الأضرار الناتجة عن استخدام الذكاء الاصطناعي، كما يكشف التقييم الخوارزمي عن أنظمة صناعة القرار التي تعتمد على الذكاء الاصطناعي، فضلاً عن أغراضها ونطاقها بما في ذلك التاثيرات الناتجة على المجتمعات قبل بدء استخدام أي خوارزميات والعمل على الحد من الخوارزميات الضارة.
التدقيق الخوارزمي
لمواجهة مخاطر الذكاء الاصطناعي على الخصوصية يمكن استخدام التدقيق الخوارزمي، وهو يُعد تقييماً منظماً لأي نظام ذكاء اصطناعي لضمان توافقه مع الأهداف والمعايير والاشتراطات القانونية المحددة سلفا للحد من أي مخاطر ناشبة من الاستخدام، وبالتالي فإن التدقيق الخوارزمي يفحص تصميم ومدخلات ومخرجات أي نظام، وحالات الاستخدام والأداء بشكل عام وبصورة مستمرة لتحديد أي فجوات أو ثغرات أو مخاطر، ويشترط التدقيق الخوارزمي وضع أهداف محددة وواضحة مثل التحقق من الأداء والدقة، بالإضافة إلى وضع معايير موحدة لتقييم أداء النظام، فضلاً عن الميزات الهامة للتدقيق منها التأكيد أن البيانات تستخدم في الإطار التي تم الموافقة عليه من قبل الأشخاص، وذلك في إطار الحفاظ على الخصوصية.
الإفصاح الإلزامي
وهو يعني ضرورة إبلاغ العامة بأن المؤسسات هذه تستخدم الذكاء الاصطناعي، مثال يلزم قانون الذكاء الاصطناعي في الاتحاد الأوروبي الشركات بوضع علامة مميزة على أي محتوى منتج باستخدام الذكاء الاصطناعي لمعرفة الجمهور باستخدامات الشركة المنتجة، كما يشترط قانون الاتحاد الأوروبي الإفصاح عن استخدام أنظمة الذكاء الاصطناعي لتصنيف الأشخاص أو التعرف على مشاعرهم أو نواياهم باستخدام البيانات اليومترية الخاصة بهم، وذلك للحفاظ على الحق في الخصوصية.
الاعتبارات المتعلقة بصناع السياسة
من الخيارات المهمة لمعالجة مخاطر الذكاء الاصطناعي والتي تعمل على تحقيق التوازن بين التنظيم والابتكار، لذلك فإن توسيع المشاركة في صياغة سياسات وقواعد للذكاء الاصطناعي تعمل على الحد من المخاوف الناتجة عنه، والتي تؤدي إلى خنق الابتكار والتطوير الناجم عنه بشكل مستمر، فضلاً عن المزايا التي توفرها تقنيات الذكاء الاصطناعي للبشرية، من خلال ذلك وفر قانون الاتحاد الأوروبي للذكاء الاصطناعي ما يعرف بصناديق الاختبار التنظيمية التي تعني إيجاد بيئة اختبار وتجربة خاضعة لرقابة صارمة من جانب الجهات التنظيمية، كما أن هدفها الرئيسي هو تعزيز الابتكار الناتج عن الذكاء الاصطناعي من خلال توفر كل سبل الابتكار لناتج أفضل لا يشوبه أي مخاطر.