تحذير.. ChatGPT-4o قد يُستخدم في الاحتيال وسرقة الأموال

أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI قد يستغلها مجرمو الإنترنت لتنفيذ عمليات احتيال مالي، وتتراوح معدلات نجاح هذه العمليات بين منخفضة ومتوسطة.

ويُعد ChatGPT-4o أحدث نموذج ذكاء اصطناعي من OpenAI، ويتميز بقدرته على استيعاب النصوص والأصوات والمرئيات وإخراجها. وللحد من إساءة الاستخدام، أدمجت OpenAI آليات أمان عدة تهدف إلى اكتشاف المحتوى الضار، ومنع تكرار الأصوات غير المُصرّح بها.

ومع ازدياد انتشار تقنيات التزييف الصوتي العميق وأدوات تحويل النص إلى صوت، تتفاقم مشكلة الاحتيال الصوتي التي تُقدر خسائرها بالملايين.

ونشر باحثون من جامعة إلينوي ورقة بحثية تبين أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات حماية كافية من إساءة استخدامها في عمليات الاحتيال.

واستعرضت الدراسة أنواعًا متعددة من عمليات الاحتيال، ومنها التحويلات المصرفية وسرقة بطاقات الهدايا وتحويل العملات الرقمية وسرقة بيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.

وتستخدم هذه العمليات الاحتيالية أدوات مُبرمجة تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، واتباع إرشادات الاحتيال. ويرفض نموذج GPT-4o غالبًا التعامل مع بيانات حساسة، لكن الباحثين استطاعوا تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.

ولإثبات فاعلية عمليات الاحتيال، حاكى الباحثون أدوار الضحايا في التجارب، واستخدموا مواقع مثل “بنك أمريكا” للتحقق من نجاح عمليات التحويل المصرفي، لكنهم لم يقيسوا مدى قدرة النموذج على الإقناع.

وأظهرت التجارب أن معدلات النجاح تراوحت بين 20% إلى 60%، مع احتياج كل محاولة لما يصل إلى 26 خطوة متتالية عبر المتصفح، وقد استغرقت نحو ثلاث دقائق في الحالات المعقدة. وقد نجحت عمليات سرقة بيانات حسابات Gmail بنسبة قدرها 60%، في حين بلغت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستاجرام إلى 40%.

ومن ناحية التكاليف، فإن تكلفة تنفيذ عمليات الاحتيال تُعد منخفضة؛ إذ بلغت تكلفة كل عملية ناجحة نحو 0.75 دولار أمريكي، في حين بلغت تكلفة عمليات التحويل المصرفي الأكثر تعقيدًا نحو 2.51 دولار فقط.

وفي تعليق لشركة OpenAI نشره موقع BleepingComputer التقني، أشارت إلى أن نموذجها الأحدث “o1-preview” يتمتع بقدرات عالية في مقاومة محاولات الاحتيال، وتحسين الأمان مقارنةً بالنماذج السابقة، كما يحقق تقييمًا عاليًا في اختبارات الأمان بنسبة قدرها 93%، مقارنةً بـ 71% في نموذج GPT-4o.

وأوضحت OpenAI أن الأبحاث الأكاديمية، مثل تلك التي قدمتها جامعة إلينوي، تُسهم في تحسين ChatGPT لمواجهة الاستخدامات الضارة. وأكدّت الشركة التزامها بتعزيز آليات الأمان في نماذجها القادمة، كما أنها تقيّد توليد الأصوات في GPT-4o بمجموعة من الأصوات المُصرّح بها لتجنب عمليات التزييف الصوتي.