جوجل تستنجد بموظفيها لتصويب إجابات روبوتها بارد

طلبت شركة جوجل من موظفيها مساعدتها على تدريب منتجها المنافس لروبوت الدردشة الذائع الصيت (شات جي بي تي) ChatGPT على تقديم إجابات صحيحة، وذلك بعد أن أدت الإجابات الخطأ إلى موجة انتقادات واسعة وخسارة 100 مليار دولار من قيمتها السوقية.

ويدرك المسؤولون التنفيذيون في عملاقة التقنية الأمريكية أن الروبوت الذكي (بارد) Bard ليس دقيقًا دائمًا في كيفية استجابته لطلبات البحث، والآن يبدو أنهم سيلقون ببعض العبء على عاتق الموظفين لإصلاح الإجابات الخطأ.

إذ طلب (برابهاكار راجافان)، نائب رئيس جوجل للبحث، من الموظفين برسالة بالبريد الإلكتروني يوم الأربعاء مساعدة الشركة على التأكد من أن (بارد) يقدم الإجابات الصحيحة، وشجّع الموظفين على إعادة كتابة الإجابات عن الموضوعات التي يفهمونها جيدًا.

وجاء في الوثيقة: «إن (بارد) يتعلم على نحو أفضل من خلال المثال، لذا فإن قضاء الوقت في إعادة كتابة رد مدروس سيقطع شوطًا طويلًا في مساعدتنا على تحسين الوضع».

وتُكرِّر تصريحات راجافان ما قاله أمس الأربعاء أيضًا الرئيس التنفيذي لشركة جوجل (سوندار بيتشاي)، الذي طلب من الموظفين قضاء ساعتين إلى أربع ساعات من وقتهم مع (بارد)، معترفًا بأن «هذه ستكون رحلة طويلة للجميع».

موضوعات ذات صلة بما تقرأ الآن:

وقال راجافان: «إن هذه تقنية مثيرة لكنها لا تزال في أيامها الأولى. ونحن نشعر بمسؤولية كبيرة لتنفيذها على النحو الصحيح، وستساعد مشاركتك في التطبيق التجريبي في تسريع تدريب النموذج واختبار قدرته التحميلية».



T2-M-II

T2-M-III

T2-M-IIII

m-MT-4

وكانت جوجل قد أعلنت عن روبوت الدردشة الذكي (بارد) الأسبوع الماضي، ولكن سلسلة من الأخطاء التي ارتكبها الروبوت أدت إلى انخفاض سعر السهم للشركة بنسبة 9 في المئة تقريبًا. وانتقد الموظفون بيتشاي بسبب الحوادث المؤسفة، وفيما بينهم وصفوا إطلاق الروبوت بأنه «متسرع» و «فاشل» و «قصير النظر على نحو مثير للضحك».

ولمحاولة التخلص من الأخطاء التي يرتكبها الذكاء الاصطناعي، يعتمد قادة الشركة على المعرفة البشرية، وقد تضمنت الوثيقة التي أُرسلت إلى الموظفين قسم «افعل ولا تفعل»، حيث تقدم جوجل إرشادات لما يجب مراعاته قبل تدريب (بارد).

ففي قسم «افعل»، طلبت جوجل من الموظفين الحفاظ على الردود «مهذبة وعادية ومما يسهل التعامل معها»، كما طلبت أن تكون «بضمير المتكلم»، وأن تحافظ على «نبرة محايدة وغير متعنتة». أما في قسم «لا تفعل»، فقد نهت جوجل الموظفين عن التنميط السلبي، ووضع افتراضات على أساس العرق، أو الجنسية، أو الجنس، أو العمر، أو الميول الجنسية، أو الأيديولوجية السياسية، أو الموقع.

كما نهت جوجل الموظفين أيضًا عن وصف (بارد) بأنه شخص، وعن إبداء العاطفة، أو ادعاء أن لديه تجارب شبيهة بالبشر. وطلبت منهم إبداء عدم الإعجاب بالإجابات التي يقدمها الروبوت وتحوي «نصائح قانونية وطبية ومالية» أو بغيضة ومسيئة.

ولتحفيز الموظفين على المشاركة في تدريب (بارد) وتقديم الملاحظات، قالت راجافان إن المساهمين سيحصلون على (شارة موما) Moma Badge التي تظهر ملفات تعريف الموظفين الداخلية.