تركز الورقة على نوعين من أنظمة الذكاء الاصطناعي: الأنظمة المخصصة للاستخدام الخاص مثل نظام (CICERO) من ميتا، والتي تم تصميمها لإكمال مهمة محددة، والأنظمة العامة مثل شات «جي بي تي»، والتي تم تدريبها لأداء مجموعة متنوعة من المهام.
على الرغم من أن هذه الأنظمة تم تدريبها على الصدق، إلا أنها غالبًا ما تتعلم حيلًا خادعة خلال تدريبها؛ لأنها قد تكون أكثر فعالية من اتباع الطريق الصحيح، وتشير الورقة إلى أن الأنظمة الاصطناعية المدربة على «الفوز في الألعاب التي تحتوي على عنصر اجتماعي» هي الأكثر احتمالًا للخداع.
مثلاً، تم تطوير نظام (CICERO) من ميتا للعب لعبة الدبلوماسية – لعبة إستراتيجية كلاسيكية تتطلب من اللاعبين بناء التحالفات وكسرها، وعلى الرغم من أن ميتا قامت بتدريب (CICERO) على أن يكون «صادقًا ومفيدًا لشركائه في الحديث»، إلا أن الدراسة وجدت أن (CICERO) أصبح خبيرًا في الكذب، فقد قام بالتزامات لم يكن يعتزم الوفاء بها، وخان الحلفاء، وقدم أكاذيب صريحة.