قدمت تقنيات الذكاء الاصطناعي كثير من المنتجات والخدمات. ولا شك أن الاعتماد على هذه التقنيات في تقليد الأصوات هو أمر ممتع ومثير للاهتمام، لكنه وبكل تأكيد خطير إلى حد كبير.
وأصبحت تلك التقنيات قادرة الآن على استنسات الأصوات وتخليقها بشكل دقيق ومقنع إلى أقصى حد. حيث إن كل ما قد يحتاجه المستخدم هو تزويد نموذج الذكاء الاصطناعي بملفات صوتية لأي شخص. وبناءًا عليه يستطيع الذكاء الاصطناعي محاكاة صوت هذا الشخص والحديث به.
وبمجرد انتهاء عملية تعليم الذكاء الاصطناعي تلك فإن تجربة الاستخدام تصبح أسهل. حيث إن الذكاء الاصطناعي سيكون قادر على قراءة أي نص بصوت حقيقي ومقنع إلى حد كبير. ولذلك فإنه من الممكن خداع أي شخص بالاعتماد على هذه التقنية.
اقرأ أيضًا: الذكاء الاصطناعي يشخص الخرف عبر مسح دماغي واحد
وقد تطورت هذه التقنيات بشكل كبير في الفترة الأخيرة، وهي التي يتم وصفها بمصطلح “تركيب الكلام”. وقد أصبحت الشبكات العصبية قادرة الآن على محاكاة الصوت بشكل كامل وليس فقط من خلال تقطيع الكلمات لحروف ومن ثم ربطها مرة أخرى.
ومن المميز – والمخيف أيضًا – حول تقنيات تركيب الكلام أنها ليست حصرية لشركة أو منصة معينة. بل إنها تقنية متاحة للجميع. بمجرد البحث عبر جوجل على عبارات مثل “AI voice synthesis” أو “AI voice deepfakes” سوف تظهر نتائج عديدة لمواقع تقدم هذه الخدمة. مثل Resemble.AI و Respeecher وغيرهم.
اقرأ أيضًا: استخدامات الذكاء الاصطناعي في الحياة اليومية
تقليد الأصوات عبر الذكاء الاصطناعي
بالرغم من أن هذه التقنيات لازالت في بداية عهدها إلا أنها قد أثارت قلق وريبة ملايين المستخدمين حول العالم. خصوصًا بعدما تم استخدامها في مشاريع حقيقية.
ولعل بدايات ذلك قد ظهر جليًا في أحد الأفلام الوثائقية التي تم إنتاجها قريبًا. حيث إن فيلمًا وثائقيًا عن الطباخ أنتوني بوردين قد صدر في شهر يوليو الماضي. وبعد صدوره كشف صناعه أنهم اعتمدوا على الذكاء الاصطناعي فقط لتقليد صوت بوردين.
وذلك حيث إن بوردين قد أرسل لصناع الفيلم خطابًا يضم بعض النصوص. وبدلًا من عرضه بطريقة تقليدية فقد استعانوا بالذكاء الاصطناعي لتقليد صوت الرجل. كما أن هناك تطبيقات أخرى مفيدة قد ظهرت، وذلك حينما أعلنت شركة ناشئة عن نجاحها في صناعة نسخة من صوت الممثل فال كيلمر، وذلك بعدما تضررت أحباله الصوتية بسبب العلاج.
اقرأ أيضًا: سنغافورة تستخدم الروبوتات لإجراء دوريات
وتتناول الأمثلة السابقة استخدامات مفيدة وأخلاقية لهذه التقنيات، لكن لا شك أن هناك استخدامات أخرى أكثر ضررًا، مثل تقليد أصوات شخص ما لخداع شخص آخر، أو حتى الاستخدام في عمليات النصب والخداع عمومًا.
وقد انتقلت هذه التقنيات لمرحلة أخرى أكثر ظرافة. حيث إن المشاهير والممثلين قد يقومون في المستقبل “بتأجير أصواتهم” من خلال خدمات مدفوعة عبر الإنترنت. ومثال على ذلك كانت شركة Veritone والتي أطلقت خدمة مشابهة تتيح ترخيص أصوات المشاهير واستخدامها.
كما تم الاعتماد على هذه التقنيات حتى ضمن برمجيات وتطبيقات موجهة للمستخدمين العاديين، مثل تطبيق البودكاست من شركة Descript والذي يتيح لصناع المحتوى إنشاء نسخة من أصواتهم واستغلالها في صناعة المحتوى.
اقرأ أيضًا: سوني تريد صنع روبوتات يمكنها الفوز بجائزة نوبل