تثير عمليات الاحتيال عبر استنساخ الأصوات البشرية بتقنية الذكاء الاصطناعي قلقاً متزايداً لدى السلطات، إذ تأتي هذه العمليات بالتزامن مع الازدهار الذي تشهده التكنولوجيا في الوقت الراهن، لا سيما أن هذا النوع من الاحتيال يتم بدرجة عالية من الحرفية، فضلاً عن أن استنساخ الصوت أصبح متاحاً بسهولة عبر الإنترنت.
قصة سيدة أمريكية
جينيفر ديستيفانو سيدة أمريكية استهدفها محتالون باستخدام الذكاء الاصطناعي، إذ انتابها القلق حينما سمعت صوت ابنتها وهي تبكي في مكالمة هاتفية، يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية.
نبرة صوت الابنة لم تكن حقيقية، بل مُبتكرة بواسطة تقنية الذكاء الاصطناعي، وسمعت ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتاً يقول: “ساعديني يا أمي، أرجوكِ ساعديني”.
صدّقت الوالدة أنّ الصوت عائد لابنتها البالغة 15 عاماً، والتي خرجت لممارسة للتزلج، وقالت لمحطة تلفزيونية محلية في حديث يعود إلى نيسان/أبريل 2023: “كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها”، مضيفةً: “لم أشك للحظة في أنها قد لا تكون هي”.
طلب المحتال الذي اتّصل بالوالدة من رقم مجهول، الحصول على مليون دولار لقاء إطلاق سراح الفتاة، وتحقق السلطات في هذه الحادثة التي كان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامجَ الذكاء الاصطناعي.
لم يستطع المحتال الحصول على المال، لأن ديستيفانو تمكنت من التواصل مع ابنتها والاطمئنان عليها.
يشير الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي يتمثّل في قدرة هذه التقنية تقريباً على تبديدها الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة.
عمليات تزييف مقنعة
ويؤكّد المدير التنفيذي لشركة “بلاكبيرد. إيه آي” وسيم خالد، في حديث لوكالة الأنباء الفرنسية، أنّ “النسخ الصوتي عبر الذكاء الاصطناعي، والذي بات من شبه المستحيل تمييزه عن الصوت البشري، يتيح للأشخاص سيئي النية كالمحتالين الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية ممّا يعتمدون في العادة”.
وتتيح تطبيقات كثيرة مجانية ومُتاحة عبر الإنترنت بدرجة كبيرة، استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص، ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.
يُشير خالد إلى أنه “من خلال تسجيل صوتي قصير، يمكن استخدام استنساخ صوتي أُنشئ استناداً إلى الذكاء الاصطناعي، لترك رسائل ومقاطع صوتية يُزعم أنها للضحية. وقد يُستخدم الصوت المُستنسخ أيضاً كصوت مُعدَّل أثناء المكالمات الحية”.
أضاف أنّ “المحتالين يستخدمون لهجات متنوّعة، ويقلّدون الطريقة التي تتحدث بها الضحية”، مؤكداً أنّ هذه التكنولوجيا “تتيح إنشاء عمليات تزييف عميق مقنعة”.
في الصدد، أظهر استطلاع شمل نحو 7 آلاف شخص في 9 دول بينها الولايات المتحدة، أنّ شخصاً واحداً من كل 4 استُهدف بمحاولة احتيال صوتي عبر الذكاء الاصطناعي، أو يعرف شخصاً تعرّض لعملية مماثلة.
أشار 70% ممّن شملهم الاستطلاع إلى أنهم لم يكونوا أكيدين من قدرتهم على التمييز بين الصوت الحقيقي وذلك المستنسخ، وفق الاستطلاع الذي نشرته شركة “ماك أفي لابز” الشهر الفائت.
بدورها، حذرت السلطات الأمريكية أخيراً من تزايد “عمليات الاحتيال التي تطال الأجداد”، وقالت لجنة التجارة الفيدرالية في تحذيرها “تتلقون مكالمة يُسمَع فيها صوت حفيدكم وهو مذعور، يقول إنه في ورطة كبيرة عقب تعرضه لحادث سير واحتجازه من الشرطة، لكنّكم قادرون على مساعدته من خلال إرسال الأموال له”.
في التعليقات التي كُتبت تحت تحذير اللجنة الأمريكية، يشير عدد كبير من المسنّين إلى أنّهم خُدعوا بهذه الطريقة.
اقتنع جدٌّ تعرّض لعملية احتيال بما سمعه؛ لدرجة أنّه بدأ يجمع الأموال وفكّر في رهن منزله، قبل أن يتبيّن أنّ ما يحصل ليس سوى احتيال.
من جانبه، قال الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي هاني فريد، في تصريح للوكالة الفرنسية، إنّ السهولة التي يتّسم بها استنساخ الصوت تعني أن “كل مستخدم للإنترنت معرض للخطر”، وأشار إلى أنّ “عمليات الاحتيال هذه آخذة في الازدياد”.
وتعيّن على شركة “إيليفن لابس” الناشئة الاعتراف بأنّ أداتها الناسخة للصوت من خلال الذكاء الاصطناعي يمكن استخدامها لأهداف مسيئة، بعدما نشر عدد من مستخدمي الإنترنت مقطعاً مزيفاً للممثلة إيما واتسون وهي تقرأ مقاطع من كتاب “كفاحي” لأدولف هتلر.
يقول غال تال-هوشبيرغ، وهو مسؤول في شركة “تيم 8” المتخصصة في الاستثمارات التكنولوجية: “نقترب بسرعة من المرحلة التي لن يعود بإمكاننا فيها الوثوق بالمحتوى المنشور عبر الإنترنت، والتي سيتعين علينا خلالها الاستعانة بتقنيات جديدة لنتأكّد من أنّ الشخص الذي نعتقد أننا نتحدث معه (عبر الهاتف) هو بالفعل مَن نتواصل معه”.