في محاولة للقيام بعملية احتيال، تلقت امرأة اتصالاً هاتفياً ممن تظن أنها صوت ابنتها وهي تبكي زاعمة ويسمع فيخا صوت رجل يزعم فيها أنه خطف ابنتها ويطالب بفدية، فانتاب المرأة قلق كبير، إلا أنّ نبرة صوت الابنة لم تكن حقيقية؛ بل مُبتكرة بواسطة تقنية الذكاء الإصطناعي، وهي الوسيلة التي لجأ إليها هذا الرجل للقيام بأعمال إجرامية، ما يدل على أن مسألة مُقلقة بدأت تبرز مع هذه التكنولوجيا التي تشهد ازدهاراً في المرحلة الراهنة.


وتسمع جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتاً يقول: «ساعديني يا أمي، أرجوكِ ساعديني».
وصدّقت الوالدة أنّ الصوت عائد لابنتها البالغة 15 عاماً، والتي خرجت لممارسة التزلج، قائلة لمحطة تلفزيونية محلية في حديث يعود إلى أبريل (نيسان): «كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها»، مضيفة: «لم أشك للحظة في أنها قد لا تكون هي». وطلب المحتال الذي اتّصل بالوالدة من رقم مجهول، الحصول على مليون دولار لقاء إطلاق سراح الفتاة.
وراهناً، تخضع هذه الحادثة التي وصلت إلى نهايتها سريعاً، بعدما تمكّنت ديستيفانو من التواصل مع ابنتها، إلى تحقيق من السلطات المختصة، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.
وتثير عمليات احتيال هاتفية حديثة باستخدام أدوات النسخ الصوتي المُستندة إلى الذكاء الاصطناعي والمتاحة بسهولة عبر الإنترنت، قلق السلطات الأميركية، ويشير الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي يتمثّل في قدرة هذه التقنية على تبديدها تقريباً الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة.