تقنيات التزييف العميق، أو ما يعرف بـ   (Deepfake) تمثل جانباً سلبياً متزايد الخطورة في مجال الذكاء الاصطناعي. إذ تعتمد هذه التقنيات على استخدام الشبكات العصبية الاصطناعية والتعلم العميق لتوليد وتعديل محتوى رقمي يشمل الصور والفيديوهات وحتى الأصوات، بطرق تجعلها تبدو وكأنها حقيقية لكنها في الواقع مزيفة.

بدأت هذه التقنيات كأداة لابتكار تأثيرات بصرية متقدمة في صناعة السينما والترفيه، لكنها سرعان ما أثبتت قدرتها على الاستخدام في مجالات أقل نفعاً وأكثر خطراً.. فمن خلال التزييف العميق، يمكن إنشاء مقاطع فيديو لشخصيات سياسية أو عامة تبدو وكأنها تقول أو تفعل أشياء لم تحدث في الواقع. هذا يفتح الباب لنشر معلومات مضللة، والتلاعب بالرأي العام، وتهديد الأمن الشخصي والسياسي.

تزييف الأصوات.. بايدن نموذجاً

تزييف الأصوات هو جزء من هذه التكنولوجيا، حيث يمكن استخدام نماذج تعلم الآلة لتقليد صوت شخص معين بدقة عالية. هذا يمكن أن يؤدي إلى استخدامات خبيثة مثل الاحتيال، أو نشر تسجيلات مزيفة منسوبة لأشخاص لم يقولوا تلك العبارات فعلاً، تماماً كما حدث قبل شهور مع الرئيس الأميركي جو بايدن، عندما انتشرت رسالة صوتية منسوبة له يدعو فيها الناخبين من ولاية نيو هامبشاير لعدم التصويت في الانتخابات التمهيدية الرئاسية الديمقراطية.

وتتزايد المخاوف بشأن توظيف تلك التقنيات في الانتخابات الأميركية المرتقبة في نوفمبر/ تشرين الثاني المقبل على نحوٍ واسع، ذلك أن تقنيات التزييف العميق تقدم تحديات كبيرة للأمان الرقمي والنزاهة الإعلامية، حيث تزداد صعوبة التمييز بين المحتوى الحقيقي والمزيف. وهذا يتطلب تطوير أدوات وتقنيات مضادة قادرة على اكتشاف ومواجهة هذه التزييفات بفعالية.

انتشرت عديد من الوقائع المرتبطة بتقنيات التزييف العميق وأثارها الأكثر خطورة، من بينها واقعة الرسالة الصوتية المنسوبة إلى بايدن المشار إليها.

وقائع مختلفة

من بين الوقائع ذات الصلة، عملية خداع موظف مالي في شركة متعددة الجنسيات لدفع 25 مليون دولار لمحتالين يستخدمون تقنية التزييف العميق للتظاهر بأنه المدير المالي للشركة في مكالمة جماعية عبر الفيديو، وفقًا لشرطة هونج كونج.

وقالت شرطة هونج كونج، في مؤتمر صحافي، في فبراير/ شباط الماضي، إن عملية الاحتيال المعقدة شهدت خداع العامل لحضور مكالمة فيديو مع من اعتقد بأنهم العديد من الموظفين الآخرين، ولكنهم جميعًا كانوا في الواقع عبارة عن تزييف عميق.

وقال كبير المشرفين، بارون تشان شون تشينج، لإذاعة RTHK العامة بالمدينة: "في مؤتمر الفيديو متعدد الأشخاص، اتضح أن كل شخص شاهده كان مزيفًا"، موضحاً أن الموظف تشكك بعد أن تلقى رسالة يُزعم أنها من المدير المالي للشركة ومقره المملكة المتحدة. في البداية، اشتبه العامل في أنها رسالة بريد إلكتروني للتصيد الاحتيالي، حيث تحدثت عن الحاجة إلى تنفيذ معاملة سرية.

ومع ذلك، قال تشان إن الموظف وضع شكوكه المبكرة جانبًا بعد مكالمة الفيديو لأن الأشخاص الآخرين في الحضور بدوا مثل زملائهم الذين تعرف عليهم تماماً.

وتعد هذه القضية واحدة من عدة حلقات حديثة يعتقد بأن المحتالين استخدموا فيها تكنولوجيا التزييف العميق لتعديل مقاطع الفيديو المتاحة للجمهور ولقطات أخرى لخداع الناس وسرقة أموالهم.

وفي 20 مناسبة على الأقل، تم استخدام تقنية التزييف العميق بتقنية الذكاء الاصطناعي لخداع برامج التعرف على الوجه من خلال تقليد الأشخاص الموجودين في صور بطاقات الهوية، وفقًا للشرطة.

ويتزايد قلق السلطات في جميع أنحاء العالم بشأن تعقيد تكنولوجيا التزييف العميق والاستخدامات الشائنة التي يمكن استخدامها فيها.

صور إباحية

من بين الوقائع أيضاً، أنه في نهاية يناير/كانون الثاني الماضي، انتشرت الصور الإباحية التي أنشأها الذكاء الاصطناعي لنجمة البوب الأميركية تايلور سويفت عبر وسائل التواصل الاجتماعي، مما يؤكد على الإمكانات الضارة التي تفرضها تكنولوجيا الذكاء الاصطناعي.

وشوهدت الصور - التي تظهر المغنية في أوضاع موحية جنسيا وصريحة - عشرات الملايين من المرات قبل إزالتها من منصات التواصل الاجتماعي.

في مواجهة تحديات تقنيات التزييف العميق، يجري العمل على تطوير مجموعة متنوعة من الحلول المضادة. من بين هذه الحلول تقنيات الكشف التي تعتمد أيضًا على الذكاء الاصطناعي والشبكات العصبية لتحليل الفيديوهات والصور والأصوات وتحديد الأنماط التي تشير إلى التزييف. 

علاوة على ذلك، تلعب التوعية العامة دورًا حيويًا في مواجهة تأثيرات التزييف العميق. يتعين أن يكون الجمهور على دراية بوجود هذه التقنيات ومدى قدرتها على خداع العين والأذن، ويجب تشجيع التفكير النقدي وتحقق المصادر قبل تصديق أو نشر أي محتوى مشكوك فيه.