«التزييف العميق».. خفايا وأسرار أخطر تقنيات العصر

التزييف العميق
التزييف العميق

خلال السنوات الأربع بين الانتخابات الرئاسية الأمريكية لعام 2016 و 2020 ، كان العديد من الخبراء والمحللين السيبرانيين قلقين من أن روسيا أو الدول القومية الأخرى ستطور قدرتها على التلاعب بتصورات الناخبين الأمريكيين من خلال الانتقال من ميمات وسائل التواصل الاجتماعي، إلى التزييف العميق.

وأوضح تقرير نشر موقع «focustechnica»، فيمكن استخدام هذه التكنولوجيا الناشئة من خلال استخدام الصور المحورة بالكمبيوتر ولقطات الفيديو لتشويه سمعة المرشحين بطريقة ما، مما يضر بفرصهم في الاقتراع.

وفي سياق متصل أصدرت مؤسسة RAND تقريرًا جديدًا بعنوان "الذكاء الاصطناعي والتزييف العميق والمعلومات المضللة: كتاب تمهيدي" يخلص إلى أن إمكانية حدوث فوضى بسبب التزييف العميق هو أمر لم تتحقق بعد.

وعلى سبيل المثال، أعرب بعض المعلقين عن ثقتهم في أن انتخابات 2020 ستكون مستهدفة ومن المحتمل أن تنقلب بسبب فيديو مزيف عميق. على الرغم من أن تقنية التزييف العميق لم تأت، فإن ذلك لا يلغي مخاطر الانتخابات المستقبلية ".

ويحدد التقرير العديد من الأسباب التي جعلت تقنية التزييف العميق لا ترقى إلى مستوى سمعتها المهددة، لا سيما أن التزييف العميق المصمم جيدًا يتطلب موارد حوسبة متطورة ووقتًا ومالًا ومهارة.

دكتور ماثيو ستام، أستاذ مساعد في الهندسة الكهربائية وهندسة الكمبيوتر في جامعة دريكسل، يعمل في مجال الكشف عن الوسائط المزيفة منذ حوالي 15 عامًا، وساهم في برامج وكالة مشاريع الأبحاث الدفاعية المتقدمة حول خوارزميات الكشف، وهو يوافق على أن صنع تقنية التزييف العميق المتميز ليس بالأمر السهل أو الرخيص، لكنه غير متأكد من مدى أهمية ذلك فيما يتعلق بفعاليتها.

أقرأ أيضًا.. تقنية من فيسبوك تكشف صورًا وفيديوهات «التزييف العميق» 

 ويقول « ستام»: "بمرور الوقت ، سوف يتحسنون"، وأضاف: "لكن علينا أيضًا أن نتعامل مع عامل آخر - نحن نميل إلى تصديق شيء يؤكد معتقداتنا السابقة."

ويستشهد «ستام» على سبيل المثال بفيديو «نانسي بيلوسي» الذي انتشر على وسائل التواصل الاجتماعي خلال صيف عام 2020 ، مما جعل كلامها يبدو وكأنه ملطخ - المتحدث بيلوسي هو ممتنع عن الكلام، ولم يكن الأمر مزيفًا عميقًا، كما يقول - وقد ساعد في فضحه، فقد تم إبطاء الصوت قليلاً ليجعلها تبدو كما لو كانت ضعيفة، ولكن بغض النظر عن عدد المرات التي يتم دحضها بواسطة مدققي الحقائق أو الإبلاغ عنها بواسطة وسائل التواصل الاجتماعي، فإن الكثير من الناس يتقبلونها على أنها "حقيقة".

وقال ستام: "غالبًا ما يمكنك الحصول على نفس النتيجة باستخدام" مزيفات رخيصة "، وتابع: "عليك أن تفكر في ما هو هدفك؟ يمكنك إنفاق الكثير من الوقت والمال لإنشاء مزيف عميق جيد للغاية والذي سيستمر لفترة طويلة ، ولكن هل هذا هدفك؟ "

وبينما حظيت مقاطع الفيديو، حتى الآن، بأكبر قدر من الاهتمام، يحدد تقرير RAND أنواعًا أخرى من التزييف العميق أسهل في التنفيذ وقد أظهرت بالفعل قدرتها على إحداث ضرر استنساخ الصوت هو أحد الأساليب.

وفي أحد الأمثلة ، أبلغ الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة عن تلقيه مكالمة هاتفية من شخص بدا وكأنه رئيسه في شركة أم بناءً على تعليمات الصوت على الهاتف، والتي يُزعم أنها نتاج برنامج استنساخ الصوت، نفذ الرئيس التنفيذي تحويلاً برقيًا بقيمة 220 ألف يورو - حوالي 243 ألف دولار - إلى الحساب المصرفي لمورد مجري ".

وهناك أسلوب آخر يتمثل في إنشاء صور مزيفة عميقة - وهي الصور التي يستخدمها الأشخاص في كل مكان على وسائل التواصل الاجتماعي، و يلخص التقرير حالة مثل هذه الصورة الموضوعة على LinkedIn ، "تلك التي كانت جزءًا من عملية تجسس تديرها الدولة"، وقد تم اكتشاف التزييف العميق في عام 2019، حين كان مرتبطًا بشبكة حسابات صغيرة ولكنها مؤثرة، بما في ذلك مسؤول في إدارة ترامب كان في منصبه وقت وقوع الحادث.

ويلاحظ التقرير، أن قيمة إنشاء مثل هذه الصور المزيفة العميقة هي أنه لا يتم اكتشافها من خلال البحث العكسي عن الصور الذي يبحث عن المطابقات مع الصور الأصلية التي تم التحقق منها.

أما الشكل الرابع من التزييف العميق الذي تم تحديده في التقرير هو النص التوليدي - باستخدام نماذج الكمبيوتر ذات اللغة الطبيعية والذكاء الاصطناعي لإنشاء نص مزيف ، ولكن شبيه بالبشر، وسيكون هذا مفيدًا لتشغيل شبكات روبوت الوسائط الاجتماعية التي لن تحتاج إلى مشغلين بشريين لإنشاء محتوى، كما يمكن استخدامه لإنتاج قصص إخبارية مزيفة على نطاق واسع من شأنها أن تغمر شبكات التواصل الاجتماعي.

ويسرد التقرير أربع طرق رئيسية يمكن من خلالها تسليح الأعداء أو الجهات السيئة - التلاعب بالانتخابات؛ تفاقم الانقسامات الاجتماعية، ومنها إضعاف الثقة في المؤسسات والسلطات الحكومية؛ وتقويض الصحافة وغيرها من مصادر المعلومات الجديرة بالثقة.

ويلاحظ «ستام» أن هذه تهديدات اجتماعية واسعة النطاق، لكن بعضها الآخر اقتصادي"، وقال: "كانت هناك بالفعل [حالات] تزيف عميق للصوت، وهناك الكثير من الفرص الإجرامية للغاية، ويمكن استخدام أي من طرق التزييف العميق هذه".

ويحدد التقرير عدة مناهج للتخفيف من التهديد الذي يشكله التزييف العميق بجميع أنواعه على سلامة المعلومات: الكشف، المصدر، المبادرات التنظيمية، تقنيات الاستخبارات مفتوحة المصدر، المناهج الصحفية ومحو الأمية الإعلامية للمواطنين.

وغالبًا ما يحظى الاكتشاف بأكبر قدر من الاهتمام، لأن معظم جهود الكشف تستهدف الأدوات الآلية، وقد استثمرت DARPA بكثافة في هذا المجال، أولاً من خلال برنامج الطب الشرعي الإعلامي الذي انتهى في عام 2021 ، وحاليًا مع برنامج الطب الشرعي الدلالي.

وعلى الرغم من أن قدرات الكشف قد تحسنت بشكل ملحوظ خلال السنوات العديدة الماضية، فقد تم تطوير مقاطع فيديو deepfake وأيضًا والنتيجة هي سباق تسلح، وهو بالتأكيد لصالح أولئك الذين ينشئون محتوى التزييف العميق، كما جاء في التقرير يتمثل أحد التحديات في أنه بينما تتعلم برامج الذكاء الاصطناعي الإشارات الهامة المرتبطة بمحتوى الفيديو التزييف العميق، ويتم استيعاب هذه الدروس بسرعة في إنشاء محتوى جديد للتزييف العميق.

هذا ويتم استخدام الأصل بالفعل في بعض النواحي، إذا لاحظت وجود حرف "i" صغيرًا محاطًا بدائرة على صورة ، فهذا يعني أن المصور استخدم وضعًا آمنًا على هاتفه الذكي لالتقاط الصورة، والذي يدمج المعلومات الهامة في البيانات الوصفية للصورة الرقمية.

وألمح التقرير، إلى أنه على الرغم من أن هذه التقنية ليست حلاً سحريًا للتزييف العميق ، إلا أنها توفر طريقة لمشاهدي صورة (أو مقطع فيديو أو تسجيل) لاكتساب الثقة في أن الصورة لم يتم تغييرها صناعياً، ولكن التقنية لا يعمل إلا إذا تم تمكينه في وقت التقاط الصورة ، لذا فإن تعزيز التبني الفعال للتكنولوجيا سيكون أمرًا بالغ الأهمية.

ويقترح «ستام» أن وزارة الدفاع الأمريكية، والمجتمع الاستخباراتي يجب أن يفكروا في المناورات في سيناريوهات مختلفة يمكن أن تحدث عن طريق التزييف العميق الناجح، ويقترح التقرير نفس الشيء، حيث يوصي بأن تقوم الحكومة بإجراء مناورات حربية وتحديد استراتيجيات الردع التي يمكن أن تؤثر على عملية صنع القرار للخصوم الأجانب.

ويقول ستام: "يعتبر التعامل مع المعلومات المزيفة أحد أكبر تحديات القرن الحادي والعشرين.. في القرن العشرين، كان التشفير، لكننا نعيش الآن في عالم تكون فيه مصادر المعلومات لامركزية."