موضح: لماذا أصبح اكتشاف مقاطع الفيديو ذات التزييف العميق أكثر صعوبة ، وما الآثار المترتبة على ذلك؟
يكمن الخطر المحتمل من التزييف العميق في حقيقة أن مستوى التلاعب مثالي لدرجة أنه قد يبدو من المستحيل أحيانًا تمييزها عن مقاطع الفيديو الحقيقية. وكلما زاد صعوبة اكتشاف الزيف ، زاد الخطر الذي يحمله ليظهر على أنه حقيقي ويسبب الخراب الذي ينوي حدوثه.

كانت مقاطع الفيديو المزيفة أو التزييف العميق أحد الأسلحة الرئيسية المستخدمة في المعارك الدعائية لبعض الوقت الآن. دونالد ترامب يسخر من بلجيكا لبقائها في اتفاقية باريس للمناخ ، ديفيد بيكهام يتحدث بطلاقة بتسع لغات ، ماو تسي تونغ يغني 'سأعيش' أو جيف بيزوس وإيلون ماسك في حلقة تجريبية من ستار تريك ... كل مقاطع الفيديو هذه انتشرت بسرعة على الرغم من كونها مزيفة ، أو لأنها كانت مزيفة.
يضع هذا التزييف العميق الواقعي بشكل مزعج جيف بيزوس وإيلون ماسك في حلقة ستار تريك pic.twitter.com/CpWe91Qil0
- الحافة (verge) 23 فبراير 2020
في العام الماضي ، قال ماركو روبيو ، السناتور الجمهوري عن ولاية فلوريدا ، إن تقنية التزييف العميق قوية مثل الأسلحة النووية في شن الحروب في ظل نظام ديمقراطي. في الأيام الخوالي ، إذا كنت تريد تهديد الولايات المتحدة ، فأنت بحاجة إلى 10 حاملات طائرات ، وأسلحة نووية ، وصواريخ بعيدة المدى. اليوم ، تحتاج فقط إلى الوصول إلى نظام الإنترنت لدينا ، ونظامنا المصرفي ، وشبكتنا الكهربائية والبنية التحتية ، وكل ما تحتاجه بشكل متزايد هو القدرة على إنتاج فيديو مزيف واقعي للغاية يمكن أن يقوض انتخاباتنا ، ويمكن أن يقضي على بلدنا في أزمة هائلة داخليًا وتضعفنا بشدة ، فوربس نقلا عنه قوله.
يكمن الخطر المحتمل من التزييف العميق في حقيقة أن مستوى التلاعب مثالي لدرجة أنه قد يبدو من المستحيل أحيانًا تمييزها عن مقاطع الفيديو الحقيقية. وكلما زاد صعوبة اكتشاف الزيف ، زاد الخطر الذي يحمله ليظهر على أنه حقيقي ويسبب الخراب الذي ينوي حدوثه. ولكن مع توفر أدوات أكثر تطوراً مدعومة بالذكاء الاصطناعي الآن لإنتاج مقاطع الفيديو هذه ، هل أصبح اكتشاف التزييف العميق أكثر صعوبة؟
ما هي تقنية التزييف العميق وكيف يتم إنشاؤها؟
يشكل التزييف العميق محتوى مزيفًا - غالبًا في شكل مقاطع فيديو ولكن أيضًا تنسيقات وسائط أخرى مثل الصور أو الصوت - تم إنشاؤه باستخدام أدوات ذكاء اصطناعي قوية. يطلق عليهم اسم deepfakes لأنهم يستخدمون تقنية التعلم العميق ، وهي فرع من فروع التعلم الآلي التي تطبق محاكاة الشبكة العصبية على مجموعات البيانات الضخمة ، لإنشاء محتوى مزيف.
إنه يستخدم فرعًا من الذكاء الاصطناعي حيث إذا تم تغذية الكمبيوتر ببيانات كافية ، فيمكنه إنشاء منتجات مزيفة تتصرف مثل شخص حقيقي. على سبيل المثال ، يمكن للذكاء الاصطناعي معرفة شكل وجه المصدر ثم نقله إلى هدف آخر لإجراء تبديل الوجه.
إن تطبيق تقنية تسمى شبكات الخصومة التوليدية (GAN) ، والتي تستخدم خوارزميتين للذكاء الاصطناعي - حيث يُنشئ أحدهما محتوى مزيفًا ويصنف الآخر جهوده ، لتعليم النظام ليكون أفضل - ساعد في التوصل إلى تزيف عميق أكثر دقة.
يمكن لـ GAN أيضًا ابتكار صور تم إنشاؤها بواسطة الكمبيوتر لكائنات مزيفة ، والتي استخدمها موقع ويب يسمى 'هذا الشخص غير موجود'. هذا يجعل من المستحيل فعليًا اكتشاف ما إذا كانت مقاطع الفيديو أو الصور التي نراها على الإنترنت حقيقية أم مزيفة.
قد يكون من الصعب حقًا اكتشاف التزييف العميق. على سبيل المثال ، وقع العديد من الأشخاص بسبب مقاطع فيديو Tiktok لتوم كروز وهو يلعب الجولف والتي تم الكشف عنها لاحقًا على أنها مزيفة.
هل أصبح اكتشاف التزييف العميق أكثر صعوبة؟
تصف ورقة تم تقديمها في المؤتمر الشتوي لتطبيقات رؤية الكمبيوتر 2021 تقنية جديدة تجعل التزييف العميق أكثر مضمونًا ، مما يجعل من الصعب على الأدوات التقليدية اكتشافها.
توصلت الدراسة ، التي قادها بارث نيكارا وشيزين سمارة حسين ، وكلاهما طالب دكتوراه في جامعة كاليفورنيا سان دييغو ، إلى أنه يمكن خداع أدوات الكشف عن طريق إدخال مدخلات تم التلاعب بها قليلاً تسمى الأمثلة العدائية في كل إطار فيديو.

يمكن تجاوز الأساليب الحديثة الحالية لاكتشاف التزييف العميق بسهولة إذا كان لدى الخصم معرفة كاملة أو حتى جزئية بالكاشف ، وفقًا لما تنص عليه الورقة بعنوان 'التزييف العميق التنافسي: تقييم ضعف أجهزة الكشف عن التزييف العميق للأمثلة العدائية'.
في حديثهما إلى موقع indianexpress.com ، قال نيخارا وحسين إن طرق الكشف القياسية يمكن أن تكون بعيدة عن أن تكون مضمونة لأنها غير مضمونة لاكتشاف المزيد من مقاطع الفيديو المزيفة الحديثة التي تم توليفها باستخدام تقنيات جديدة غير موجودة في مجموعة البيانات وهي عرضة لمدخلات الخصومة.
نضم الان :شرح اكسبرس قناة برقيةالمدخلات الخصومة هي مدخلات معدلة قليلاً بحيث تتسبب في ارتكاب الشبكات العصبية العميقة لخطأ. لقد ثبت أن الشبكات العصبية العميقة معرضة لمثل هذه المدخلات التي يمكن أن تتسبب في تغيير ناتج المصنف. وقالوا في عملنا ، نظهر أن المهاجم يمكنه تعديل كل إطار من إطار فيديو التزييف العميق بشكل طفيف بحيث يمكنه تجاوز كاشف التزييف العميق وتصنيفه على أنه حقيقي.

وأضافوا ، يمكن للمهاجم أن يصنع اضطرابًا عدائيًا صغيرًا غير محسوس لكل إطار من إطار فيديو التزييف العميق ، ويضيفه إلى الإطار ثم يجمع كل إطارات الفيديو معًا لعمل فيديو معاد. في تجاربنا باستخدام هذه التقنيات ، تمكنا من تحقيق معدل نجاح (لخداع الكاشف) يزيد عن 90٪.
ما هي التهديدات التي تشكلها فيديوهات التزييف العميق؟
مع انتشار مقاطع الفيديو المزيفة العميقة ، هناك قلق متزايد من أنها ستستخدم كسلاح لإدارة حملات سياسية ويمكن أن تستغلها الأنظمة الاستبدادية.
في عام 2019 ، أنشأت منظمة بحثية تُدعى Future Advocacy و UK Artist Bill Posters مقطع فيديو لرئيس الوزراء البريطاني بوريس جونسون وزعيم حزب العمال جيريمي كوربين يدعمان بعضهما البعض لمنصب رئيس الوزراء. وقالت المجموعة إن الفيديو تم إنشاؤه لإظهار إمكانات التزييف العميق لتقويض الديمقراطية.
أيضًا ، في العام الماضي ، قبل انتخابات مجلس دلهي ، انتشرت مقاطع فيديو لرئيس حزب بهاراتيا جاناتا دلهي ، مانوج تيواري وهو يتحدث بالإنجليزية وهاريانفي. في مقاطع الفيديو هذه ، شوهد تيواري ينتقد آرفيند كيجريوال ويطلب من الناس التصويت لحزب بهاراتيا جاناتا. ذكرت شركة الإعلام الرقمي Vice ، أن مقاطع الفيديو ، التي تمت مشاركتها في أكثر من 5000 مجموعة على WhatsApp ، تم الكشف عنها لاحقًا على أنها مزيفة بشكل عميق.
يعتبر التزييف العميق أيضًا مدعاة للقلق في وقت ذكرت فيه منظمة الصحة العالمية أن أزمة كوفيد -19 تسببت في انتشار وباء معلومات وكانت هناك محاولات متعمدة لنشر معلومات خاطئة لتقويض استجابة الصحة العامة وتعزيز أجندات بديلة للمجموعات أو الأفراد.
علاوة على ذلك ، يتم استخدام مقاطع الفيديو المزيفة - والتي تتضمن التلاعب بالمحتوى باستخدام طابع تاريخ أو موقع غير صحيح ، وقص المحتوى لتغيير السياق ، والحذف ، والربط والتلفيق - بشكل متزايد في الوقت الحاضر على وسائل التواصل الاجتماعي لتحريف الحقائق عمداً لأغراض سياسية. معظم مقاطع الفيديو هذه ليست أمثلة على التزييف العميق ولكنها تُظهر مدى سهولة التعتيم على الحقائق ونشر الأكاذيب بناءً على المحتوى الذي تم التلاعب به والذي يتنكر كدليل قاطع.
إن Wombo AI أمر شرس pic.twitter.com/YIaFcRreGG
- جاك بوسوبيك (JackPosobiec) 10 مارس 2021
مصدر القلق الكبير الآخر بشأن مقاطع الفيديو المزيفة العميقة هو إنشاء محتوى إباحي غير توافقي. في عام 2017 ، نشر أحد المستخدمين خوارزمية مبادلة الوجوه لإنشاء مقاطع فيديو إباحية مزيفة لمشاهير مثل سكارليت جوهانسون وجال جادوت وكريستين بيل وميشيل أوباما ، وشاركها في تهديد Reddit يسمى r / deepfake. كان لدى الحساب ما يقرب من 90 ألف مشترك بحلول وقت إزالته في فبراير من العام المقبل.
من بين آلاف مقاطع الفيديو المزيفة على الإنترنت ، أكثر من 90٪ منها عبارة عن مواد إباحية غير حسية. واحدة من أكثر تجارب الذكاء الاصطناعي المروعة في العام الماضي كانت تطبيق يسمى DeepNude والذي خلع صور النساء - يمكنه التقاط صور ثم تبديل ملابس النساء بأجساد عارية واقعية للغاية. تمت إزالة التطبيق بعد رد فعل قوي.
أيضًا ، كما يتم الإبلاغ عنها على نطاق واسع ، يتم استخدام مقاطع الفيديو المزيفة بشكل متزايد لتوليد إباحية انتقامية من قبل العشاق المرفوضين لمضايقة النساء.
إن التهديد الذي تشكله مقاطع فيديو Deepfake واضح بالفعل ، حسبما قال نيخارا وحسين لموقع Indianexpress.com. هناك مستخدمون مؤذون يستخدمون مثل هذه الفيديوهات للتشهير بالشخصيات الشهيرة ونشر معلومات مضللة والتأثير على الانتخابات واستقطاب الناس. وأضافوا أنه مع وجود تقنيات تركيب فيديو أكثر إقناعًا ويمكن الوصول إليها ، أصبح هذا التهديد أكبر من حيث الحجم.
هل هناك حملة في المستقبل القريب؟
حظرت معظم شركات وسائل التواصل الاجتماعي مثل Facebook و Twitter مقاطع الفيديو المزيفة. لقد قالوا بمجرد اكتشاف أي مقطع فيديو على أنه مزيف عميق ، سيتم حذفه.
قام Facebook بتجنيد باحثين من بيركلي وأكسفورد ومؤسسات أخرى لبناء كاشف للتزييف العميق. في عام 2019 ، عقدت مسابقة Deepfake Detection Challenge بالشراكة مع قادة الصناعة والخبراء الأكاديميين ، حيث تم خلالها إنشاء مجموعة بيانات فريدة تتكون من أكثر من 100000 مقطع فيديو ومشاركتها.
ومع ذلك ، لا يمكن اكتشاف جميع التزييف العميق بدقة ويمكن أيضًا أن يستغرق الأمر وقتًا طويلاً حتى يتم العثور عليها وإزالتها. علاوة على ذلك ، فإن الكثير من المواقع الإباحية لا تمارس نفس المستوى من القيود.
قال Neekhara و Hussain ، لاكتشاف مقاطع الفيديو deepfake بشكل أكثر دقة ، نحتاج إلى نماذج قوية من خلال دمج مهاجم أثناء تدريب نماذج اكتشاف التزييف العميق. الحل طويل المدى هو وضع علامة مائية أو توقيع رقمي للصور ومقاطع الفيديو من الجهاز الذي تم التقاطه. يجب تعطيل العلامة المائية أو التوقيع الرقمي إذا تم تطبيق تقنيات التزييف العميق مثل تبديل الوجه. يمكن لجهاز كشف التزييف العميق التحقق من التوقيع أو العلامة المائية. ومع ذلك ، قد يتطلب ذلك إنشاء معيار للعلامة المائية عبر جميع الكاميرات والهواتف المحمولة. لذلك ، قد يستغرق الأمر بعض الوقت حتى يصبح ذلك حقيقة واقعة.
شارك الموضوع مع أصدقائك: