فيديو راقص مزيف للملكة إليزابيث تحذير من التزييف العميق – مصدر24

فيديو راقص مزيف للملكة إليزابيث تحذير من التزييف العميق

لندن – ظهرت ملكة بريطانيا إليزابيث الثانية وهي ترقص احتفالا بليلة الميلاد في مقطع فيديو بثته القناة الرابعة البريطانية، غير أن المقطع ليس إلا وسيلة للتحذير من تقنية “التزييف العميق” ومدى التطور الذي وصلت إليه.

وقالت القناة إن الفيديو يقدم “تحذيرا صارخا بشأن التكنولوجيا المتقدمة التي تمكن من انتشار المعلومات الخاطئة، والأخبار المزيفة في العصر الرقمي”.

ودعت المشاهدين إلى التساؤل “عمّا إذا كان ما نراه ونسمعه هو دائما حقيقي”.

واستأجرت القناة الرابعة استوديو ذا تقنيات عالية، لإنشاء الملكة إليزابيث المزيفة، وتم التلاعب بالفيديو باستخدام تقنية الذكاء الاصطناعي.

وتقوم تقنية “التزييف العميق”، على صنع فيديوهات مزيفة عبر برامج الكمبيوتر من خلال الذكاء الاصطناعي، ومحاولة دمج عدد من الصور ومقاطع الفيديو لشخصية ما، من أجل إنتاج مقطع فيديو جديد، ما قد يبدو للوهلة الأولى حقيقيا، لكنه في واقع الأمر مزيف.

ويشعر المتخصصون بقلق متزايد من أن تكنولوجيا التزييف العميق يمكن استخدامها لإنشاء مقاطع فيديو “عميقة وهمية”، يصعب تمييزها عن الحقيقية.

القناة الرابعة: الفيديو يقدم تحذيرا صارخا بشأن التكنولوجيا المتقدمة

وقد تصاعدت المخاوف قبيل الانتخابات الأميركية الأخيرة من إمكانية استغلال تقنية “التزييف العميق” في المنافسة السياسية، وحذر البعض من تزييف الفيديوهات والمقاطع الصوتية للمشاهير باستخدام الذكاء الاصطناعي لإظهارهم وهم يقولون أو يفعلون شيئا غير حقيقي للتحريض أو الترويج للمرشحين والتأثير في الانتخابات.

وقد تم استعمال هذه التقنية في إنشاء مقاطع فيديو إباحية مزيفة لعدد من المشاهير، كما استخدمت في أحيان أخرى لخلق أخبار كاذبة، مما أثار حفيظة المشرعين الأميركيين.

ويقول باحثون إنه يمكن لبعض الجهات الفاعلة محاولة استخدام هذه التكنولوجيا لأغراض دنيئة، كما يقدمون بعض الحلول المحتملة لهذه المشكلة الحتميّة. وأضافوا “نعتقد أنه من المهم أن يظهر الفيديو المركب باستخدام أدواتنا على أنه محتوى مركّب”.

ووفق الباحثين، فمن المهم الاستمرار في تطوير تقنيات علم الأدلة الجنائية وبصمات الأصابع وتقنيات التحقق (الرقمية وغير الرقمية) لكشف الفيديو المزور الذي وقع التلاعب به.

وقد تقلل تدابير الحماية هذه من إمكانية سوء الاستخدام وتسمح باستخدام تقنيات تحرير الفيديو بشكل مبتكر.

ويرجع استخدام مصطلح التزييف العميق إلى اسم أحد مستخدمي موقع “ريديت” الذي قام هو وآخرون في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، وحققت تلك الفيديوهات نسب مشاهدات عالية.

ومع تصاعد المخاوف والتحذيرات من هذه التقنية، يرى البعض أن هنالك مبالغة في تقدير حجم انتشارها وخطرها، وأن بث الفيديو على القناة الرابعة قد يجعل الجمهور يعتقد أنها تقنية شائعة الاستخدام أكثر مما هو الحال عليه. وقال سام غريغوري، مدير برنامج ويتنس، وهي منظمة تستخدم الفيديو والتكنولوجيا لحماية حقوق الإنسان “لم نشهد استخدام تقنية التزييف العميق على نطاق واسع حتى الآن، باستثناء مهاجمة النساء”.

وأضاف “من الجيد تعريض الناس للتزييف العميق، لكن لا ينبغي لنا تصعيد الخطاب للادعاء بأننا محاطون بهم”، بحسب ما ذكرت صحيفة الغارديان البريطانية.

ويقترح خبراء أنه ينبغي إطلاع الجمهور على استخدامات التزييف العميق التي يمكن اعتبارها مقبولة، وكيفية استعمالها في المستقبل حيث تشكل الوسائط التركيبية جزءا كبيرا من الحياة.

وأعرب إريك شودري، المتخصص التقني الباحث في تقنية التزييف العميق لجيريمي كوربين وبوريس جونسون خلال الانتخابات العامة لعام 2019، إنه يؤيد قرار تسليط الضوء على تأثير التزييف العميق، لكن التكنولوجيا لا تشكل تهديدًا واسع النطاق لمشاركة المعلومات.

وقال “يكمن الخطر في أنه يصبح استخدام التزييف العميق أسهل وأسهل، وهناك تحد واضح يتمثل في وجود معلومات مزيفة، ولكن التهديد أيضًا يكمن في تقويض لقطات فيديو حقيقية يمكن اعتبارها مزيفة”.

'