سيتم التعرف على مقاطع الفيديو المزيفة المثالية بواسطة الذكاء الاصطناعي
سيتم التعرف على مقاطع الفيديو المزيفة المثالية بواسطة الذكاء الاصطناعي

فيديو: سيتم التعرف على مقاطع الفيديو المزيفة المثالية بواسطة الذكاء الاصطناعي

فيديو: سيتم التعرف على مقاطع الفيديو المزيفة المثالية بواسطة الذكاء الاصطناعي
فيديو: مطابخ صغيرة عصرية 2021 أفكار للسكن الإقتصادي والمتوسط و كيفية إستغلال المساحة في المطبخ - YouTube 2024, أبريل
Anonim
يبدأ العرض الأول للأوبرا حول تسمم ليتفينينكو في إنجلترا
يبدأ العرض الأول للأوبرا حول تسمم ليتفينينكو في إنجلترا

قبل عام ، ساعد مانيش أغراوالا من ستانفورد في تطوير تقنية مزامنة الشفاه التي سمحت لمحرري الفيديو بتغيير كلمات المتحدثين بشكل غير محسوس تقريبًا. يمكن للأداة بسهولة إدراج الكلمات التي لم يتكلمها الشخص مطلقًا ، حتى في منتصف الجملة ، أو حذف الكلمات التي قالها. سيبدو كل شيء واقعيًا بالعين المجردة وحتى للعديد من أنظمة الكمبيوتر.

لقد سهلت هذه الأداة إصلاح الأخطاء دون إعادة تصوير المشاهد بأكملها ، كما قامت أيضًا بتكييف العروض التلفزيونية أو الأفلام لجماهير مختلفة في أماكن مختلفة. لكن هذه التكنولوجيا خلقت أيضًا فرصًا جديدة مزعجة لمقاطع الفيديو المزيفة التي يصعب العثور عليها ، بقصد واضح لتشويه الحقيقة. على سبيل المثال ، استخدم مقطع فيديو جمهوري حديثًا أسلوبًا أكثر صرامة لإجراء مقابلة مع جو بايدن.

كشف أجراوالا هذا الصيف وزملاؤه في جامعة ستانفورد وجامعة كاليفورنيا في بيركلي النقاب عن نهج قائم على الذكاء الاصطناعي لتقنية مزامنة الشفاه. يكتشف البرنامج الجديد بدقة أكثر من 80 بالمائة من المنتجات المزيفة ، مع التعرف على أصغر التناقضات بين أصوات الأشخاص وشكل أفواههم.

لكن أغراوالا ، مدير معهد ستانفورد للابتكار الإعلامي وأستاذ علوم الكمبيوتر في فورست باسكيت ، المنتسب أيضًا إلى معهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان ، يحذر من أنه لا يوجد حل تقني طويل المدى للتزييف العميق.

كيف تعمل المنتجات المقلدة

هناك أسباب مشروعة للتلاعب بالفيديو. على سبيل المثال ، يمكن لأي شخص يصور عرضًا تلفزيونيًا أو فيلمًا أو إعلانًا تجاريًا أن يوفر الوقت والمال باستخدام الأدوات الرقمية لتصحيح الأخطاء أو تخصيص البرامج النصية.

تظهر المشكلة عندما يتم استخدام هذه الأدوات عن عمد لنشر معلومات كاذبة. والعديد من التقنيات غير مرئية للمشاهد العادي.

تعتمد العديد من مقاطع الفيديو المزيفة العميقة على مقايضات الوجوه ، حيث تقوم فعليًا بتركيب وجه شخص ما على فيديو شخص آخر. ولكن في حين أن أدوات تغيير الوجه يمكن أن تكون مقنعة ، إلا أنها بدائية نسبيًا وعادة ما تترك آثارًا رقمية أو مرئية يمكن للكمبيوتر اكتشافها.

من ناحية أخرى ، تكون تقنيات مزامنة الشفاه أقل وضوحًا وبالتالي يصعب اكتشافها. يتلاعبون بجزء أصغر بكثير من الصورة ثم يصنعون حركات الشفاه التي تتطابق تمامًا مع كيفية تحرك فم الشخص في الواقع إذا تحدث أو تحدثت بكلمات معينة. وفقًا لأجراوال ، فبالنظر إلى عينات كافية من صورة الشخص وصوته ، يمكن للمنتج المزيف أن يجعل الشخص "يقول" أي شيء.

كشف التزوير

قلقًا بشأن الاستخدام غير الأخلاقي لمثل هذه التكنولوجيا ، عمل أغراوالا مع أوهاد فريد ، طالب الدكتوراه في جامعة ستانفورد ، لتطوير أداة كشف ؛ هاني فريد الأستاذ في جامعة كاليفورنيا ، كلية بيركلي للمعلومات. وشروتي أغاروال ، طالبة دكتوراه في بيركلي.

في البداية ، جرب الباحثون تقنية يدوية بحتة درس فيها المراقبون لقطات الفيديو. لقد نجحت بشكل جيد ، لكنها كانت تتطلب عمالة كثيفة وتستغرق وقتًا طويلاً.

ثم قام الباحثون باختبار شبكة عصبية قائمة على الذكاء الاصطناعي والتي ستكون أسرع بكثير للقيام بنفس التحليل بعد التدريب على الفيديو مع الرئيس السابق باراك أوباما. اكتشفت الشبكة العصبية أكثر من 90 في المائة من مزامنة الشفاه الخاصة بأوباما ، على الرغم من أن دقة مكبرات الصوت الأخرى انخفضت إلى حوالي 81 في المائة.

اختبار حقيقي للحقيقة

يقول الباحثون إن نهجهم هو مجرد جزء من لعبة القط والفأر. مع تحسن تقنيات التزوير العميق ، فإنها ستترك مفاتيح أقل.

في نهاية المطاف ، كما يقول أغراوالا ، لا تكمن المشكلة الحقيقية في محاربة مقاطع الفيديو المزيفة للغاية بقدر ما تكمن في محاربة المعلومات المضللة. في الواقع ، يلاحظ أن الكثير من المعلومات المضللة تنشأ من تشويه معنى ما قاله الناس بالفعل.

يقول: "لتقليل المعلومات المضللة ، نحتاج إلى تحسين الثقافة الإعلامية وتطوير أنظمة المساءلة". وهذا يمكن أن يعني قوانين تحظر الإنتاج المتعمد لمعلومات مضللة ونتائج انتهاكها ، وكذلك آليات القضاء على الضرر الناتج.

موصى به: