في تطور لافت في معركة مواجهة المحتوى الرقمي المضلل، أعلن فريق بحثي من جامعة كاليفورنيا – ريفرسايد (UC Riverside) عن ابتكار كاشف عالمي قادر على فضح الفيديوهات المزيفة بدقة تراوحت بين 95% و99%، متفوقًا بذلك على الأدوات التقليدية التي تركز غالبًا على كشف تقنية تبديل الوجوه فقط. ويمثل هذا الابتكار خطوة كبيرة نحو الحد من انتشار الفيديوهات المفبركة التي أصبحت تهدد الثقة بالمحتوى الرقمي عالميًا.
تقنية تتفوق على العين البشرية
النظام الجديد يتميز بقدرته على التعرف إلى مختلف أشكال التلاعب، سواء كانت مقاطع مركبة بالكامل، أو خلفيات معدلة، أو حتى مشاهد مأخوذة من ألعاب فيديو واقعية قد تنخدع بها العين البشرية وتظنها حقيقية. ويعتمد الكاشف على تحليل متزامن لتفاصيل الوجه والعناصر الخلفية، مع تتبع التناقضات الدقيقة في الإضاءة والمكان والزمن، بدءًا من الانعكاسات غير المتناسقة على الأشخاص المدمجين صناعيًا وصولًا إلى الاختلافات الطفيفة في الخلفيات التي تكشف عن عمليات التلاعب.

اقرأ أيضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
استجابة لجرائم الابتزاز والتضليل الرقمي
يأتي تطوير هذا الكاشف في ظل انتشار أدوات التزييف العميق الرخيصة التي استُخدمت في جرائم الابتزاز الإلكتروني والاحتيال المالي، إلى جانب حملات التضليل الإعلامي خلال الانتخابات. ويشير الباحثون إلى أن التهديد أصبح أكثر تعقيدًا مع ظهور التزييف العميق في مكالمات الفيديو المباشرة، ما يجعل عملية التحقق من الهوية أكثر صعوبة ويزيد المخاطر الأمنية على الأفراد والمؤسسات.

اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
تعاون مع "جوجل" وخطط للتطوير المستقبلي
الباحث الرئيسي في المشروع، روهيت كوندو، أكد أن النظام يفترض منذ البداية أن أي مقطع فيديو قد يكون من إنتاج الذكاء الاصطناعي، ويخضع جميع مكوناته للفحص الدقيق بحثًا عن أي تناقض يكشف عملية التلاعب. وشارك عدد من باحثي شركة جوجل في تطوير التقنية، لكن لم يُعلن بعد ما إذا كانت الشركة ستدمجها في منصاتها مثل يوتيوب.

وقد عُرضت نتائج البحث خلال مؤتمر IEEE للرؤية الحاسوبية والتعرف على الأنماط لعام 2025 في مدينة ناشفيل، فيما يعمل الفريق حاليًا على تطوير نسخة تعمل في الزمن الحقيقي يمكن استخدامها في مكالمات الفيديو المباشرة لضمان التحقق الفوري والفعال من الهوية.
إسلام العبادي(أبوظبي)