النهار
الجمعة 26 سبتمبر 2025 12:23 صـ 2 ربيع آخر 1447 هـ
جريدة النهار المصرية رئيس مجلس الإدارة ورئيس التحريرأسامة شرشر
أحمد عمرو.. طفل فقد بصره بسبب حصان فأنار الله بصيرته وختم القرآن الكريم من فيسبوك إلى النيابة.. الأمن يكشف ملابسات مشاجرة بين سائقين بالقليوبية سقوط ثنائي السموم.. المؤبد لطالب وعامل بقضية مخدرات وأسلحة بيضاء في شبرا جامعة المنصورة تُعلن اعتماد كلية الزراعة وبرنامج بكلية التربية النوعية مدير ”تعليم البحيرة” يتفقد أعمال التشطيبات النهائية بمدرسة STEM للمتفوقين بدمنهور هيروين وسلاح وذخيرة.. جنايات شبرا الخيمة تقضي بالمؤبد والمشدد 15 عامًا لعاطلين حادث مروري مروع بالقليوبية.. انقلاب أتوبيس وملاكي وإصابة 7 أشخاص المؤبد غاب والمشدد حضر.. 10 سنوات سجناً لعامل وزوجة بتهمة التزوير في وثيقة رسمية من الشارع لقفص الإتهام.. المؤبد لعاطل بتهمة الاتجار في المخدرات بشبرا الخيمة المؤبد لعاملين والمشدد 5 سنوات لحدث.. تفاصيل سقوط عصابة المخدرات بالقناطر الخيرية من قاعات الدراسة إلى قاعات المحاكم.. المؤبد لـ3 طلاب بتهمة تشكيل عصابة مخدرات بالقليوبية السفير الألماني يزور استديو نجيب محفوظ.. و”المسلماني” يهديه نسخة من أغاني أم كلثوم

منوعات

فيديوهات زائفة تُشعل الفتنة: كيف تُستخدم تقنيات الذكاء الاصطناعي لتزوير الحقيقة؟

بات الذكاء الاصطناعي أداة قوية في صناعة الإعلام، لكنه في المقابل تحول إلى وسيلة خطيرة تُستخدم لتضليل الرأي العام، خاصة في أوقات النزاعات والصراعات، حيث يتم استغلال هذه التكنولوجيا لإنتاج محتوى زائف يخدم أجندات معينة ويثير البلبلة.

في خضم الحرب الأخيرة بين إيران وإسرائيل، شهدت المنصات الرقمية انتشارًا غير مسبوق لفيديوهات وصور مزيفة، صُممت باستخدام تقنيات "ديب فيك" (Deepfake)، وهي تقنيات تتيح إنتاج محتوى يبدو حقيقياً لكنه مفبرك بالكامل، يظهر فيه مسؤولون وشخصيات معروفة وهم يدلون بتصريحات لم تحدث أو يشاركون في وقائع مختلقة، بهدف إثارة الذعر، أو التحريض ضد دول بعينها.

حذر محمد علاء، المتخصص في مجال الذكاء الاصطناعي والسوشيال ميديا، من تصاعد موجة الفيديوهات والصور المفبركة باستخدام تقنيات الذكاء الاصطناعي خلال الفترات الأخيرة، وخاصة أثناء الحرب بين إيران وإسرائيل، مشيرًا إلى أن هذه المواد الرقمية الزائفة أصبحت سلاحًا فعالًا في تضليل الرأي العام والتحريض ضد دول عربية وخليجية.

وقال علاء في تصريحات صحفية، إن ما يعرف بـ "الديب فيك" (Deepfake)، أصبح أداة تُستخدم لإنتاج محتوى وهمي يُظهر شخصيات معروفة – من مسؤولين وقادة – وهم يصرّحون أو يتصرفون بطريقة لم تحدث في الواقع، بهدف نشر الذعر، أو زرع الفتنة بين الشعوب والحكومات.

وأوضح أن العشرات من هذه الفيديوهات، التي انتشرت على منصات التواصل الاجتماعي، استخدمت برامج ذكاء اصطناعي مثل Runway وChatGPT وGrok وPhotoshop AI، وتم إخراجها بمستوى احترافي يجعلها قابلة للتصديق، لدرجة أنها خَدعت بعض وسائل الإعلام.

وأشار علاء إلى أن دولًا مثل الإمارات والسعودية ومصر والأردن كانت في مرمى هذا النوع من التضليل، لافتًا إلى فيديو مفبرك جرى تداوله على نطاق واسع، يزعم إرسال الإمارات مساعدات إلى إسرائيل، في حين أن المشاهد المستخدمة كانت من مقاطع قديمة لمساعدات أرسلتها أبوظبي إلى غزة ضمن عملية "الفارس الشهم"، وتم تركيبها بشكل مخادع.

وأضاف أن فيديو آخر مفبرك أظهر ما يبدو كـ"لقاء سري" بين مسؤول سعودي وشخصيات إسرائيلية داخل قاعدة عسكرية في جنوب المملكة، تم التلاعب به باستخدام مشاهد من مصادر مختلفة، مع إضافة أعلام ووجوه مزيفة لتبدو المشاهد حقيقية تمامًا.

وأكد علاء أن الهدف من هذه الحملات هو زعزعة الثقة بالمؤسسات، وتشويه صورة الدول أمام شعوبها والعالم، محذرًا من الانجرار خلف أي محتوى غير موثق على الإنترنت، خاصة في أوقات الأزمات.

وشدد على أن الذكاء الاصطناعي يجب أن يكون أداة للتقدم، لا وسيلة للتضليل، داعيًا إلى تعزيز الوعي الرقمي وتطوير آليات التحقق من المعلومات، لمواجهة هذا النوع من التلاعب وحماية الأمن المجتمعي والقومي.