الأخبار الزائفة ترافق "حرب إيران"
يسأل عنوان متداول على الانترنت عما إذا كان “نتانياهو حقيقيا أم مُولَّدا بالذكاء الاصطناعي؟” في إشارة إلى مقطع مصوّر يظهر رئيس الوزراء الإسرائيلي وكأن لديه ستة أصابع، في نسق متزايد من التلاعب منذ بدء الحرب الأمريكية-الإسرائيلية على إيران.
كان الفيديو حقيقيا. لكن سرعان ما انتشرت تكهّنات على الإنترنت تزعم أن نتانياهو قُتل أو أُصيب في ضربة إيرانية، وأن إسرائيل تُخفي الحقيقة باستخدام نسخة مُولَّدة بالذكاء الاصطناعي.
وجاء في تعليق على منصة “إكس” حصد نحو خمسة ملايين مشاهدة: “آخر مرة تحققت، لم يكن لدى البشر ستة أصابع… إلا إذا كان الأمر متعلقا بالذكاء الاصطناعي. هل لم يعد نتانياهو على قيد الحياة؟”.
وسارع خبراء في التحقيق الرقمي إلى تفسير “الإصبع الزائد” بأنه مجرد خداع بصري ناجم عن إضاءة وظل عابر جعلا جزءا من كفّه يبدو كأنه إصبع إضافي.
لكن هذا التفسير ضاع وسط الضجيج على الإنترنت.
ولم يعد غريبا أن تختفي الأخطاء التقليدية التي كانت تفضح الصور المُولَّدة بالذكاء الاصطناعي، مثل “الأصابع الزائدة”، بعدما أصبحت أدوات إنتاج “الديب فيك” قادرة على إنشاء مقاطع فائقة الواقعية خلال ثوان.
فكيف يمكن إثبات أن ما هو حقيقي فعلا حقيقي، في وقت تلاشت فيه الحدود بين الواقع والتلاعب وسط ضباب الحرب في إيران، حتى باتت الصور الحقيقية موضع تشكيك؟
وبعد أيام من انتشار الفيديو الأول، نشر نتانياهو مقطعا ثانيا، بدا كأنه “إثبات حياة”، صُوّر في مقهى، وظهر فيه وهو يرفع يديه وكأنه يتحدى المشككين أن يعدّوا أصابعه.
لكن بدلا من تهدئة الشكوك، أثار ذلك موجة جديدة من نظريات لا أساس لها.
وكتب مستخدم على “ثريدز” في منشور واسع الانتشار: “هذا أيضا ذكاء اصطناعي”، متسائلا كيف لم ينسكب فنجان القهوة الممتلئ رغم حركة يديه، وبقي ممتلئا بعد رشفة كبيرة.
واستمرت الشكوك حتى بعد نشر فيديو ثالث لنتانياهو برفقة السفير الأمريكي في إسرائيل مايك هاكابي؛ إذ ركّز بعض المدققين على الإنترنت على أذنيه، معتبرين أن شكلهما لا يطابق الصور السابقة له.
“شائعات”
منذ اندلاع الحرب في الشرق الأوسط في 28 فبراير، نشرت شبكة فرانس برس أكثر من 500 مادة تحقق من المعلومات، كشفت عن معلومات مضللة، بينها ما بين 20 و25% تم إنشاؤها باستخدام الذكاء الاصطناعي، وهو مستوى غير مسبوق خلال أزمة مماثلة.
وقد شهدت حروب سابقة، مثل الغزو الروسي لأوكرانيا أو الحرب في غزة، موجات من المحتوى المُولَّد بالذكاء الاصطناعي.
لكن ما يميّز هذه الحرب هو حجم هذا المحتوى وواقعيته، بفضل أدوات متقدمة ومنخفضة التكلفة ومتاحة على نطاق واسع، قادرة على إزالة كثير من العلامات التي كانت تكشف التلاعب، بحسب باحثين.
وتغصّ المنصات الرقمية بما يصفه كثيرون بـ”الفوضى الرقمية”.
يقول توماس نوفوتني، مدير مجموعة أبحاث في الذكاء الاصطناعي في جامعة ساسكس البريطانية: “أعتقد أننا يجب أن نتعامل مع الصور والفيديوهات والتسجيلات الصوتية كما نتعامل مع الشائعات”.
وقد بلغت درجة واقعية المحتوى المُولَّد بالذكاء الاصطناعي حدّا جعل الصور والفيديوهات الحقيقية نفسها موضع شك، ما يخلق أزمة ثقة.
وتوضح كونستانس دو سان لوران، وهي أستاذة في جامعة ماينوث الايرلندية، أن “مشكلة التضليل اليوم ليست أن الناس يصدقونه، بل إنهم لم يعودوا يثقون حتى بالمعلومات الحقيقية”.
“محتوى ضار”
يتجاوز حجم المحتوى الزائف قدرات المدققين، وحتى وسائل إعلام كبرى قد تقع في الخطأ. فقد أعلنت مجلة “دير شبيغل” الألمانية مؤخرا سحب صور مرتبطة بإيران بعدما تبين أنها على الأرجح مُولَّدة بالذكاء الاصطناعي.
وحتى بعد كشف زيفها، تعود هذه المواد للانتشار في ما يسميه بعض الباحثين “التضليل الزومبي”.
وتعتمد خوارزميات المنصات على التفاعل (الإعجابات والمشاركات)، وغالبا ما تعزز المحتوى الصادم والمضلل.
تقول دو سان لوران إن المنصات “تعمل كناشر من خلال ما تختار عرضه، وغالبا ما يشمل ذلك محتوى ضارا ومضللا”.
كما تسهم الحوافز المالية في تفاقم الظاهرة؛ إذ تتيح المنصات تحقيق أرباح من التفاعل، ما يشجع بعض المؤثرين على نشر محتوى مضلل.
ووفق معهد الحوار الاستراتيجي في لندن، حققت شبكة حسابات على منصة “إكس” تنشر محتوى مُولَّدا بالذكاء الاصطناعي حول الحرب، أكثر من مليار مشاهدة منذ اندلاعها.
ومن الأمثلة، مقطع مُولَّد بالذكاء الاصطناعي يُظهر برج خليفة في دبي وهو ينهار، حصد ملايين المشاهدات قبل أن يُصحّح.
“ليغو”
كما تنتشر مواد ساخرة مُولَّدة بالذكاء الاصطناعي تُبسّط الحروب وتشوّهها، ضمن ظاهرة تقوم على تبسيط الدعاية وتحويلها إلى محتوى ساخر.
ومنها فيلم إيراني مزيف بشخصيات “ليغو” (قطع بلاستيكية شهيرة لتركيب الألعاب) يتهم دونالد ترامب بشن الحرب لصرف الأنظار عن قضايا أخرى.
كما استُخدمت مقاطع واقعية مزيفة لإظهار “انتصارات” عسكرية إيرانية أو تصوير قادة عالميين في مواقف عبثية.
ورغم تحذير ترامب من أن الذكاء الاصطناعي “سلاح تضليل”، إلا أنه هو نفسه نشر محتوى مماثلا في سياقات أخرى.
إنكار الحقيقة
وكانت أدوات كشف الذكاء الاصطناعي تهدف إلى توضيح الحقيقة، لكنها أحيانا تزيد الغموض.
ففي حالة نتانياهو، صنّف أحد هذه الأدوات الفيديو في المقهى بأنه “مُولَّد بنسبة 96,9%”، بينما خلصت أدوات أخرى إلى العكس.
ولا يقتصر الأمر على الفيديوهات؛ إذ تنتشر صور أقمار اصطناعية وخرائط مزيفة تُستخدم للتشكيك في الوقائع.
وتشير منظمة “نيوزغارد” إلى أن التضليل لم يعد يقتصر على اختلاق محتوى، بل يشمل أيضا وصف مواد حقيقية بأنها مزيفة. وبالتالي، فإن إمكانية التشكيك في كل شيء تجعل من السهل إنكار الحقائق.
تقول هانا كوفينغتون، من مشروع محو الأمية الإعلامية، إن “الجهات السيئة تريد أن يعتقد الناس أن كل شيء يمكن تزويره، حتى لا يثقوا بأي شيء”.
وفي مثال على ذلك، نشر حساب رسمي إيراني صورة لطفل قُتل في قصف، تبيّن لاحقا أنها على الأرجح مُولَّدة بالذكاء الاصطناعي، من دون أن يثير ذلك صدمة واسعة.
وكتب أحد المستخدمين: “ربما معدّلة بالذكاء الاصطناعي، لكن المعنى حقيقي”، في تعبير عن واقع جديد بات فيه التمييز بين الحقيقي والمزيف أكثر صعوبة.
The post الأخبار الزائفة ترافق "حرب إيران" appeared first on Hespress - هسبريس جريدة إلكترونية مغربية.