أخبار عاجلة
د.حماد عبدالله يكتب: مصر "قميص " ناقص "كم" !! -

"صور مفبركة وفيديوهات مزيفة" | الاحتيال بواسطة ...

"صور مفبركة وفيديوهات مزيفة" | الاحتيال بواسطة ...
"صور مفبركة وفيديوهات مزيفة" | الاحتيال بواسطة ...

السبت 31 مايو 2025 | 02:01 مساءً

الاحتيال بواسطة الذكاء الاصطناعي يرتفع 20 ضعفاً في 3 سنوات

الاحتيال بواسطة الذكاء الاصطناعي يرتفع 20 ضعفاً في 3 سنوات

آدم إبراهيم

باتت تقنيات التزييف العميق (Deepfake) واحدة من أخطر تحديات العصر الرقمي، حيث أصبحت قدرتها على تزوير الواقع وإعادة تشكيل الأحداث والشخصيات تثير مخاوف متصاعدة في الأوساط التقنية والسياسية والأمنية. ومع دخول الذكاء الاصطناعي التوليدي مرحلة متقدمة من التطوير، تحوّلت أدوات التزوير الرقمي من حكر على المختبرات المتقدمة، إلى برامج متاحة للعامة، لا تتطلب سوى اتصال بالإنترنت وبضع نقرات على لوحة المفاتيح.

الاحتيال بلمسة ذكاء اصطناعي يرتفع 20 ضعفاً في 3 سنوات

وفقاً لبيانات من شركة Signicat المختصة بالتحقق الرقمي، فإن محاولات الاحتيال باستخدام مقاطع فيديو مزيفة ارتفعت بأكثر من 20 ضعفاً خلال السنوات الثلاث الماضية. كما حذر مكتب التحقيقات الفيدرالي الأميركي (FBI) من الاستخدام المتزايد للذكاء الاصطناعي التوليدي في تنفيذ عمليات احتيال مالي واسعة النطاق.

وفي تقرير أعدته وكالة "بلومبرج"، تم الكشف عن أن أولى خوارزميات التزييف العميق المفتوحة المصدر ظهرت عام 2017 على منتدى Reddit، لتصبح منذ ذلك الحين نقطة انطلاق لانتشار هذه الظاهرة على نطاق عالمي، تهدد الأمن السيبراني والثقة العامة.

فيديو مزيف.. صوت مستنسخ.. محتوى "واقعي" لكنه غير حقيقي

في السابق، كان إنتاج فيديو مزيف يتطلب مواد خام من صوت وصورة حقيقية ومهارات مونتاج عالية، لكن منذ عام 2022، أصبح الأمر أسهل من أي وقت مضى. بات بإمكان أي مستخدم إدخال أوامر نصية بسيطة للذكاء الاصطناعي، ليقوم الأخير بإنشاء محتوى صوتي ومرئي مقنع في غضون ثوانٍ.

هذه الأدوات تعتمد على خوارزميات التعلم العميق (Deep Learning)، التي تُدرّب على كمية هائلة من البيانات المرتبطة بشخص معين، سواء من حيث مظهره أو نبرة صوته أو حركاته، ليتم لاحقاً توليف فيديو يبدو واقعياً تماماً، لكن لا يمت للحقيقة بصلة.

عالم مشوّه.. من صور عارية مفبركة إلى تصريحات سياسية ملفقة

بات خطر التزييف العميق لا يقتصر على الشخصيات العامة والسياسيين والمشاهير، بل أصبح يطال أيضاً أفراداً عاديين. فقد تم مؤخراً الزجّ بمشاهير في فضائح لم تقع، وتداول صور عارية مفبركة لأشخاص دون علمهم أو إذنهم.

ومن الأمثلة البارزة:

فيديو مفبرك يُظهر كامالا هاريس وهي تهاجم بايدن خلال الانتخابات الرئاسية الأميركية 2024.

صورة مزيفة تُظهر انفجاراً قرب مبنى البنتاجون، تسببت في هبوط مؤقت للأسواق.

حملة تشويه عبر صور ملفقة استهدفت تايلور سويفت، أثارت ضجة وصلت إلى البيت الأبيض.

تشريعات دولية تواجه موجة التزييف: من "Take It Down" إلى "الذكاء الاصطناعي الأوروبي"

بدأت بعض الحكومات في سنّ قوانين وتشريعات حازمة لمواجهة هذا الخطر المتصاعد:

في الولايات المتحدة، وقّع الرئيس الأميركي دونالد ترامب في مايو 2025 قانون "Take It Down"، الذي يُجرّم نشر المحتوى الإباحي المُزيّف دون موافقة واضحة من الأطراف المعنية، ويلزم المنصات بحذفه فوراً.

أصدرت لجنة الاتصالات الفيدرالية (FCC) قراراً بمنع استخدام الأصوات المُولّدة بالذكاء الاصطناعي في المكالمات الآلية.

في أوروبا، ألزم قانون الذكاء الاصطناعي الأوروبي المنصات بوضع علامات مميزة على المقاطع المزيفة بعمق، وهو ما سبقت إليه الصين بتشريع مشابه عام 2023.

تقنيات كشف التزييف.. سباق مع الزمن

رغم تعقيد التلاعبات، لا تزال هناك إشارات يمكن للمستخدم اكتشافها، منها:

تشوهات جسدية كعدد الأصابع أو تكرار الأطراف.

تباين لوني غير منطقي بين أجزاء الصورة.

عدم تطابق حركة الفم مع الصوت.

تفاصيل غير طبيعية في الشعر أو الظلال أو الحواف.

وفي المقابل، تسعى شركات التقنية الكبرى مثل مايكروسوفت وجوجل وميتا إلى تطوير أدوات ذكاء اصطناعي لرصد المحتوى المُزيّف، وتحليل إشارات رقمية خفية لا تراها العين المجردة. كما انطلقت مبادرات عالمية لإدخال علامات مائية رقمية في الصور والفيديوهات المُولّدة بالذكاء الاصطناعي، لتسهيل تتبع مصدرها الأصلي.

تهديد يتجاوز التزوير.. "الإنكار المعقول" يُقوّض الثقة في الحقيقة

يحذر ألان القارح، الكاتب والمحلل التكنولوجي المختص بالذكاء الاصطناعي، في حديث لموقع "اقتصاد سكاي نيوز عربية"، من أن الخطر لا يكمُن فقط في قدرة التزييف العميق على خلق محتوى غير حقيقي، بل في ضرب مصداقية المحتوى الحقيقي نفسه.

ما يُعرف بـ "الإنكار المعقول" (Plausible Deniability) بات يُستخدم كأداة لزعزعة الثقة؛ فحتى الفيديوهات والصور الحقيقية أصبحت عرضة للاتهام بالتزوير، وهو ما يشكل تهديداً للأدلة الجنائية، والتحقيقات الصحفية، والثقة في النظام الإعلامي برمته.

هل يستطيع العالم النجاة من "التزييف العميق"؟

يؤكد القارح أن العالم قد لا يتمكن من منع انتشار التزييف العميق بالكامل، لكن يمكنه الحد من آثاره عبر التوعية والتقنية والتشريعات الذكية. ويختتم قائلاً: "الحل يبدأ من المستخدم نفسه، الذي يجب أن يتحلى بالوعي الرقمي الكافي قبل مشاركة أو تصديق أي محتوى مشبوه".

اقرأ ايضا

إخلاء مسؤولية إن موقع عاجل نيوز يعمل بطريقة آلية دون تدخل بشري،ولذلك فإن جميع المقالات والاخبار والتعليقات المنشوره في الموقع مسؤولية أصحابها وإداره الموقع لا تتحمل أي مسؤولية أدبية او قانونية عن محتوى الموقع.

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

التالى حضرت احتفالية.. محامي نوال الدجوي يرد على تحدي الخصوم: "الدجوي في كامل قواها العقلية