الذكاء الاصطناعي.. لاعب بارز في حرب الإشاعات والمقاطع المزورة

18-03-2023 05:27 AM - عدد القراءات : 233
كتب ACCR
"هل صحيح أنّ فنزويلا بلد فقير؟"... يسأل مذيع أشقر في مطلع أحد التقارير. هو ليس صحافياً ولا حتى إنساناً، بل شخصية رمزية أُنشئت استناداً إلى تقنية الذكاء الاصطناعي وتستخدم بصورة متزايدة بهدف نشر المعلومات المضللة. وأُشير إلى هذه التقارير الخاطئة المؤيدة للسلطات الفنزويلية على أنها نوع من النشرات الإخبارية، فيما أثارت عقب انتشارها كمقاطع إعلانية عبر مواقع التواصل، جدلاً في البلاد وعبر الانترنت.
الذكاء الاصطناعي.. لاعب بارز في حرب الإشاعات والمقاطع المزورة

وليست هذه التقارير المضللة فريدة.

وقالت المتخصصة في تكنولوجيا الإعلام لدى منظمة "ويتنس" غير الحكومية شيرين أنلين إنّ "مناطق متزايدة تنظر إلى "التزييف العميق" (ما يُعرف بـ"ديب فايك" - "deepfake") والمقاطع الصوتية والبصرية التي يجري إنشاؤها استناداً إلى الذكاء الاصطناعي، على أنها تمثل تهديداً".

وفي فبراير، انتشر عبر مواقع التواصل مقطع فيديو مزيّف للرئيس الأميركي جو بايدن يحذر فيه من "تهديد لكائنات فضائية".

وخلال العام الفائت، انتشر في الانترنت أيضاً مقطع فيديو مركّب يظهر الرئيس الأوكراني فولوديمير زيلينسكي وهو يتعاطى الكوكايين، بالإضافة إلى مقطع آخر لنجم موسيقى الراب إيمينيم وهو يهاجم الرئيس المكسيكي أندريس مانويل لوبيز أوبرادور.

وهذان المقطعان المزيّفان أُنشِئا من خلال تقنية الذكاء الاصطناعي.

وبالعودة إلى تقارير فنزويلا المعنونة "هاوس اوف نيوز إسبانيول"، فشخصياتها الرمزية ابتُكرت عبر استخدام برنامج "سينثيسيا" للذكاء الاصطناعي. وأخطرت شركة "سينثيسيا" يوتيوب بوجود هذه المقاطع المضللة فما كان من المنصة إلا أن حذفتها.

ولم ترغب الناطقة باسم "سينثيسيا" لورا موريلي في التطرق إلى هوية المستخدم المسؤول عن نشر التقارير، لكنها أكّدت أنّه "حُظر" من المنصة بسبب "انتهاك شروط الاستخدام وسياساته". وقالت لوكالة فرانس برس "إذا انتحل أي فرد شخصية صحافي وبث أخباراً فسيُمنع من استخدام المنصة".

وشخصيتا نواه الأشقر ودارن الأسود الرمزيتان اللتان ظهرتا في تقارير "هاوس اوف نيوز" هما ضمن مجموعة "سينثيسيا" المؤلفة من 93 شخصية رمزية.

وكانت الشخصيتان استُخدمتا في يناير في مقاطع فيديو لأشخاص يُزعم أنهم أميركيون يدعمون انقلاباً في بوركينا فاسو.

- سهولة في الابتكار وصعوبة في تحديد المُنشئ

وحذّر المتخصص في المعلوماتية والأستاذ في جامعة لاكورونا في إسبانيا إدواردو موسكيرا من أنّ "هذا النوع من البرامج يمكن أن يستخدمه أي شخص لديه حد أدنى من المعرفة".

وقال "ليس من الصعب اكتشاف أنّ مقطع الفيديو مركّب"، مؤكداً في المقابل صعوبة تحديد الجهة التي أنشأته. وأضاف "إذا اتّخذ منشئو شريط الفيديو أدنى تدابير الحذر، فأعتقد أن التوصل إلى تحديد هوياتهم مهمة مستحيلة".

وبثت قناة "في تي في" الفنزويلية الرسمية أحد تقارير "هاوس اوف نيوز" لتفاخر بـ"النجاح" الذي حظيت به بطولة إقليمية للبيسبول أُقيمت للمرة الاولى في فنزويلا منذ تسع سنوات.

ولفت التقرير إلى أنّ البطولة أدرّت ملايين الدولار، في حين لم ترد أي أرقام رسمية في هذا الشأن.

واستند باري كارتايا، أحد مذيعي قناة "في تي في" ومن مؤيدي السلطات، على التقرير ليقول مباشرة عبر الهواء إنّ "هذه الأرقام ذُكرت في الولايات المتحدة ودول كثيرة من أميركا اللاتينية".

وأثار الجدل القائم في شأن مصدر مقاطع الفيديو، غضب الرئيس الفنزويلي نيكولاس مادورو الذي أكّد أن لا علاقة للسلطات بها، وقال "إنّها لا تمثل ذكاءً اصطناعياً بل ذكاء شعبياً".

وقال مازحاً ومحاولاً تقليد حركات الروبوتات "أنا روبوت".

وفي فبراير، استخدم مذيع مزيّف آخر التكنولوجيا نفسها لنشر مقاطع فيديو دعائية مؤيدة للصين بعنوان "وولف نيوز".

وقال جاك ستابس من استوديو غرافيكا لوكالة فرانس برس "هذه المرة الأولى التي نشهد فيها خطوة حكومية تستند إلى مقاطع فيديو تم إنشاؤها بواسطة الذكاء الاصطناعي لإنشاء محتوى سياسي مضلل".

وفكّكت شركة "ميتا" خلال الأشهر الأخيرة شبكات من الحسابات المزيفة بينها حساب في كوبا، كانت تنشئ شخصيات مزيفة "لنشر انتقادات لمعارضي" السلطات الكوبية عبر فيسبوك، على ما أوضح المسؤول عن التهديد لدى "ميتا" بن نيمو خلال مؤتمر عبر الفيديو مع وكالة فرانس برس.

وأشار إلى أنّ "عدداً من الحسابات استخدم صوراً ربما تم إنشاؤها باستخدام الذكاء الاصطناعي لأشخاص غير موجودين، وهو أسلوب يجري اللجوء إليه بصورة متزايدة".

ورأى موسكيرا أنّ "مع تنامي التكنولوجيا، تتزايد سهولة برمجة الروبوتات لتظهر مماثلة للبشر عبر الشبكات الاجتماعية وتبث رسائل ترغب جهات معينة في إيصالها".

وحذّر من التأثير القوي لـ"التزييف العميق" حتى لو ثَبُت لاحقاً أنّ المواد مضللة، وذكر مقولة للزعيم النازي جوزيف غوبلز تشير إلى أن "الكذبة التي تتكرر ألف مرة تصبح حقيقة".



© 2012 جميع الحقوق محفوظة لــ المركز العربى لأبحاث الفضاء الالكترونى
>