أصدرت شركة OpenAI يوم الخميس أول تقرير لها على الإطلاق حول كيفية استخدام أدوات الذكاء الاصطناعي الخاصة بها في عمليات التأثير السرية، وكشفت أن الشركة قامت بتعطيل حملات التضليل القادمة من روسيا والصين وإسرائيل وإيران.
استخدم المجرمون نماذج الذكاء الاصطناعي التوليدية الخاصة بالشركة لإنشاء ونشر محتوى دعائي عبر منصات التواصل الاجتماعي، وترجمة محتواهم إلى لغات مختلفة. ولم تكتسب أي من الحملات أي زخم أو تصل إلى جمهور كبير، وفقًا للتقرير .
مع تحول الذكاء الاصطناعي التوليدي إلى صناعة مزدهرة، كان هناك قلق واسع النطاق بين الباحثين والمشرعين بشأن إمكاناته في زيادة كمية ونوعية المعلومات المضللة عبر الإنترنت. حاولت شركات الذكاء الاصطناعي مثل OpenAI، التي تصنع ChatGPT، بنتائج متباينة تهدئة هذه المخاوف ووضع حواجز أمان على تكنولوجيتها.
يعد تقرير OpenAI المكون من 39 صفحة أحد أكثر التقارير تفصيلاً من شركة ذكاء اصطناعي حول استخدام برمجياتها للدعاية. ادعت OpenAI أن باحثيها عثروا على حسابات مرتبطة بخمس عمليات تأثير سرية على مدار الأشهر الثلاثة الماضية، والتي كانت من مزيج من الجهات الفاعلة الحكومية والخاصة، وحظروها.
في روسيا ، قامت عمليتان بإنشاء ونشر محتوى ينتقد الولايات المتحدة وأوكرانيا والعديد من دول البلطيق. استخدمت إحدى العمليتين نموذج OpenAI لتصحيح أخطاء التعليمات البرمجية وإنشاء روبوت ينشر على Telegram. أنتجت عملية التأثير الصينية نصًا باللغات الإنجليزية والصينية واليابانية والكورية، ثم نشره العملاء على Twitter وMedium.
لقد قام ممثلون إيرانيون بإنشاء مقالات كاملة هاجمت الولايات المتحدة وإسرائيل، وقاموا بترجمتها إلى الإنجليزية والفرنسية. كما قامت شركة سياسية إسرائيلية تدعى Stoic بإدارة شبكة من الحسابات المزيفة على وسائل التواصل الاجتماعي والتي أنشأت مجموعة من المحتوى، بما في ذلك المنشورات التي تتهم احتجاجات الطلاب الأميركيين ضد حرب إسرائيل في غزة بأنها معادية للسامية.
كان العديد من مروجي المعلومات المضللة الذين حظرتهم OpenAI من منصتها معروفين بالفعل للباحثين والسلطات. فرضت وزارة الخزانة الأمريكية عقوبات على رجلين روسيين في مارس / آذار كانا وراء إحدى الحملات التي اكتشفتها OpenAI، بينما حظرت Meta أيضًا Stoic من منصتها هذا العام لانتهاكها سياساتها.
ويسلط التقرير الضوء أيضًا على كيفية دمج الذكاء الاصطناعي التوليدي في حملات التضليل كوسيلة لتحسين جوانب معينة من توليد المحتوى، مثل إنشاء منشورات أكثر إقناعًا باللغة الأجنبية، لكنه ليس الأداة الوحيدة للدعاية.
وذكر التقرير أن "كل هذه العمليات استخدمت الذكاء الاصطناعي بدرجة ما، لكن لم تستخدمه أي منها بشكل حصري. وبدلاً من ذلك، كانت المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي مجرد نوع واحد من العديد من أنواع المحتوى التي نشروها، إلى جانب التنسيقات الأكثر تقليدية، مثل النصوص المكتوبة يدويًا، أو الميمات المنسوخة من جميع أنحاء الإنترنت".
ورغم أن أياً من الحملات لم تسفر عن أي تأثير ملحوظ، فإن استخدامها للتكنولوجيا يُظهِر كيف يجد المجرمون الخبثاء أن الذكاء الاصطناعي التوليدي يسمح لهم بتوسيع نطاق إنتاج الدعاية. والآن أصبح من الممكن القيام بكتابة المحتوى وترجمته ونشره بكفاءة أكبر من خلال استخدام أدوات الذكاء الاصطناعي، وهو ما يخفض من مستوى إنشاء حملات التضليل.
على مدار العام الماضي، استخدم جهات خبيثة الذكاء الاصطناعي التوليدي في بلدان حول العالم لمحاولة التأثير على السياسة والرأي العام. تم استخدام الصوت المزيف والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والحملات النصية لتعطيل الحملات الانتخابية ، مما أدى إلى زيادة الضغوط على شركات مثل OpenAI لتقييد استخدام أدواتها.
وذكرت شركة OpenAI أنها تخطط لإصدار تقارير مماثلة بشكل دوري حول عمليات التأثير السري، بالإضافة إلى إزالة الحسابات التي تنتهك سياساتها.