L’IA générative est apparue dans la boîte à outils de la propagande pour faire passer des mensonges auprès de l’opinion publique mondiale. OpenAI a identifié plusieurs campagnes de désinformation provenant de Chine, d’Israël ou encore de Russie qui utilisent ChatGPT.

ChatGPT sait faire bien des choses positives… et négatives. Le bot d’OpenAI sert ainsi de cheville ouvrière pour plusieurs campagnes de désinformation et de propagande orchestrées par des entreprises en Iran, en Russie, en Chine et en Israël.

La technologie est utilisée pour créer des publications sur les réseaux sociaux, pour traduire des articles, rédiger des titres trompeurs ou encore pour concevoir des programmes permettant d’automatiser l’envoi de ces contenus.

ChatGPT, une arme au service de la propagande
OpenAI a détaillé la manière dont ces campagnes d’influence exploitent ChatGPT. Par exemple, l’opération Doppelganger provenant de Russie utilise le bot pour générer des commentaires anti-Ukraine en français, en allemand et en polonais ; il a également servi pour traduire et éditer des articles en anglais et en français en faveur de l’invasion en Ukraine. ChatGPT a aussi été mis à contribution pour développer un outil permettant de poster automatiquement sur Telegram.

Autre exemple, celui de la campagne Spamouflage attribuée à la Chine : la technologie d’OpenAI a été exploitée pour débugguer du code, analyser les publications sur les réseaux sociaux et pour de la veille en ligne. ChatGPT a aussi servi à créer des posts pro-gouvernementaux.

Du côté de l’Iran, ces outils d’IA générative ont été utilisés pour créer et traduire des articles et des gros titres en faveur du régime, contre Israël et les États-Unis.

Enfin, Israël s’est appuyé sur ChatGPT dans le cadre de la campagne Zeno Zeno pour produire des personnes fictives chargées de poster des messages anti-Islam aux États-Unis, au Canada, et en Israël même. Les craintes des autorités concernant une IA incontrôlable capable de faire basculer l’opinion publique en inondant les réseaux sociaux de messages de désinformation n’étaient donc pas une vue de l’esprit.

Néanmoins, il faut garder la tête froide

. Ben Nimmo, l’enquêteur principal d’OpenAI, affirme que ces opérations d’influence — qui se poursuivent actuellement — rencontrent des difficultés pour atteindre leur cible. Les commentaires politiques postés dans le cadre de ces campagnes ont reçu peu de « like » et de réponses d’être humains normaux, assure-t-il encore.

La nature de ces publications créées par ChatGPT se voient généralement comme le nez au milieu de la figure : la grammaire est déplorable, certains éléments propres à ChatGPT n’ont pas été retirés (un post a même intégré le message du bot expliquant qu’en tant que modèle de langage IA, il est là pour « assister et fournir le commentaire désiré »).

Malgré tout, ChatGPT va continuer à évoluer et s’améliorer.

Il arrivera bien un moment où les messages générés par le bot ne pourront plus être aussi facilement détectés. OpenAI avance plusieurs solutions : des garde-fous qui empêchent le bot de générer des réponses, un travail en commun avec les autres plateformes IA… Est-ce que malgré tout, tout cela sera suffisant ?

OpenAI

Part.

Un commentaire

Laisser Une Réponse

Exit mobile version