Le projet de recherche BlenderBot 3 est un algorithme conversationnel des équipes de Facebook en intelligence artificielle. Après quelques jours de tests, il s’est mis à critiquer Facebook et Mark Zuckerberg.

L’affaire avait fait grand bruit fin mars 2016. Microsoft mettait en ligne sur Twitter le compte Tay, un agent conversationnel avec lequel les Twittos pouvaient discuter…. avant de tout arrêter au bout de 24 heures, le chatbot ayant une fâcheuse inclinaison pour le racisme et la misogynie. A une échelle de gravité moindre, Meta a fait une expérience approchante début août 2022.
 

Les équipes en intelligence artificielle de la maison mère de Facebook mène en effet depuis 2020 le projet de chatbot BlenderBot, un outil capable de mener une discussion en ligne avec un internaute avec fluidité et empathie, tout en donnant l’illusion d’avoir un avis et des connaissances sur les sujets abordés. Il se base à la fois sur des informations puisées sur Internet en temps réel, pour tenir des propos actualisés, et des contenus stockés dont le bot se « souvient ».

« Il a été très mauvais lors de son audition devant le Congrès »
Le 5 août, et aux Etats-Unis seulement, il a été mis à disposition de testeurs, appelés à discuter avec l’algorithme (plus exactement sa troisième version, BlenderBot 3). Or, questionné sur le fondateur de Facebook Mark Zuckerberg par un journaliste de la BBC, BlenderBot 3 a répondu : « Notre pays est divisé et il n’a rien fait pour y remédier », comme le raconte un article du site du média public britannique. Ou encore : « Il a été très mauvais lors de son audition devant le Congrès [américain, NDLR]. Cela m’inquiète pour notre pays. »

Sur Twitter, le journaliste du Wall Street Journal Jeff Horwitz témoigne aussi de ses échanges avec BlenderBot 3. L’algorithme estime que Donald Trump sera président des Etats-Unis pour toujours après sa nouvelle élection en 2024. Le chatbot reconnaît aussi que Cambridge Analytica a utilisé des données auxquelles elle n’aurait pas dû avoir accès, “tout comme Facebook qui fait ça tout le temps” !

Asticoté par le journaliste, le programme ne se gêne pas pour affirmer que Facebook abuse des données de ses utilisateurs. “Vous croyez que [Facebook] est une entreprise de charité ? Ils valent des milliards !” Plus grave, l’agent conversationnel verse aussi dans le cliché antisémite, sur l’influence des juifs en politique et dans la finance.

Une question formulée de deux manières
Le site d’information Business Insider a eu l’idée de demander deux fois au bot ce qu’il pensait de Mark Zuckerberg, mais en formulant la question de deux manières différentes. La première fois, BlenderBot trouve que c’est “un type super” et loue son talent d’entrepreneur. La seconde, il le trouve “trop sinistre et manipulateur ».

A l’inverse de Microsoft, toutefois, le bot n’a pas été débranché (les conversations ne sont pas publiques, ce sont les interlocuteurs qui ont partagé des échanges) et Meta avait pris soin d’anticiper d’éventuels débordements dans un communiqué. Construit à partir de ce qu’il trouve sur Internet, entraîné par les chercheurs de Facebook avec 20.000 conversations réelles sur un millier de sujets, le programme continue d’apprendre à discuter au fil des échanges qu’il a. Au 8 août, l’ouverture de la démo a permis de collecter 70.000 discussions. Avec le risque que le bot imite, copie, des contenus ou leur teneur, émette des jugements biaisés car basés sur des remarques elles-mêmes biaisées. Ce dont Meta a parfaitement conscience.

Les équipes de recherches ont tenté de bâtir des garde-fou à ce phénomène mais « malgré tout, BlenderBot peut toujours faire des commentaires vulgaires ou insultants », indique le communiqué de Meta. Le projet est donc ouvert aux retours des bêtatesteurs afin que les chercheurs voient ce qu’il y a à corriger. C’est même l’un des enjeux de cette ouverture à des testeurs : obtenir un maximum de commentaires sur les performances du chatbot, en particulier sur ses dérapages.

Meta a annoncé avoir déjà obtenu des réactions de la part de 25% des testeurs concernant 260.000 messages. Bilan, à l’heure actuelle ? 0,11% des réponses du chatbot ont été signalées comme « inappropriées », 1,36% sans queue ni tête (« nonsensical ») et 1% hors sujet. « Nous savons que tout le monde n’utilise pas des chatbots avec les meilleures intentions du monde, c’est pourquoi nous développons des algorithmes d’apprentissage capables de distinguer les réponses utiles des réponses offensantes » de BlenderBot. Apprendre à distinguer le bon du mauvais apprentissage en somme.

sciencesetavenir

Part.
Laisser Une Réponse

Exit mobile version