Pour dénoncer le manque de considération par OpenAI sur les risques que pourraient engendrer les IA, un collectif d’anciens et d’actuels salariés de la société a rédigé une lettre ouverte. L’un des signataires a même fait la prédiction que les IA pourraient détruire l’humanité.

Les questions d’éthique autour des intelligences artificielles qu’elles développent ne sont pas le point fort d’OpenAI. D’anciens cadres de la société l’ont même quittée pour monter leur propre entreprise afin de développer un chatbot plus vertueux.

C’est le cas de Claude d’Anthropics.

Aujourd’hui, c’est un collectif d’anciens et d’actuels employés d’OpenAI, ainsi que de  DeepMind et d’Anthropic, qui soulève les problèmes de sécurité que pourrait engendrer l’IA. Ces spécialistes, ont publié une lettre ouverte affirmant qu’ils se trouvent réduits au silence lorsqu’ils soulèvent des problèmes de sécurité dans leurs firmes et surtout chez OpenAI.

Ils ont pris soin de rédiger cette lettre pour que le public ait le droit de connaître la réalité des risques posés par l’IA.

L’un des signataires, Daniel Kokotajlo, qui fait partie des anciens chercheurs d’OpenAI, a également donné une interview au New York Times sur le sujet. L’ex-employé y accuse la firme d’ignorer les risques posés par l’ (AGI).

Il explique que les décideurs de la firme sont tellement fascinés par ses possibilités qu’ils se précipitent imprudemment pour être les premiers à la lancer.

Un collectif d’anciens et d’actuels employés d'OpenAI, de Google DeepMind et d’Anthropic, soulève les problèmes de sécurité que pourrait engendrer l’intelligence artificielle. © XD, Futura avec Dall-e

« Nous ne sommes pas prêts »

Lorsqu’il était en poste, il aurait pourtant pratiquement convaincu , le patron de la société, de mettre en place des  pour maîtriser la technologie plutôt que de continuer à la rendre intelligente. Mais, au fil du temps, le décideur a finalement montré son désintérêt sur le sujet au profit du développement sans condition de l’IA.

Pour l’ancien employé d’OpenAI, la firme devrait parvenir à finaliser cette AGI d’ici 2027.

Selon lui, elle viendra certainement nuire à l’humanité, voire la détruira. Lors de l’interview, il s’est alarmé en expliquant que le monde n’est pas du tout prêt à supporter les risques que pourraient engendrer ces IA. Et pour rendre un peu plus concrète cette préoccupation, le chercheur va même plus loin en estimant que la probabilité que l’IA détruise l’humanité est d’environ 70 pour cent. Inquiétant !

De son côté, en réaction à cette lettre et cette interview, OpenAI s’est voulu rassurant en se disant à l’écoute de ces inquiétudes et en expliquant que la gestion des risques répond à une approche scientifique dont la firme se dit confiante.

futura

Part.
Laisser Une Réponse

Exit mobile version