Les fausses informations circulent rapidement sur les réseaux sociaux, et en particulier sur ceux de Meta. L’entreprise a donc trouvé un nouveau moyen pour que les utilisateurs sachent si certaines images sont ou non truquées.

Meta, la société mère de Facebook et Instagram, a annoncé qu’elle commencerait à étiqueter les images générées ou manipulées par l’intelligence artificielle (IA) sur ses plateformes. Cette mesure s’inscrit dans le cadre des efforts déployés par Meta pour promouvoir la transparence en ligne et empêcher la propagation de la désinformation, notamment à l’approche des élections de 2024.

L’entreprise prévoit désormais d’étendre cette pratique aux images provenant de sources tierces, telles que OpenAI, Google et Midjourney. Les étiquettes indiqueront que les images sont générées par l’IA et fourniront davantage d’informations sur la source et le processus. Le design exact des étiquettes est encore en cours de finalisation, mais Meta a partagé une maquette de ce à quoi elles pourraient ressembler, avec les mots “AI Info” à côté des images.

META VEUT MARQUER LES IMAGES TRUQUÉES SUR SES RÉSEAUX SOCIAUX

Outre les étiquettes visibles, Meta développe également des outils pour détecter les marqueurs invisibles dans les images provenant de générateurs tiers. Ces marqueurs sont intégrés dans les métadonnées des images et servent d’identifiants uniques qui ne peuvent pas être modifiés par les logiciels d’édition.

Meta a déclaré que d’autres plateformes prévoient également d’utiliser de tels marqueurs et qu’elle souhaite mettre en place un système permettant de les reconnaître.

Mais qu’en est-il de l’audio et de la vidéo générés par l’IA ? Meta a admis qu’il ne disposait pas actuellement de la technologie nécessaire pour identifier ce type de contenu au même niveau que les images. Il a toutefois indiqué que l’industrie travaillait à la mise en place de cette capacité et qu’il mettrait à jour ses politiques en conséquence.

META SE PRÉPARE À TOURNER LA VIS SUR LES FAUSSES INFORMATIONS

Meta améliore également ses propres outils d’IA, tels que son moteur d’IA Imagine et ses grands modèles de langage (LLM). Le laboratoire de recherche en IA FAIR de l’entreprise travaille sur une nouvelle technique de filigrane appelée Signature stable, qui rendra les marqueurs plus résistants à la suppression.

Meta forme également ses LLM à ses normes communautaires, afin qu’ils puissent signaler les contenus qui enfreignent ses politiques.

« La différence entre le contenu humain et le contenu synthétique étant de plus en plus floue, les gens veulent savoir où se situe la limite », a déclaré le président des affaires internationales de la société, Nick Clegg. « Les gens découvrent souvent le contenu généré par l’IA pour la première fois et nos utilisateurs nous ont dit qu’ils appréciaient la transparence autour de cette nouvelle technologie. Il est donc important que nous aidions les gens à savoir si le contenu photoréaliste qu’ils voient a été créé à l’aide de l’IA ».

Meta a déclaré qu’elle déploierait les étiquettes pour les images générées par l’IA dans les mois à venir, alors qu’elle se prépare pour les élections de 2024 dans de nombreux pays, y compris les États-Unis. L’entreprise espère que ces étiquettes aideront les utilisateurs à prendre des décisions éclairées et empêcheront la diffusion de fausses informations sur ses plateformes.

Néanmoins, le comité de surveillance de Meta, financé par Meta, mais géré de manière indépendante, a récemment demandé à l’entreprise de revoir sa politique “incohérente” en matière de médias manipulés après avoir confirmé une décision permettant à une vidéo modifiée du président Joe Biden de rester sur Facebook.

  • INSTAGRAM

Part.
Laisser Une Réponse

Exit mobile version