OpenAI annonce une nouvelle initiative pour aider à identifier les images créées par l’intelligence artificielle (IA), juste à temps pour les élections de 2024 dans plusieurs pays.
Les images générées par l’IA deviennent de plus en plus réalistes, ce qui pose un problème de propagation de fausses informations. En réponse, des entreprises comme Adobe, Microsoft et Meta ont soutenu l’adoption de la norme C2PA, qui permet de vérifier l’origine des images.
OpenAI adopte cette norme pour son IA Dall-E 3. À partir du 12 février, toutes les images générées via ChatGPT et l’API du générateur d’œuvres d’art seront marquées de filigranes C2PA. Cela permettra aux plateformes en ligne de mieux identifier les images générées par l’IA et de les signaler aux utilisateurs.
Bien que cette mesure soit un pas dans la bonne direction, il reste encore des défis à relever, car les filigranes peuvent être effacées facilement. Cependant, OpenAI estime que c’est un premier pas essentiel pour améliorer la fiabilité des informations en ligne.
Cette initiative fait suite à une annonce similaire de Meta, qui ajoutera des mentions aux images générées par l’IA sur ses réseaux sociaux.
Ces actions visent à contrer l’exploitation malveillante des contenus générés par l’IA, alors que plusieurs pays se préparent à des élections cruciales cette année.