L’intelligence artificielle (AI), cette prouesse technologique du siècle qui révolutionne plusieurs domaines de l’espèce humaine, cause aussi bien des dégâts. L’un des dégâts de cette révolution est le scandale causé par des récentes vidéos de personnalités influentes notamment, la vidéo générée par l’IA de Marine le Pen parlant russe, celle de Macron en train de faire la poubelle ou encore de l’ancien président américain en train d’être arrêté par la police.
Cette trouvaille est bien un danger pour l’humanité si les promoteurs de ces logiciels d’intelligence artificielle ne posent pas des garde-fous.
Cette menace à l’information pourrait influer sur les prochains enjeux électoraux dans le monde entier (Afrique, Inde, aux Etats Unis, dans l’Union européenne etc.). Alors pour lutter contre cette désinformation liée à l’IA, Open AI, la maison mère de ChatGPT et de DALL-E (service de création d’images) ont prévu un « nouvel outil pour détecter les images générées par intelligence artificielle » et aussi, un indice sur les images créées par l’IA.
« Au début de cette année, nous allons mettre en œuvre la Coalition pour la provenance et l’authenticité des contenus (Coalition for Content Provenance and Authenticity’s digital credentials) – avec Microsoft, Sony, Adobe, Nikkon et Canon (ndlr) – », explique OpenAI avant d’ajouter que DALL-E 3 contient des « garde-fous » pour empêcher les utilisateurs de créer des images de personnes réelles.
Marie Wolé