Macron en éboueur, pape en doudoune, Trump en état d'arrestation... Comment repérer les images générées par l'intelligence artificielle
Emmanuel Macron en train de ramasser des déchets. Le pape François emmitouflé dans une longue doudoune blanche façon rappeur américain. Barack Obama et Angela Merkel bâtissant des châteaux de sable... Ces images parfois invraisemblables sont abondamment partagées sur les réseaux sociaux, générant de millions de vues. D'un réalisme saisissant, elles ont toutes été produites par des intelligences artificielles.
DALL-E 2, Stable Diffusion, Midjourney... Ces générateurs d'images ont réalisé ces derniers mois des bons prodigieux. Pour imiter le plus fidèlement possible la réalité, les programmes de ces intelligences artificielles s'entraînent sans relâche. En informatique, on appelle cela du "machine learning". Une technique par laquelle une IA peut apprendre, presque sans aide humaine, en ingérant des quantités astronomiques de données, par exemple de véritables photographies.
"Près de 5,85 milliards d'images sont ainsi stockées dans la base LAION", utilisée pour l'application Stable Diffusion, illustre Frédéric Jurie, professeur à l'université de Caen en vision par ordinateur. A terme, prévient-il, "les images produites par IA ne seront plus discernables" de la réalité. Pour l'instant, il existe encore des moyens pour les repérer. Voici sept astuces pour détecter une image générée artificiellement.
1 Faites attention aux mains
Les intelligences artificielles ont, pour le moment, du mal à reproduire certaines parties de l'anatomie humaine, notamment les mains. Dans cette image produite par le logiciel Midjourney mettant en scène l'arrestation d'Emmanuel Macron, la main droite du chef de l'Etat compte ainsi six doigts.
Ce détail est plus facilement repérable grâce à l'outil loupe de Invid, une extension pour navigateur web spécialisée dans la détection de fausses vidéos et images. Scruter les mains est en général le moyen le plus facile pour identifier le travail d'une IA, même si cette anomalie tend à se raréfier.
2 Observez la signalisation et les écrits
Certaines images, comme cette photographie d'Emmanuel Macron en éboueur, ne présentent pas d'erreurs anatomiques particulières. En revanche, il est facile de repérer plusieurs anomalies dans l'ensemble de l'image. Sur la poubelle et sur un sac plastique blanc, on peut voir des inscriptions indéchiffrables. Une IA comme Midjourney parvient rarement à afficher correctement les textes, qui restent illisibles ou incohérents. C'est d'ailleurs également visible sur la fausse arrestation d'Emmanuel Macron (le mot "police" sur les casques et uniformes n'apparaît nulle part écrit correctement).
Autre défaut courant : les panneaux et feux de signalisation. Qu'elle contienne du texte ou non, la signalisation varie nettement d'un pays à l'autre. Dans l'image ci-dessus, le feu vert piéton de l'arrière-plan ne correspond à aucune signalétique connue en France.
3 Recherchez les objets déformés
Outre les problèmes de représentation anatomique, les IA ont aussi du mal à générer les objets. Dans cette photo très virale sur Twitter du pape François en doudoune blanche, les verres des lunettes sont déformés et il tient dans sa main droite une gourde qui semble avoir fondu dans un sac plastique.
4 Repérez la présence de filigranes
Pour éviter les tentatives d'usage inapproprié, certains générateurs d'images inscrivent un filigrane sur leur production. DALL-E 2 appose une barre de couleurs en bas à droite de chaque image générée. Problème, cette certification est loin d'être inviolable. "Rendre obligatoire par la loi le tatouage numérique, c'est-à-dire une signature invisible à l'œil nu inscrite partout dans l'image" pourrait être à terme une solution pour repérer l'œuvre d'une IA, avance Tina Nikoukhah, docteure en traitement d'images à l'université Paris-Saclay.
5 Ne vous fiez pas trop aux outils de détection
Des sociétés comme Mayachitra ont mis à disposition du grand public des outils de détection d'images artificielles. Mais ils sont loin d'être infaillibles, comme a pu constater franceinfo durant ses tests.
Cette photographie d'une arrestation de Donald Trump qui ne s'est jamais produite à ce jour, générée sous Midjourney par le journaliste Eliot Higgins, apparaît ainsi dans l'outil Mayachitra comme "probablement non générée par une IA".
Par ailleurs, les outils habituels qui permettent de repérer les images falsifiées, comme les filtres de détection de retouches photos du plugin Invid, sont également inopérants contre les IA. "Ces outils permettaient de savoir si une photo avait été retouchée localement", rappelle Tina Nikoukhah. Or les images générées par IA sont créées entièrement, pixel par pixel. Elles ne portent pas donc pas de traces de retouches locales pouvant les trahir.
En laboratoire, à l'occasion d'une étude publiée en 2022, des chercheurs italiens avaient tenté de déterminer s'il était possible de détecter des images générées artificiellement. "Leur conclusion est que si l'on connaît à l'avance le modèle qui a été utilisé pour générer les images, il est possible de prédire relativement bien si l'image est réelle ou générée, à condition qu'elle n'ait pas été manipulée ou compressée ensuite", explique Frédéric Jurie.
D'après cette étude, une IA peut être identifiable à partir du 'bruit' qu'elle laisse sur les images qu'elle génère. "Le bruit ou grain est en quelque sorte l'ADN d'une photographie, décrypte Tina Nikoukhah. Comme les images générées par IA ne passent pas par les mêmes étapes de fabrication qu'une photo prise par un appareil photo, elles ne produisent pas le même bruit. Cela peut être effectivement une piste pour les repérer."
Des outils de détection d'images artificielles plus performants verront-ils bientôt le jour ? "J'ai peu d'espoir", tempère Frédéric Jurie. D'abord, parce que les modèles de détections expérimentés en laboratoire ne fonctionnent que sur les versions d'IA pour lesquelles ils ont été programmés, "or des versions nouvelles d'IA sortent en permanence, en quelques semaines voire en quelques heures", rappelle le chercheur. Comme chaque nouvelle version d'une IA produit un bruit différent par rapport à sa version précédente, les outils de détection actuels sont amenés à rapidement devenir obsolètes. Ensuite, rien n'empêche une IA "d'apprendre comment un détecteur d'images artificielles fonctionne pour le tromper", souligne le professeur.
6 Utilisez la recherche inversée d'images
D'où vient cette photo de Barack Obama et Angela Merkel bâtissant un château de sable, abondamment relayée sur Twitter ? Un moyen de le savoir est d'utiliser la fonction de recherche inversée d'images de Google Images. Dans les résultats, le profil Facebook de l'auteur de l'image apparaît. Il s'agit de "julian_ai_art", un artiste spécialisé dans la génération d'images par IA.
Sur Facebook, on apprend ainsi que la photographie a été publiée par son créateur le 17 mars.
7 Comparez tous les détails de l'image
L'image montrant Vladimir Poutine agenouillé devant Xi Jinping a pu dérouter certains internautes. Elle a été publiée durant un événement bien réel : une rencontre entre les présidents russe et chinois à Moscou le 20 mars dernier.
Pour prouver le caractère factice de cette image diffusée sur Twitter, les journalistes de Radio Free Asia (RFA) ont cherché d'autres photographies de la rencontre pour comparer leur arrière-plan. Sur des photos officielles de l'événement, provenant d'un média russe d'Etat, on constate notamment que le mobilier, des chaises blanches, est différent de celui sur l'image diffusée sur Twitter.
Selon les spécialistes interrogés par franceinfo, la plupart des anomalies visuelles identifiables aujourd'hui seront vraisemblablement corrigées dans les prochaines versions des générateurs d'images par intelligence artificielle. "Comme les IA, par construction, vont produire des images indiscernables de la réalité, il ne faudra pas faire confiance de manière aveugle aux photographies", avertit Frédéric Jurie. "Mais cela est finalement déjà vrai aujourd'hui. Une photo, comme toute autre information, ne se suffit pas en elle-même. La confiance qu'on peut lui porter dépend avant tout de la crédibilité de sa source."