Images générées par IA : enjeux et dangers
Midjourney, DALL-E, Stable Diffusion, Craiyon… Autant de noms que vous connaissez probablement et qui sont devenus familiers du grand public. Ces logiciels d’intelligence artificielle, très accessibles, sont capables de produire des images à la demande. Si ces possibilités créatrices ouvrent des perspectives en matière de communication, cela fait également peser une nouvelle forme de danger sur l’information : il est désormais encore plus simple de désinformer grâce à la manipulation des images.
Générer de fausses images, un jeu d’enfant
Il est désormais facile de générer de fausses images grâce à des logiciels d’intelligence artificielle. Sur Midjourney ou DALL-E, un “prompt” (c’est-à-dire une description) suffit pour créer de toutes pièces et si cela vous chante une “photographie” de Napoléon visitant la Tour Eiffel, de Taylor Swift dansant la Macarena, ou de la Vénus de Milo ayant retrouvé ses bras.
On peut personnaliser à l’infini ce type de création, même si certaines restrictions existent sur les logiciels “grand public” : par exemple, l’IA ne générera pas de contenu violent ou de contenu pour adulte. Les logiciels s’appuient, pour fonctionner, sur des modèles de Machine Learning et sur des banques d’images.
Plusieurs risques, dont celui de la désinformation par l’image
Certaines images générées au moyen d’un IA sont déjà devenues virales sur les réseaux sociaux. C’est le cas par exemple de cette “photographie” du pape François portant une doudoune blanche ou d’Emmanuel Macron dépeint en manifestant.
Ces résultats très réalistes d’un point de vue visuel posent cependant plusieurs questions. En premier lieu, les artistes sont nombreux à se sentir floués, dans la mesure où les logiciels d’IA s’appuient sur leurs créations, sans autorisation, pour se perfectionner et générer des images. Ces réactions ne sont d’ailleurs pas cantonnées au monde de l’image : ainsi, des artistes se sont également mobilisés contre les IA génératives de musique.
L’autre enjeu (outre celui du bilan carbone de l’IA) est bien entendu celui de la désinformation. Il est désormais très simple de générer une image qui paraît réelle mais qui est belle et bien fausse. Certes, ce phénomène n’est pas récent : il est arrivé dans le passé qu’une photographie retouchée ou sortie de son contexte fasse le “buzz”.
Toutefois, la simplicité et l’accessibilité des logiciels générateurs d’image et le partage massif sur les réseaux sociaux donnent à ce problème une tout autre dimension. Tristan Mendès-France, spécialiste des cultures numériques, analysait les choses ainsi : “On peut imaginer que de nombreux acteurs pourraient s’emparer de ces outils-là pour essayer de pousser de nombreux narratifs qui chercheraient à induire en erreur une partie de la population.”
De fait, certains politiciens, comme Donald Trump, ne se privent pas de miser sur l’IA pour servir leurs intérêts et décrédibiser un adversaire. Le risque de désinformation liée aux IA génératrices d’images est donc bien réel.
Quelques clés pour détecter une image générée par IA
Il est cependant possible de ne pas “tomber dans le panneau”. D’abord, il faut bien évidemment s’interroger sur la source de l’information. D’où vient l’image que l’on a sous les yeux ? A-t-elle été partagée par plusieurs médias ? A-t-elle été authentifiée ? Si ce n’est pas le cas, peut-on raisonnablement admettre qu’elle est crédible avant même de parler des détails et des imperfections ? Par exemple, on peut douter de l’authenticité d’une photographie montrant Emmanuel Macron au milieu de manifestants ou assis sur un tas d’ordures…
Il existe d’autres méthodes pour effectuer une vérification. Par exemple, la recherche d’image inversée permet de savoir d’où proviennent des images. Il faut :
- se rendre sur Google et cliquer sur “Images” ;
- cliquer sur l’icône en forme d’appareil photo dans la barre de recherche.
- saisir l’URL (c’est-à-dire l’adresse Internet) de l’image trouvée sur le Web ou télécharger enregistrée sur l’ordinateur.
Les résultats de cette recherche permettent d’obtenir des informations sur l’image.
Notez par ailleurs que la source de l’image peut aussi avoir précisé qu’il s’agit d’une imagé créée grâce à l’IA. Elle permet également d’avoir accès à des clichés similaires qui eux peuvent venir d’une source fiable.
On peut aussi se fier à certains signes comme la présence d’un filigrane (barre multicolore pour DALL-E, un petit crayon de couleur rouge pour Craiyon). Enfin, notons que certaines anomalies peuvent apparaître sur les images générées par une IA : pas de reflet dans les pupilles, ombre à la mauvaise place, yeux de taille et de couleur différentes, asymétrie au niveau du visage, oreilles à des hauteurs différentes, mains souvent mal faites (position, nombre de doigts). Autant d’indices qui contribuent à détecter si l’image est réelle ou réalisée grâce à l’IA.
Toutefois, on peut raisonnablement penser que les logiciels concernés vont encore être améliorés et qu’il sera de plus en plus difficile de repérer des anomalies de ce genre. Plus que jamais, il est donc indispensable de vérifier les informations qui nous parviennent et de conserver un esprit critique en toutes circonstances.
Nous partageons tous les mois des contenus
pour décrypter le monde des médias et de l’information
Podcast, guides, outils, infographies, évènements… nous partageons chaque mois, nos meilleures ressources pour vous mieux comprendre et appréhender les enjeux médiatiques et informationnels.