Contexte et polémique autour des images générées par l’IA

Une étude publiée récemment dans The Lancet montre que l’usage d’images synthétiques dans les campagnes humanitaires est en hausse, suscitant des débats et parfois qualifié de « poverty porn », expression empruntée au phénomène du « food porn » sur les réseaux sociaux.

Le chercheur Arsenii Alenichev évoque plusieurs exemples récents, notamment une initiative de Plan International contre les mariages forcés d’enfants avec des vidéos mettant en scène des jeunes filles enceintes et maltraitées conçues par IA, ainsi qu’une campagne de l’ONU contre les violences sexuelles dans les conflits, avec des survivantes créées par IA.

Recherche de l’image “parfaite” grâce à l’IA

Ce recours présente deux avantages majeurs: des coûts réduits et la protection de l’identité des personnes représentées.

« On peut ‘dicter’ son scénario idéalisé à l’IA », explique Valérie Gorin, directrice de la formation au Centre d’études humanitaires de l’Université de Genève. « L’idée est de pouvoir créer l’image parfaite, c’est-à-dire une image qui intègrerait une représentation idéale d’une victime, selon les caractéristiques souhaitées ».

Elle ajoute que l’IA peut aussi éviter certaines questions éthiques liées à l’utilisation de vraies photographies: « Les organisations sont obligées de demander le consentement à toutes les personnes figurant sur des images. Or, le consentement pose un grand nombre de problèmes ».

Stéréotypes de la misère et voyeurisme

L’utilisation de l’IA perpétue toutefois des clichés et peut nourrir une certaine curiosité voyeuriste. Le chercheur Arsenii Alenichev parle même de « pornographie de la pauvreté 2.0 » et a répertorié une centaine d’images générées par IA utilisées dans des campagnes en ligne à visée humanitaire, véhiculant des stéréotypes de grande misère.

Ces images proviennent notamment de banques en ligne comme Adobe ou Freepik et inondent les réseaux sociaux. Maria Gabrielsen Jumbert, chercheuse au Peace Research Institute d’Oslo et au Centre de recherches internationales à Paris, rappelle que « les banques d’images se remplissent d’images générées par IA », facilitant l’accès à des visuels pour les petites ONG à coût réduit.

Bon nombre d’illustrations représentent des enfants dans des environnements jugés insalubres, renforçant des images « absolument stéréotypées ». Selon Valérie Gorin, l’enfant est fréquemment perçu comme une figure d’innocence, ce qui en ferait une image « idéale ». Les femmes et les personnes âgées apparaissent aussi, tandis que les hommes restent moins représentés.

Un piège pour les ONG?

Au-delà des clichés, l’usage de l’IA soulève des questions de crédibilité pour les acteurs humanitaires. Le photographe Niels Ackermann estime que cela peut devenir un piège: « lorsqu’on parle d’un vrai problème avec une fausse image, cela ouvre la porte à une grande méfiance ». Il souligne que les ONG sont déjà exposées à des attaques visant à les décrédibiliser; si elles utilisent elles-mêmes des contenus trompeurs, cela fragilise leur confiance et peut alimenter des attaques futures.

Crédits : sujet radio – Malika Nedir. Adaptation web – Julie Liardet.

By