par Céline Delaugère, fondatrice de My Data Machine
L’intelligence artificielle façonne notre vision de la beauté à partir d’images biaisées. Pour construire une IA plus juste, il faut diversifier ses bases d’apprentissage et exiger une plus grande transparence.
L’intelligence artificielle n’est pas neutre. Elle apprend à partir des données qu’on lui fournit, et ces banques d’images, souvent issues d’Internet, des réseaux sociaux ou de plateformes commerciales, véhiculent des normes de beauté limitées, homogènes, parfois excluantes. Minceur, jeunesse, blancheur, conformité aux stéréotypes de genre : ces biais se retrouvent dans les images que les IA génératives produisent, renforçant une vision étroite du corps et de l’esthétique humaine.
Une IA biaisée par nos actions
Ce n’est pas l’algorithme en soi qui est fautif, mais bien l’humain : concepteurs, annotateurs, utilisateurs. À travers nos likes, nos recherches, nos comportements en ligne, nous avons construit une base de données mondiale qui valorise un type de beauté au détriment des autres.
Ce phénomène crée un effet de rétroaction : les IA entraînées sur ces données génèrent à leur tour des images biaisées, qui influencent les représentations collectives, et même nos pratiques corporelles. Mais il n’est pas trop tard et il est encore temps de redresser la trajectoire. Deux leviers concrets et complémentaires se dégagent.
Instaurer des standards de diversité visuelle dans les datasets
Pour rendre l’IA plus inclusive, il faut repenser en profondeur la composition des banques d’images d’entraînement. Cela commence par la représentation équilibrée de toutes les morphologies, couleurs de peau, âges, identités de genre, situations de handicap, et expressions culturelles. Les datasets doivent être construits avec des quotas explicites et mesurables pour garantir une pluralité visuelle. Il faut aussi multiplier les sources pour refléter la diversité humaine réelle. Il est également important d’avoir des équipes diversifiées. Elles sont plus performantes pour repérer, comprendre et corriger les biais présents dans les algorithmes.
La pluralité des parcours, des genres et des sensibilités nourrit une réflexion plus large, plus juste, et permet d’éviter les angles morts souvent ignorés dans des équipes trop homogènes. Une IA inclusive commence nécessairement par une équipe inclusive. Ce travail est essentiel pour que l’IA cesse de reproduire les standards dominants et devienne un véritable miroir de notre pluralité.
Exiger une transparence complète sur les jeux de données utilisés
Les grandes entreprises technologiques doivent rendre publics la démarche utilisée pour construire les datasets qu’elles utilisent. Cela implique la publication de fiches descriptives détaillant la provenance et les biais éventuels des données utilisées. Sans cette traçabilité, difficile pour les chercheurs, artistes ou régulateurs d’évaluer l’équité des modèles.
Des audits externes des modèles doivent être autorisés et encouragés. Des labels “diversité vérifiée” pourraient être attribués à des modèles conformes à des critères éthiques stricts, à l’image de ce qui existe déjà dans d’autres secteurs. La transparence est la condition d’une IA responsable. Elle permet de responsabiliser les acteurs, d’identifier les angles morts et de corriger les biais structurels avant qu’ils ne deviennent systémiques.
Des artistes déjà engagés
Certains artistes utilisent désormais l’intelligence artificielle pour produire des œuvres qui questionnent notre rapport à l’image, au corps, à l’identité. Des portraits générés par algorithmes interrogent les normes de beauté, la fiction des visages parfaits, ou encore la frontière entre réel et virtuel. Cette hybridation entre code et émotion, mathématiques et esthétique, démontre que l’IA n’est pas nécessairement froide ou désincarnée. Elle peut aussi être poétique, engagée, dérangeante.
Ces démarches artistiques engagent un débat de fond sur l’imaginaire que nous construisons à travers la technologie. Elles rappellent que la diversité n’est pas une case à cocher : c’est une condition de justice, d’innovation et de progrès social.
Pour bâtir une IA plus équitable, il faut agir à la racine. Cela commence par la diversité des données. Et surtout, par celle des personnes qui les conçoivent.