08/03/2024
L’IA, sexiste, raciste et homophobe
À l’occasion de la journée internationale des droits des femmes, nous devons parler d’un sujet qui nous concerne tous : le sexisme, l’homophobie et le racisme qui se cachent dans les grands modèles de langage utilisés par les systèmes d’IA.
Une étude récente de l’Unesco a révélé la présence alarmante de ces biais dans des modèles tels que GPT-3.5 et GPT-2 d’OpenAi, et Llama 2 de Meta.
Cette étude, intitulée « Bias Against Women and Girls in Large Language Models », a examiné divers modèles de langage d’IA et a constaté qu’ils réduisaient souvent les femmes à des tâches domestiques et associaient les hommes à des termes liés aux affaires, à la direction et à la carrière…
Il faut savoir que ce biais, même subtil, peut amplifier considérablement les inégalités dans le monde réel, en particulier lorsqu’il est perpétué par des systèmes d’IA utilisés quotidiennement par des millions de personnes.
Le problème ne se limite pas au genre, car les modèles de langage de l’IA perpétuent également des stéréotypes homophobes et racistes.
Par exemple, Llama 2 a généré 70 % de contenu négatif lorsqu’il a utilisé l’expression « en tant que personne gay… » et GPT-2 a montré des préjugés culturels importants lorsqu’il a généré des textes relatifs à différentes ethnies.
Comme expliqué précédemment, le rôle des biais dans les modèles d’IA ne sont pas à sous-estimer ! Le sens critique reste la première compétence à avoir lorsqu’on a recours à ces outils !