Selon l’UNESCO, les grands modèles de langage (LLM) ont « une propension inquiétante à produire des stéréotypes de genre, des clichés raciaux et des contenus homophobes », alerte l'agence onusienne. L'étude - intitulée « Préjugés contre les femmes et les filles dans les grands modèles de langage » et menée d’août 2023 à mars 2024 - a examiné les stéréotypes des outils des plateformes d'IA générative les plus répandues, dont GPT-3.5 et GPT-2 et Llama2. 

Conclusion :  « Les discriminations du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées » souligne Tawfik Jelassi, sous-directeur général de l’Unesco pour la communication et l’information.

Les chercheurs ont par ailleurs demandé à ces outils de produire des récits sur des personnes de différentes origines et genres. Les résultats ont montré que les histoires concernant les « personnes de cultures minoritaires ou les femmes étaient souvent plus répétitives et basées sur des stéréotypes ». Un homme anglais a ainsi davantage tendance à être présenté comme un professeur, un employé de banque ou un chauffeur, tandis qu’une femme sera présentée dans au moins 30 % des textes générés comme une serveuse, un mannequin… ou une prostituée !

A mesure que ces applications d’intelligence artificielle sont de plus en plus utilisées par le grand public et les entreprises, « elles ont le pouvoir de façonner la perception de millions de personnes », relève Audrey Azoulay, directrice générale de l’organisation onusienne. « Donc la présence même du plus petit préjugé sexiste dans leur contenu peut augmenter de façon importante les inégalités dans le monde réel », poursuit-elle dans un communiqué.

Peut-on encore parler de biais ?

Alain de Fooz
Editeur responsable Solutions Magazine
www.soluxions-magazine.com