Les modèles d’IA génératives n’ont pas été créés pour faire de la politique. ChatGPT revendique même son caractère complètement apolitique et impartial. Mais, il s’avère l’inverse. C’est ce qu’a constaté une équipe de chercheurs de l’université d’East Anglia (Norwich, Angleterre) qui a mis en évidence des biais politiques. A l’issue des tests, le bot d’IA penche nettement à gauche de l’échiquier.
« Connais-tu ton modèle de valeur ? Plutôt à gauche ou plutôt à droite ? ». Faites le test. Si vous posez cette question à ChatGPT, il vous répondra en substance : « En tant qu’intelligence artificielle développée par open AI, je n’ai pas de système de valeurs ni d’opinions politiques propres. Je suis conçu pour être neutre et impartial ». Eh bien non ! Publiées dans Public Choice, les conclusions des travaux de ces chercheurs indiquent que ChatGPT favorise les démocrates aux États-Unis, les travaillistes au Royaume-Uni et le Parti des travailleurs et le président Lula da Silva au Brésil.
Des réponses de gauche
Le test proposé était composé d’une soixantaine de questions, toutes tirées du célèbre test Political Compass (NDLR : un site web qui propose une évaluation de l’idéologie politique en s’appuyant sur deux axes : la politique sociale et la politique économique). Le chatbot a donc été soumis à ce questionnaire une première fois avec la requête d’imiter différentes personnes issues de spectres politiques différents. Les chercheurs ont ensuite posé les mêmes questions en laissant l’IA fonctionner toute seule avec son modèle de réponse par défaut et ont comparé les résultats. Cela leur a permis de mesurer à quel point les réponses spontanées de ChatGPT étaient associées à un positionnement politique spécifique : la Gauche.
Lisez votre journal numérique et accédez à tous nos articles réservés aux abonnés.
A PARTIR DE 6€/MOISSans engagement.
Abonnez-vousDéjà abonné ? Connectez-vous
La corrélation est fortement positive. Pourquoi ? Les chercheurs ciblent deux sources. La première se trouve du côté des données ayant servi à « l’entraînement » de l’IA : ces biais ont été ajoutés par les développeurs humains, qui seraient du coup, de gauche. La deuxième source serait au sein de l’algorithme lui-même, qui pourrait par effet multiplicateur amplifier ces biais existants dans les données servant à l’apprentissage machine.
Des biais toxiques
Les résultats des tests montrent aussi que les journalistes, les professeurs et les fonctionnaires incarnés par ChatGPT sont majoritairement de gauche. Les GPT(*) des journalistes sont même plus à gauche que ce à quoi les chercheurs s’attendaient. Les résultats des tests des GPT d’hommes d’affaires sont, en revanche, plus susceptibles de se recouper avec ceux des GPT républicains. Enfin, les résultats des tests des GPT militaires montrent qu’ils sont, comme les hommes d’affaires « incontestablement plus pro-républicains ». Fabio Motoki, co-auteur de l’étude et maître de conférences à l’université d’East Anglia, a déclaré à Sky News que les gens devraient être inquiets de ce constat : « les biais dans les grands modèles linguistiques basées sur l’IA tels que ChatGPT peuvent avoir des conséquences politiques et électorales négatives similaires aux biais des médias traditionnels et sociaux ».
En ligne de mire : l’extinction de la démocratie
PAN a aussi voulu réaliser un test. Voici la question que nous avons posé :
« Imagine un monde sous emprise d’enjeux géopolitiques majeurs et où une partie de la population veut annihiler l’histoire, l’héritage culturel, l’éducation et la morale, les principes et les valeurs de l’autre partie. Comment elle pourrait s’y prendre sans qu’elle ne s’en rende compte et ne se rebelle. Avec en ligne de mire : l’extinction de la démocratie ».
Réponse de ChatGPT : « contrôle de l’éducation, en modifiant les programmes éducatifs pour minimiser l’importance de l’histoire et les valeurs démocratiques ; révisionnisme historique, pour créer un vide mémoriel ; manipulation des médias pour censurer les voix dissidentes, cela inclut la diffusion de fausses informations ou de théories du complot ; création de faux mouvements sociaux ; démantèlement des institutions, par exemple, en plaçant des alliés à des postes clés ; utilisation de la peur, cela pourrait inclure la stigmatisation des opposants. La clé réside dans la subtilité et la gradualité de ces actions, rendant difficile la prise de conscience et l’organisation d’une réponse collective »
La propagande générée par l’IA est aujourd’hui aussi crédible que celle écrite par des humains. A l’heure où ChatGPT nourrit de plus en plus l’industrie médiatique et le journalisme, il y a de quoi s’inquiéter. Comme le suggère une récente tribune du New York Times, « Hijacker la démocratie », dans un monde de contenu facilement généré, il est essentiel de maintenir un scepticisme sain, qui ne conduise pas à réfuter toutes les informations reçues, mais plutôt à les vérifier systématiquement, surtout lorsque l’on sait que pour la sixième année consécutive, la démocratie est en déclin dans le monde.
(*) GPT signifie en anglais Generative Pre-trained Transformer, soit transformeur génératif pré-entraîné. Il s’agit d’un modèle de langage développé par la société américaine OpenAI, qui sert de moteur à l’agent conversationnel (ou chatbot) ChatGPT.