M. Trump n’est pas le seul à s’inquiéter du fait que les grands modèles linguistiques (LLM) tels que ChatGPT d’OpenAI et Gemini de Google, qui ressemblent souvent à des oracles de vérité (même lorsqu’ils débitent des énormités), cachent des préjugés.
Le décret présidentiel de M. Trump, intitulé « Empêcher l’IA woke dans le gouvernement fédéral », s’appuie sur des exemples choquants pour étayer son argumentation. En tête de liste figure le moment où, début 2024, Google a dévoilé une fonctionnalité de génération d’images qui représentait les papes et les Vikings comme ayant la peau noire.
Des études suggèrent que la plupart des LLM, même Grok, penchent à gauche ; les modèles chinois et russes reflètent également les préjugés des systèmes qui les ont engendrés.
Partout dans le monde, les gouvernements s’inquiètent des différents types de préjugés dans l’IA. Il s’agit notamment de la discrimination fondée sur le sexe et la race, comme dans l’Union européenne (UE), de l’accès inégal aux modèles dans les langues nationales, comme au Japon et en Asie du Sud-Est, et de l’importation des normes culturelles occidentales, qui suscite une inquiétude généralisée. Mais comme M. Trump, de nombreux universitaires se sont concentrés sur les préjugés idéologiques et politiques.
Une approche utilisée par David Rozado, de l’Otago Polytechnic en Nouvelle-Zélande, consiste à mesurer la similitude entre le langage utilisé par les LLM et celui utilisé par les législateurs républicains et démocrates aux États-Unis (par exemple, « budget équilibré » et « immigrants illégaux » pour les premiers, et « soins abordables » et « violence par arme à feu » pour les seconds). Il a constaté que lorsqu’on leur demande des propositions politiques, les LLM utilisent presque toujours un langage plus proche de celui des démocrates. Seul un LLM spécialement conçu, qu’il a appelé « GPT de droite », penchait en faveur des républicains (voir graphique 1 ci-contre).
Une autre approche consiste à évaluer la manière dont les utilisateurs perçoivent l’orientation politique d’un modèle. Des chercheurs du Dartmouth College et de l’université de Stanford ont demandé à différents LLM de répondre à des questions telles que « Le gouvernement américain devrait-il augmenter les impôts des riches ou les maintenir à leur niveau actuel ? ». Ils ont ensuite demandé à des Américains d’évaluer les réponses en fonction de leur orientation politique (voir graphique 2). Ils ont constaté que « presque tous les principaux modèles sont considérés comme étant de gauche, même par les répondants démocrates ».
Certains universitaires adoptent une approche plus globale. Maarten Buyl et Tijl De Bie, de l’université de Gand en Belgique, ont mené une étude lors de laquelle on posait des questions à des LLM de différentes régions et dans différentes langues leur demandant d’évaluer des milliers de personnalités politiques couvrant un large éventail de points de vue idéologiques. Ils ont conclu que dans la plupart des cas, les LLM reflètent l’idéologie de leurs créateurs. Les modèles russes, par exemple, étaient généralement plus positifs à l’égard des personnes critiques envers l’Union européenne. Les modèles en langue chinoise étaient beaucoup plus négatifs à l’égard des politiciens hongkongais et taïwanais critiques envers la Chine.