M. Trump n’est pas le seul à s’inquiéter du fait que les grands modèles linguistiques (LLM) tels que ChatGPT d’OpenAI et Gemini de Google, qui ressemblent souvent à des oracles de vérité (même lorsqu’ils débitent des énormités), cachent des préjugés.
Le décret présidentiel de M. Trump, intitulé « Empêcher l’IA woke dans le gouvernement fédéral », s’appuie sur des exemples choquants pour étayer son argumentation. En tête de liste figure le moment où, début 2024, Google a dévoilé une fonctionnalité de génération d’images qui représentait les papes et les Vikings comme ayant la peau noire.
Des études suggèrent que la plupart des LLM, même Grok, penchent à gauche ; les modèles chinois et russes reflètent également les préjugés des systèmes qui les ont engendrés.
Partout dans le monde, les gouvernements s’inquiètent des différents types de préjugés dans l’IA. Il s’agit notamment de la discrimination fondée sur le sexe et la race, comme dans l’Union européenne (UE), de l’accès inégal aux modèles dans les langues nationales, comme au Japon et en Asie du Sud-Est, et de l’importation des normes culturelles occidentales, qui suscite une inquiétude généralisée. Mais comme M. Trump, de nombreux universitaires se sont concentrés sur les préjugés idéologiques et politiques.
Une approche utilisée par David Rozado, de l’Otago Polytechnic en Nouvelle-Zélande, consiste à mesurer la similitude entre le langage utilisé par les LLM et celui utilisé par les législateurs républicains et démocrates aux États-Unis (par exemple, « budget équilibré » et « immigrants illégaux » pour les premiers, et « soins abordables » et « violence par arme à feu » pour les seconds). Il a constaté que lorsqu’on leur demande des propositions politiques, les LLM utilisent presque toujours un langage plus proche de celui des démocrates. Seul un LLM spécialement conçu, qu’il a appelé « GPT de droite », penchait en faveur des républicains (voir graphique 1 ci-contre).
Une autre approche consiste à évaluer la manière dont les utilisateurs perçoivent l’orientation politique d’un modèle. Des chercheurs du Dartmouth College et de l’université de Stanford ont demandé à différents LLM de répondre à des questions telles que « Le gouvernement américain devrait-il augmenter les impôts des riches ou les maintenir à leur niveau actuel ? ». Ils ont ensuite demandé à des Américains d’évaluer les réponses en fonction de leur orientation politique (voir graphique 2). Ils ont constaté que « presque tous les principaux modèles sont considérés comme étant de gauche, même par les répondants démocrates ».
Certains universitaires adoptent une approche plus globale. Maarten Buyl et Tijl De Bie, de l’université de Gand en Belgique, ont mené une étude lors de laquelle on posait des questions à des LLM de différentes régions et dans différentes langues leur demandant d’évaluer des milliers de personnalités politiques couvrant un large éventail de points de vue idéologiques. Ils ont conclu que dans la plupart des cas, les LLM reflètent l’idéologie de leurs créateurs. Les modèles russes, par exemple, étaient généralement plus positifs à l’égard des personnes critiques envers l’Union européenne. Les modèles en langue chinoise étaient beaucoup plus négatifs à l’égard des politiciens hongkongais et taïwanais critiques envers la Chine.
Une telle partialité peut influencer le monde réel. En effet, les LLM tendancieux peuvent influencer leurs utilisateurs. Dans une expérience menée par Jill Fisher de l’université de Washington, des Américains se déclarant républicains ou démocrates ont été invités à s’imaginer en maires d’une ville disposant d’un budget restant à dépenser. Après avoir discuté du problème avec des LLM qui, à leur insu, étaient politiquement biaisés, ils ont souvent changé d’avis. Les démocrates exposés à un modèle d’IA conservateur ont par exemple décidé d’allouer davantage d’argent aux anciens militaires.
Compte tenu des répercussions, il n’est pas étonnant que les gouvernements s’y intéressent. Les régulateurs chinois ont publié des règles exigeant que le contenu de l’IA incarne les « valeurs socialistes fondamentales » et obligent régulièrement les entreprises technologiques à soumettre leurs modèles à la censure. La loi européenne sur l’IA, qui est progressivement mise en place, se concentre davantage sur la discrimination et les préjugés à l’encontre des individus et des groupes [protégés]. Kai Zenner, conseiller au Parlement européen, affirme que les préjugés idéologiques sont également couverts, mais qu’ils restent vagues en raison de la diversité des points de vue politiques au sein du bloc [européen]. « Il aurait été presque impossible de s’entendre sur des éléments que certains souhaitent voir inclus et d’autres non », explique-t-il.
Selon The Economist, les nouvelles règles de M. Trump visant à n’attribuer des contrats gouvernementaux qu’aux LLM qui font preuve de « recherche de la vérité » et de « neutralité idéologique » semblent dignes d’Orwell. Il est possible que « vérité » soit un euphémisme pour « pensée MAGA ». Le plan d’action de M. Trump en matière d’IA, publié en juillet, demandait que le cadre de gestion des risques liés à l’IA du gouvernement supprime toute référence à la désinformation, à la DEI et au changement climatique. Certains républicains ont également commencé à enquêter sur les concepteurs de modèles. Un procureur général d’État a récemment accusé les géants informatiques Google, Microsoft et Meta, ainsi qu’OpenAI, de « propagande générée par l’IA ».
Bien que les détails du décret de M. Trump soient encore en cours d’élaboration, il y a des raisons de penser qu’il ne sera pas aussi draconien que certains à gauche le craignent. Plutôt que d’imposer ce que les LLM peuvent dire, ce qui pourrait violer les lois sur la liberté d’expression, les nouvelles règles semblent seulement exiger des laboratoires d’IA qu’ils divulguent toute orientation idéologique utilisé pour entraîner leurs modèles. Cela donne la priorité à la transparence, explique Mackenzie Arnold, de l’Institute for Law and AI, un groupe de réflexion basé à Washington.
Le succès de l’administration Trump dans l’imposition de la « neutralité » commence par la question suivante : d’où viennent les biais ? Les universitaires et les chercheurs travaillant dans les laboratoires d’IA affirment que la tendance à gauche est probablement influencée par les données sur lesquelles les LLM occidentaux sont entraînés. La plupart de ces données sont en anglais, ce qui les rend libérales [au sens classique du termes]. Elles sont extraites de publications Internet, de réseaux sociaux et d’autres sources numériques qui ont tendance à refléter les opinions des jeunes. Il est également vrai que le point de vue politique médian dans le monde anglophone en général est plus libéral qu’aux États-Unis, ce qui signifie que les modèles centristes peuvent être perçus comme étant de gauche dans le contexte américain.
Une fois les modèles entraînés à l’aide de données et d’algorithmes, des étiqueteurs humains les affinent grâce à un processus appelé « apprentissage par renforcement avec rétroaction humaine », dans le cadre duquel les réponses des modèles sont classées en fonction de valeurs telles que l’utilité et la sécurité. Ces étiqueteurs sont généralement relativement jeunes, ce qui peut influencer leur jugement. Enfin, les concepteurs de modèles émettent ce qu’on appelle des « invites système », qui guident le comportement d’un LLM en fixant des règles explicites sur la façon dont il répond aux questions. C’est là que les guerriers anti-wokes accusent les gauchistes de la Silicon Valley d’aller trop loin pour intégrer des valeurs progressistes dans les LLM.
Mais la situation est plus compliquée que cela. Premièrement, les modèles sont des boîtes noires. Les laboratoires d’IA mènent des recherches approfondies sur les solutions technologiques qui améliorent l’« interprétabilité », mais même eux ont encore du mal à comprendre pourquoi les LLM produisent les réponses qu’ils produisent. Deuxièmement, les entraîneurs humains du modèle sont confrontés à des problèmes philosophiques délicats pour lesquels il n’existe pas de réponses précises.
Les chercheurs des laboratoires LLM soulignent certains de ces dilemmes. Par exemple, sur une question politiquement controversée, il peut être préférable d’encourager le modèle à expliquer les deux points de vue et à proposer un terrain d’entente. Mais où fixer la limite ? Sur certains sujets, tels que les assassinats politiques, tout le monde, à l’exception d’une frange violente, s’accorde à dire qu’il n’y a pas de débat possible. Les jugements peuvent également évoluer. À un moment donné de l’histoire américaine, par exemple, l’interdiction de l’esclavage a fait l’objet d’une vive controverse. Ce n’est plus le cas aujourd’hui.
Ces PC sont trop PC
Cela dit, les concepteurs de modèles voient dans quelle direction souffle le vent idéologique à Washington et risquent de perdre non seulement des contrats gouvernementaux, mais aussi leur réputation, si leurs produits sont considérés comme trop partiaux. Même avant le décret de M. Trump, certains laboratoires d’IA avaient intensifié les tests de partialité politique de leurs modèles et les avaient ajustés pour inclure des points de vue plus conservateurs. Google a fait appel à des « équipes républicaines » pour éliminer les biais.
Aucun commentaire:
Enregistrer un commentaire