Le professeur en communication Jeff Hancock, expert en technologie et en désinformation, a été accusé d’avoir utilisé l’intelligence artificielle (IA) pour produire une déclaration erronée au tribunal.
En novembre, Jeff Hancock (ci-contre), qui est le directeur fondateur du Social Media Lab de Stanford, a déposé une déclaration dans le cadre d’un procès au Minnesota portant sur la loi de 2023 de cet État, qui criminalise l’utilisation d’hypertrucages (« deepfakes ») pour influencer une élection. La déclaration de 12 pages du professeur destinée à défendre la loi contient 15 citations, dont deux sont introuvables.
Les plaignants, Mary Franson, représentante républicaine de l’État du Minnesota, et Christopher Kohls, satiriste conservateur sur les réseaux sociaux, ont fait valoir que la loi constituait une limite inconstitutionnelle à la liberté d’expression. Présentant son témoignage au nom d’un défendeur, le procureur général du Minnesota Keith Ellison, M. Hancock a affirmé que les hypertrucages (deepfakes), c’est-à-dire les contenus générés par l’intelligence artificielle qui modifient l’apparence ou la voix d’une personne, peuvent renforcer le pouvoir de persuasion des fausses informations et défier les méthodes traditionnelles de vérification des faits.
Il a fait sa déclaration, pour laquelle il a été rémunéré au taux gouvernemental de 600 dollars l’heure, sous peine de parjure, affirmant que tout ce qu’il avait déclaré dans le document était « vrai et correct ».
Le Daily et d’autres organes de presse ont été incapables de trouver les deux articles de revues universitaires cités par M. Hancock : « Les contrefaçons profondes et l’illusion de l’authenticité : Les processus cognitifs derrière l’acceptation de la désinformation » et « L’influence des vidéos hypertruquées sur les attitudes et les comportements politiques » — en utilisant leur identifiant d’objet numérique ou dans les archives des revues citées.
Soulignant les erreurs contenues dans la déclaration de M. Hancock dans un document déposé le 16 novembre, Frank Berdnarz, l’avocat de M. Franson et de M. Kohls, a demandé que cette déclaration soit exclue de la décision du juge d’accorder ou non une injonction préliminaire à l’encontre de la loi.
« La citation porte les marques d’une “hallucination” de l’intelligence artificielle (IA), ce qui suggère qu’au moins cette citation a été générée par un grand modèle de langage tel que ChatGPT », a écrit M. Berdnarz. « L’existence d’une citation fictive que Hancock (ou ses assistants) n’a même pas pris la peine de consulter en cliquant sur le lien cité remet en question la qualité et la véracité de l’ensemble de la déclaration. »
En novembre, Jeff Hancock (ci-contre), qui est le directeur fondateur du Social Media Lab de Stanford, a déposé une déclaration dans le cadre d’un procès au Minnesota portant sur la loi de 2023 de cet État, qui criminalise l’utilisation d’hypertrucages (« deepfakes ») pour influencer une élection. La déclaration de 12 pages du professeur destinée à défendre la loi contient 15 citations, dont deux sont introuvables.
Les plaignants, Mary Franson, représentante républicaine de l’État du Minnesota, et Christopher Kohls, satiriste conservateur sur les réseaux sociaux, ont fait valoir que la loi constituait une limite inconstitutionnelle à la liberté d’expression. Présentant son témoignage au nom d’un défendeur, le procureur général du Minnesota Keith Ellison, M. Hancock a affirmé que les hypertrucages (deepfakes), c’est-à-dire les contenus générés par l’intelligence artificielle qui modifient l’apparence ou la voix d’une personne, peuvent renforcer le pouvoir de persuasion des fausses informations et défier les méthodes traditionnelles de vérification des faits.
Il a fait sa déclaration, pour laquelle il a été rémunéré au taux gouvernemental de 600 dollars l’heure, sous peine de parjure, affirmant que tout ce qu’il avait déclaré dans le document était « vrai et correct ».
Le Daily et d’autres organes de presse ont été incapables de trouver les deux articles de revues universitaires cités par M. Hancock : « Les contrefaçons profondes et l’illusion de l’authenticité : Les processus cognitifs derrière l’acceptation de la désinformation » et « L’influence des vidéos hypertruquées sur les attitudes et les comportements politiques » — en utilisant leur identifiant d’objet numérique ou dans les archives des revues citées.
Soulignant les erreurs contenues dans la déclaration de M. Hancock dans un document déposé le 16 novembre, Frank Berdnarz, l’avocat de M. Franson et de M. Kohls, a demandé que cette déclaration soit exclue de la décision du juge d’accorder ou non une injonction préliminaire à l’encontre de la loi.
« La citation porte les marques d’une “hallucination” de l’intelligence artificielle (IA), ce qui suggère qu’au moins cette citation a été générée par un grand modèle de langage tel que ChatGPT », a écrit M. Berdnarz. « L’existence d’une citation fictive que Hancock (ou ses assistants) n’a même pas pris la peine de consulter en cliquant sur le lien cité remet en question la qualité et la véracité de l’ensemble de la déclaration. »
M. Hancock a été contraint d’admettre qu’il s’était appuyé sur l’IA pour rédiger la déclaration (voir passage souligné dans l’extrait de l’attestation reproduite ci-dessus).
M. Hancock, qui enseigne actuellement COMM 1 : « Introduction à la communication » et COMM 324 : « Langage et technologie », est apparu dans un documentaire Netflix de 2024 mettant en scène Bill Gates, offrant des perspectives sur l’avenir de l’IA. Le professeur doit également enseigner COMM 124/224 : « Vérité, confiance et technologie » sur l’escroquerie et la technologie de la communication au printemps.
M. Kohls, connu pour son surnom sur les réseaux sociaux, M. Reagan, a déjà contesté la constitutionnalité de deux projets de loi californiens promulgués en septembre par le gouverneur Gavin Newsom. Ces projets de loi, AB 2655 et AB 2839, exigent que les plateformes en ligne bloquent certains contenus médiatiques trompeurs relatifs aux élections et interdisent la distribution de contenus publicitaires contenant des contenus médiatiques trompeurs. M. Newsom a qualifié d’illégale la vidéo parodique virale de Kohls, qui manipulait la voix de Kamala Harris dans une vidéo produite en marge de la campagne présidentielle.
Aucun commentaire:
Enregistrer un commentaire