Un exemple récent, largement relayé sur X, illustre un basculement discret mais profond. Le 24 avril 2026, le neuroscientifique Ruslan Rust a publié une figure (ci-dessous) crée par le nouveau modèle d’images de ChatGPT. Elle prétend montrer que la consommation d’eau réduit fortement le risque de maladie d’Alzheimer.
Graphique soigné, distributions statistiques réalistes, légendes impeccables, courbes de survie convaincantes : tout y est. Le contenu est entièrement faux, mais la forme est si crédible qu’un relecteur pourrait facilement la croire authentique.
Ce cas n’a rien d’anecdotique. Il révèle une évolution plus large : les systèmes d’IA sont désormais capables de produire non seulement du texte, mais aussi des éléments scientifiques complets — figures, jeux de données simulés, visualisations — qui respectent parfaitement les codes académiques. Or ces codes ont longtemps servi de repères pour évaluer rapidement la qualité d’un travail.
La fin d’un signal implicite
Dans la pratique scientifique, certains éléments jouent le rôle de signaux tacites de sérieux :
- un graphique bien construit,
- des données cohérentes et plausibles,
- une présentation conforme aux standards du domaine.
Ces indices ne prouvent rien à eux seuls, mais ils orientent l’attention et facilitent l’évaluation. Jusqu’à récemment, leur production exigeait un réel effort expérimental ou analytique, ce qui leur conférait une certaine valeur indicative.
Ce lien est en train de se rompre. L’IA permet de générer ces éléments à très faible coût, sans base réelle. Résultat : la forme peut désormais être totalement dissociée du contenu.
Du texte plausible à la science plausible
Le phénomène était déjà connu pour le texte : certains modèles produisent des articles au style académique irréprochable, mais conceptuellement vides ou erronés. Ce qui change aujourd’hui, c’est l’extension de cette capacité au registre visuel et quantitatif.
Un graphique simulé peut :
- respecter des distributions statistiques réalistes,
- suggérer des corrélations convaincantes,
- imiter fidèlement les conventions d’un domaine (p-values, intervalles de confiance, courbes de Kaplan-Meier, etc.).
Dans l’exemple de Ruslan Rust, rien, à première vue, ne trahit la supercherie. Le problème n’est plus seulement la fraude (qui existait déjà), mais sa diffusion massive : n’importe qui peut produire, en quelques secondes, une figure qui paraît réelle.
Une érosion de la crédibilité
Le principal risque n’est pas l’apparition de faux isolés, mais une dégradation plus insidieuse : les signaux de crédibilité deviennent moins fiables. Lorsque des éléments autrefois coûteux deviennent faciles à produire, ils perdent leur pouvoir de distinction.
L’évaluation doit donc se déplacer vers des niveaux plus profonds :
- origine et traçabilité des données,
- reproductibilité des analyses,
- cohérence méthodologique.
Ce qui relevait parfois d’une vérification implicite doit devenir explicite.
Vers des exigences accrues
Face à cette évolution, plusieurs mesures s’imposent, déjà évoquées dans la communauté scientifique :
- accès aux données brutes,
- mise à disposition du code et des scripts d’analyse,
- documentation détaillée des protocoles expérimentaux,
- suivi des étapes de travail via des carnets de laboratoire numériques horodatés (proches des systèmes de version comme Git).
Ces mesures ne visent pas à restaurer une confiance aveugle, mais à la remplacer par un contrôle plus systématique.
Un déplacement des compétences
Cette évolution renforce aussi le rôle des compétences proprement humaines. Lorsque les apparences deviennent trompeuses, il ne suffit plus de reconnaître un « bon » graphique ou un texte bien structuré. Il faut être capable de :
- questionner les hypothèses sous-jacentes,
- évaluer la plausibilité des mécanismes biologiques,
- identifier les zones d’incertitude ou l’absence de preuve.
Cela suppose à la fois un socle solide de connaissances et une démarche critique active. Sans cela, le risque de confondre plausibilité et validité devient important.
L’intelligence artificielle ne rend pas la science impossible, mais elle en modifie profondément les conditions de crédibilité. En fragilisant les indices superficiels de scientificité, elle oblige à revenir à des critères plus exigeants : traçabilité, reproductibilité, cohérence.
Le graphique fictif de Ruslan Rust sur l’eau et la maladie d’Alzheimer n’est pas une simple curiosité — c’est un signal clair. Ce qui ressemblait hier à une preuve n’en est plus nécessairement une.
La réponse ne consiste pas à rejeter ces outils, mais à adapter les pratiques. À mesure que la production devient plus facile, l’évaluation doit devenir plus rigoureuse.

Aucun commentaire:
Enregistrer un commentaire