jeudi 16 octobre 2025

Les étudiants doivent apprendre à être plus que de simples gardiens décérébrés de machines « intelligentes »

Les étudiants à l'université se sont tournés vers l'intelligence artificielle de la même manière qu'un nouveau conducteur anxieux, muni d'une carte routière froissée, pourrait se tourner vers un GPS, c'est-à-dire avec avidité et de manière compréhensible.

Les perspectives professionnelles des étudiants dépendront de la valeur ajoutée qu'ils pourront apporter au-delà de ce qu'une machine peut régurgiter. 

Une enquête menée auprès d'étudiants britanniques de premier cycle par le groupe de réflexion Higher Education Policy Institute montre que 92 % d'entre eux utilisent une forme ou une autre d'IA générative cette année, contre 66 % l'année dernière, tandis que 88 % l'ont utilisée dans le cadre d'évaluations, contre 53 % l'année dernière.

Que devraient faire les universités ? Dire aux étudiants que vous allez poser la même question à un outil tel que ChatGPT ? Ils seront notés en fonction de la qualité de leur version par rapport à celle de la machine : à quel point elle est plus originale, créative, perspicace ou précise. Ou bien leur donner la version IA et leur demander de l'améliorer, ainsi que d'identifier et de corriger ses hallucinations ?

Après tout, les perspectives professionnelles des étudiants dépendront de la valeur ajoutée qu'ils pourront apporter, au-delà de ce qu'une machine peut produire. En outre, des études sur l'utilisation de l'IA au travail suggèrent que ces tâches d'édition et de supervision deviendront de plus en plus courantes. Une étude Microsoft publiée cette année sur l'utilisation de l'IA générative par des employés du secteur de la connaissance a révélé que cet outil avait modifié « la nature de la pensée critique », passant de « la collecte d'informations à la vérification d'informations », de « la résolution de problèmes à l'intégration de réponses fournies par l'IA » et de « l'exécution de tâches à la gestion de tâches ».

Mais comme beaucoup de solutions agréablement simples à des problèmes complexes, la suggestion ci-dessus s'avère apparemment être une très mauvaise idée. Maria Abreu, professeure de géographie économique à l'université de Cambridge, a confié au Financial Times que son département avait mené des expériences dans ce sens. Mais lorsque les étudiants de premier cycle ont reçu un texte généré par l'IA et ont été invités à l'améliorer, les résultats ont été décevants. « Les améliorations étaient très superficielles, elles ne changeaient pas la structure des arguments », a-t-elle déclaré.

Les étudiants en maîtrise ont obtenu de meilleurs résultats, peut-être parce qu'ils avaient déjà affiné leur capacité à penser de manière critique et à structurer leurs arguments. « Le problème est le suivant : si nous ne les formons pas à penser par eux-mêmes, ne risquent-ils pas de ne pas développer cette capacité ? » Après être  passé à des évaluations du travail des étudiants à distance grâce Internet dans le cadre de la gestion de la Covid-19, le département d'Abreu revient désormais à des conditions d'examen traditionnel « sur table ».

Michael Veale, professeur associé à la faculté de droit de l'University College London, a déclaré que son département était également revenu à des examens plus traditionnels. M. Veale, qui est un expert en politique technologique, considère l'IA comme une « menace pour le processus d'apprentissage », car elle offre un raccourci séduisant aux étudiants pressés par le temps et soucieux d'obtenir de bonnes notes.

« Nous sommes inquiets. Notre rôle est de les mettre en garde contre ces raccourcis, qui limitent leur potentiel. Nous voulons qu'ils utilisent les meilleurs outils pour leur travail lorsqu'ils entreront dans la vie active, mais il y a un moment pour cela, et ce moment n'est pas toujours au début », explique-t-il.

Cette préoccupation ne s'applique pas uniquement aux matières basées sur la rédaction d'essais. Une étude menée par l'ACM Digital Library auprès de programmeurs débutants a révélé que les étudiants ayant obtenu de meilleures notes utilisaient intelligemment les outils d'IA générative pour « accélérer la recherche d'une solution ». D'autres ont obtenu de mauvais résultats et ont probablement acquis des idées fausses, mais ont conservé « une illusion injustifiée de leur compétence » à cause de l'IA.

Il se pourrait qu'on observe bientôt les mêmes tendances dans le monde du travail. L'étude menée par Microsoft (qui déploie d'énormes efforts pour introduire l'IA sur le lieu de travail) auprès des travailleurs du savoir a révélé que les outils d'IA générative « réduisent l'effort perçu de la pensée critique tout en encourageant une dépendance excessive à l'IA ».

Bien sûr, cela n'a rien de nouveau. En 1983, Lisanne Bainbridge a mis le doigt sur le problème dans un article célèbre intitulé « Ironies of Automation » (Les ironies de l'automatisation). Elle affirmait que les humains à qui l'on demandait d'être des « opérateurs chargés de surveiller les machines » verraient leurs compétences et leurs connaissances s'atrophier par manque d'utilisation régulière, ce qui rendrait plus difficile leur intervention en cas de besoin.

Dans de nombreux cas, cela n'a pas posé de problème. Les gens ont adopté le GPS et ont oublié comment s'orienter correctement. Le monde ne s'est pas écroulé. Mais tout le monde ne pourra pas accepter sans critique les résultats souvent erronés de l'IA dans un large éventail de tâches professionnelles.
Comment éviter un tel avenir ? Comme pour les étudiants en programmation, il semble que la réponse réside dans la maîtrise de son domaine : l'étude de Microsoft a révélé que les personnes ayant une plus grande confiance en elles, qui savaient qu'elles pouvaient accomplir la tâche sans IA si elles le souhaitaient, faisaient preuve d'un esprit plus critique.

Les chercheurs ont conclu que « mettre l'accent sur le maintien des compétences fondamentales en matière de collecte d'informations et de résolution de problèmes aiderait les travailleurs à éviter de devenir trop dépendants de l'IA ». En d'autres termes, pour utiliser efficacement plutôt que de manière irréfléchie les raccourcis fournis par l'IA, il faut d'abord savoir comment procéder en s'en passant.

Source : Financial Times

Aucun commentaire: