En Colombie, un juge a révélé avoir utilisé le dialogueur ChatGPT pour préparer une décision dans une affaire de droits médicaux concernant un enfant.
En l’espèce, il s’agissait d’une demande d’exonération de frais médicaux pour un enfant autiste, « compte tenu des revenus limités de ses parents ».
« En posant des questions à l’application, nous ne cessons pas d’être des juges, des êtres pensants », s’est défendu le juge Juan Manuel Padilla. Il a finalement statué en faveur de l’enfant.
Pour le magistrat, « ChatGPT effectue des services auparavant fournis par un secrétaire ». Et il le fait « de manière organisée, simple et structurée ». Ce qui pourrait, selon lui, « améliorer les temps de réponse » du système judiciaire.
Mais pour le professeur Juan David Gutierrez, expert en réglementation et gouvernance de l’intelligence artificielle à l’université de Rosario, « il n’est certainement pas responsable ou éthique » d’utiliser ChatGPT comme l’a fait le juge Padilla. Il explique qu’après avoir posé les mêmes questions que le juge au chatbot, il a obtenu des réponses différentes[1]. OpenAI, la société à l’origine de ChatGPT, a prévenu que son outil pouvait faire des « erreurs ».
[1] Le juge Padilla a déclaré avoir demandé à ChatGPT « Les mineurs autistes sont-ils exonérés du paiement des frais de leurs thérapies ? », « entre autres questions ». Ce à quoi le robot aurait répondu : « Oui, c’est exact. Selon la réglementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés de frais pour leurs thérapies. »
Source : TechXplore avec AFP (02/II/2023)
Voir aussi
ChatGPT, un rimailleur progressiste
Débat — La science au service de l'homme ? (Euthanasie,contraception, IA, éthique)
Aucun commentaire:
Enregistrer un commentaire