mercredi 20 janvier 2016

Tous du même avis ? Trop beau pour être vrai ? Indication d'une erreur ?

Mathématiques. Toutes les preuves concordent ? Il doit donc y avoir une erreur, expliquent des chercheurs qui décrivent le paradoxe de l’unanimité.

Selon le Talmud, un suspect condamné à l’unanimité par les juges devrait être acquitté. À première vue, ce raisonnement est déroutant. Mais, pour les sages de l’époque, l’accord à l’unanimité trahissait souvent une erreur systémique dans la procédure judiciaire, même si la nature exacte du problème restait à identifier. Ils avaient l’intuition qu’une erreur était à craindre quand quelque chose semblait trop beau pour être vrai. Dans un article [soumis le 5 janvier] à paraître dans la revue scientifique Proceedings of the Royal Society A, des chercheurs australiens et français (Lachlan J. Gunn et coll.) se sont penchés sur cette idée, qu’ils appellent le « paradoxe de l’unanimité ».

« Si de nombreux témoins identifient anonymement et individuellement un suspect, nous partons du principe qu’ils ne peuvent pas tous avoir tort, explique Derek Abbott, coauteur de l’étude, physicien et ingénieur en électronique à l’université d’Adélaïde [Australie]. Nous nous fions souvent à l’unanimité. Mais en réalité, il est très improbable qu’un grand nombre de personnes soient d’accord, c’est pourquoi nous devrions nous méfier de l’unanimité. Ce paradoxe montre que nos certitudes ne sont finalement pas aussi solides que nous le pensons. »

Faut-il se fier à l'unanimité ?
Les chercheurs ont mis ce paradoxe en évidence dans le cas contemporain des séances d’identification de suspects, dans lesquels des témoins tentent de désigner le présumé coupable parmi un groupe de plusieurs personnes.

Ils ont démontré que plus l’accord des témoins est unanime, moins ils ont de chances d’avoir raison.

L’erreur systémique peut être due à toutes sortes de partis pris, que ce soit la façon dont les suspects sont présentés aux témoins ou les préjugés que nourrissent les témoins eux-mêmes. Les chercheurs ont surtout montré qu’il en faut peu pour influencer considérablement les résultats : s’il existe un préjugé vis-à-vis d’un suspect pour seulement 1 % des témoins, la probabilité que le groupe identifie la bonne personne commence à diminuer après seulement trois identifications concordantes. Contre toute attente, la probabilité que les témoins aient raison augmente si un seul d’entre eux désignait un autre suspect.

La justification mathématique de ce phénomène est l’inférence bayésienne [cette méthode statistique, qui porte le nom du mathématicien britannique Thomas Bayes, permet de déduire la probabilité d’un événement à partir d’autres événements], que l’on peut résumer en observant une pièce pipée. Si une pièce pipée est conçue pour retomber côté face dans 55 % des cas, alors il suffira de jouer assez longtemps à pile ou face pour voir que la pièce retombe plus souvent côté face. Ces résultats ne prouveront pas que les lois de la probabilité d’un système binaire ont changé, mais que ce système particulier est défaillant. De la même manière, il est si peu vraisemblable d’obtenir l’unanimité dans un grand groupe (d’après les lois de la probabilité) qu’il est plus probable que le système lui-même soit sujet à caution.

Selon les chercheurs, ce paradoxe est plus courant qu’on ne le croit. L’unanimité reste une bonne chose dans un certain nombre de situations, mais seulement quand les préjugés sont quasi voire complètement inexistants.

Derek Abbott donne l’exemple de témoins chargés d’identifier une pomme parmi des bananes : cette tâche est si facile qu’il est presque impossible de se tromper, l’unanimité devient donc beaucoup plus probable.

En revanche, identifier un suspect est autrement plus complexe. Des mises en scène d’actes criminels ont montré que les erreurs d’identification peuvent atteindre 48 % quand les témoins ne font qu’entrevoir le coupable dans sa fuite. Dans ces cas-là, il sera très peu probable d’obtenir l’entente unanime d’un grand nombre de personnes. Mais dans une situation où les témoins auraient individuellement été retenus en otages par le criminel pendant un mois sous la menace d’une arme, le risque d’erreur serait largement inférieur à 48 % : cette situation serait plus proche du cas des bananes que de celui où l’auteur du délit n’est aperçu que brièvement.

Le paradoxe de l’unanimité a de nombreuses applications en dehors de la sphère judiciaire. Dans leur article, les chercheurs abordent notamment la question de la cryptographie.

On contrôle souvent les données cryptées en vérifiant si un nombre gigantesque fourni [une clé de chiffrement] est un nombre premier [qui n’a que deux diviseurs : 1 et lui-même] ou composé [qui a plus de deux diviseurs]. Pour ce faire, on peut réitérer un test probabiliste dit « de Miller-Rabin » [algorithme permettant de déterminer si un nombre entier est premier] jusqu’à ce que la probabilité pour qu’il prenne un nombre composé pour un nombre premier soit extrêmement faible : une probabilité de 2−128 est généralement jugée acceptable.

L’échec systémique, dans ce cas, est une faille informatique. La plupart des gens n’envisagent pas qu’un rayon cosmique isolé puisse inverser un bit [l’unité de base en informatique], ce qui pousserait le test à valider le nombre composé comme s’il était un nombre premier. Après tout, c’est un cas assez rare, susceptible de se produire environ 10−13 fois par mois. Mais la chose importante à repérer, c’est que cette quantité [10−13] est très supérieure à 2−128 [2,9 * 10-40]. Ainsi, même si le risque d’erreur est très faible, il reste supérieur au niveau de sécurité souhaité.

Par conséquent, le protocole cryptographique paraît plus sécurisé qu’il ne l’est réellement, puisque les résultats du test qui semblent indiquer un niveau élevé de sécurité sont plutôt le signe d’une vulnérabilité informatique. Pour garantir un niveau de sécurité satisfaisant, les chercheurs conseillent de réduire au maximum ces erreurs « cachées ».

Intuition mal informée. Même si le paradoxe de l’unanimité semble contre-intuitif, les chercheurs expliquent qu’il prend tout son sens une fois que nous avons toutes les informations en main.

« Comme pour la plupart des “paradoxes”, notre intuition n’est pas forcément mauvaise, mais elle mal informée, précise Derek Abbott. Nous sommes surpris parce que nous ignorons généralement que les taux de reconnaissance par témoins sont si mauvais, ou que les taux d’erreur de bits dans les ordinateurs sont élevés en matière de cryptographie. »

Les chercheurs ont noté que le paradoxe de l’unanimité était lié à la thèse de Duhem-Quine. Celle-ci postule qu’il est impossible de tester une hypothèse seule et que c’est un groupe d’hypothèses qui est toujours testé [en d’autres termes, qu’on ne peut pas dissocier une hypothèse du savoir implicite utilisé pour sa formulation]. Par exemple, une expérience évalue non seulement un phénomène précis, mais aussi la fonction corrective des outils expérimentaux.

Dans le paradoxe de l’unanimité, ce sont les méthodes (les « hypothèses auxiliaires ») qui échouent, ce qui nuit à la confiance accordée aux résultats principaux.

Le paradoxe de l’unanimité est applicable à des domaines nombreux et variés. Derek Abbott nous en donne plusieurs exemples :

1. Dans le scandale essuyé récemment par Volkswagen, l’entreprise a illicitement programmé une puce informatique pour minimiser les émissions des moteurs diesel pendant les tests de pollution. En réalité, les émissions étaient supérieures aux normes quand les voitures étaient sur la route. Les résultats des tests étaient trop homogènes et « trop beaux pour être vrais ». L’équipe qui a dénoncé Volkswagen a eu ses premières soupçons en voyant que les émissions étaient quasi identiques pour une voiture neuve et un modèle vieux de cinq ans ! Cette constance a trahi la distorsion systémique instaurée par la puce malicieuse.

2. On peut également citer le cas d’une accumulation de preuves trop accablantes pour être réalistes. Entre 1993 et 2008, la police européenne a identifié le même ADN féminin dans une quinzaine d’affaires criminelles survenues en France, en Allemagne et en Autriche. Le mystérieux assassin a été surnommé « le fantôme d’Heilbronn », et la police ne l’a jamais retrouvé. Les preuves ADN étaient identiques et accablantes, mais elles étaient erronées. C’était une erreur systémique.

Les bâtonnets utilisés pour collecter les échantillons d’ADN avaient été contaminés accidentellement à l’usine de production de ces bâtonnets par une même employée.

3. Lors d’une élection, on déplore souvent que le parti gagnant l’ait emporté avec une marge relativement faible. Chacun aimerait que son parti préféré fasse l’unanimité. Si c’était un jour le cas, cela révélerait une erreur systémique due à la manipulation du scrutin.

4. En sciences, la théorie et l’expérimentation vont de pair et sont interdépendantes. Toute expérience comporte une part de « bruit » et il faut donc s’attendre à des erreurs. Avec le temps, cela a donné lieu à plusieurs polémiques. L’une des plus célèbres a été suscitée par l’expérience de la goutte d’huile de Millikan pour déterminer la charge de l’électron [l’analyse a posteriori des notes du scientifique a mis en lumière un usage sélectif des données d’expérimentation]. Si les résultats sont trop parfaits et ne présentent pas un minimum de bruit et d’exceptions, on peut soupçonner un biais de confirmation, ajouté par le scientifique pour trier les données comme il l’entend.

5. Lors des réunions dans les grandes organisations, la tendance est aux décisions unanimes. Par exemple, un comité chargé d’évaluer les indicateurs clés de performance poursuit souvent le débat jusqu’à ce que tout le monde soit du même avis. La leçon à retenir, c’est qu’il faut se réjouir des voix discordantes, accepter les divergences d’opinions et se contenter d’en prendre note.

C’est un point plutôt positif, qui réduit le risque d’une erreur systémique.

6. Eugene Wigner [lauréat avec Maria Goeppert-Mayer et Hans Daniel Jensen du prix Nobel de physique en 1963 pour leurs travaux sur la structure du noyau atomique] a forgé l’expression « efficacité déraisonnable des mathématiques » pour décrire son impression étrange que les mathématiques sont trop parfaites pour s’appliquer aux théories physiques. Aujourd’hui, les machines n’utilisent plus de belles équations, mais des formules empiriques intégrées à des outils logiciels de simulation.

Les mathématiques analytiques n’étaient pas une méthode parfaite pour résoudre tous les types de problèmes. Pourquoi s’est-on laissé séduire par l’idée que les maths étaient déraisonnablement efficaces » ?

C’est le biais systémique de confirmation dû au fait que pour chaque grand article scientifique présentant une formule élégante, de nombreuses formules rejetées n’ont jamais été publiées.

Les mathématiques que nous connaissons aujourd’hui ont été triées sur le volet.

Source Phys.org.

Voir aussi

Le cours ECR, école de l'unanimisme politiquement correct

Les enfants non religieux sont-ils vraiment plus altruistes ?

Supplément ECR pour contrer l'unanimisme du prêt-à-penser écologiste des manuels

Affaire Michaud: 51 députés péquistes reconnaissent avoir eu tort (voir aussi ce livre qui y est consacré)

Comment Pauline Marois modifie une constitution... et une charte (à l’unanimité et à toute vapeur, malgré des promesses contraires faites au préalable)