
La radiologie est un domaine qui semble optimisé pour être remplacé par des machines : tout y est numérique, basé sur la reconnaissance de motifs et mesurable par des critères clairs. En 2016, Geoffrey Hinton — informaticien et prix Turing — avait même déclaré : « il faut arrêter de former des radiologues ». Si les prévisions les plus extrêmes sur l’impact de l’IA sur l’emploi étaient exactes, la radiologie devrait être le « canari dans la mine » annonçant la révolution à venir.
Depuis 2017, des modèles comme CheXNet ou ceux de sociétés telles qu’Annalise.ai, Lunit, Aidoc et Qure.ai montrent des performances impressionnantes : détection de pneumonies, cancers, AVC, réorganisation des priorités, voire production de brouillons de rapports intégrés aux systèmes hospitaliers. Plus de 700 modèles sont approuvés par la FDA, soit plus des trois quarts des outils d’IA médicale homologués. Pourtant, près de dix ans plus tard, la profession non seulement perdure mais connaît une demande croissante, avec des salaires moyens dépassant les 350 000 $ US par an aux États-Unis et une forte pénurie de praticiens.
Alors pourquoi l’IA ne remplace-t-elle pas encore les radiologues ? Trois explications dominent. D’abord, l’écart entre laboratoire et hôpital. Les modèles brillent aux tests standardisés, mais leur performance chute en conditions réelles, lorsqu’ils sont évalués « hors échantillon », c’est-à-dire sur des données provenant d’un autre hôpital ou d’une autre population que celles utilisées pour l’entraînement. Par exemple, un modèle entraîné à détecter la pneumonie dans un seul centre médical peut échouer ailleurs, car les machines d’imagerie, la qualité des clichés ou les profils des patients diffèrent. Les modèles sont souvent testés sur des données « propres », non ambiguës et homogènes, mais rencontrent beaucoup plus de difficultés face aux images imparfaites, floues, mal orientées ou issues de populations diverses. Une étude japonaise récente a montré que l’IA générative atteint des performances comparables à celles de médecins non spécialistes, mais reste environ 16 % derrière les experts. Cela souligne que l’IA peut être utile comme outil d’assistance, mais qu’elle ne peut pas se substituer (pour l'instant) à l’œil humain le plus aguerri.
Deuxième obstacle : le cadre réglementaire et assurantiel. La FDA impose des règles beaucoup plus strictes aux modèles autonomes qu’aux modèles assistifs (qui exigent toujours la validation d’un médecin). Même lorsqu’un outil est validé, les compagnies d’assurance refusent souvent de couvrir les diagnostics générés sans supervision humaine : certaines polices portent même la mention « Absolute AI Exclusion ». En pratique, cela rend indispensable la présence du radiologue pour signer le rapport. Tant que la responsabilité médicale repose sur l’humain, la supervision d’un radiologue reste indispensable. Les questions de confidentialité et de confiance publique sont également cruciales, comme l’a montré la controverse au Royaume-Uni autour du projet Foresight du NHS, qui reposait sur l’analyse de 57 millions de dossiers patients. Même si les données étaient « désidentifiées », le risque de ré-identification inquiète.
Troisième frein : le travail du radiologue ne se limite pas à « lire » des images. En moyenne, seule une minorité (environ 1/3) de leur temps est consacrée au diagnostic. Le reste est pris par la supervision des examens, la communication avec les médecins traitants et parfois les patients, l’enseignement, et l’adaptation des protocoles. L’IA ne peut pas, pour l’instant, se substituer à cet ensemble de tâches.
L’expérience passée illustre bien ces limites : dans les années 2000, les premiers systèmes d’aide au dépistage du cancer du sein avaient été adoptés massivement (Medicare remboursait leur usage). Résultat : plus de biopsies, mais aucune amélioration des détections. Pire : des études ont montré que les médecins, lorsqu’ils voyaient les « prompts » de l’IA, avaient tendance à trop s’y fier et à rater davantage de cancers quand la machine se trompait.
Même si les modèles deviennent plus performants et plus rapides, un autre paradoxe se dessine : au lieu de réduire le travail, ils risquent de l’augmenter. Dans les années 2000 déjà, la numérisation des images a fait chuter le temps de lecture, mais aussi bondir le volume d’examens réalisés. Quand les scans deviennent plus accessibles et moins coûteux en temps, la demande croît — c’est l’« effet rebond » ou paradoxe de Jevons. Résultat : plus de scanners, plus d’IRM, et donc plus de travail global pour les radiologues.
En clair, l’IA en radiologie progresse vite mais bute encore sur trois réalités : la difficulté de reproduire en clinique ses scores de laboratoire, les lourdeurs réglementaires et assurantielles qui rendent un radiologue indispensable, et la multiplicité des tâches humaines non automatisables. Loin de disparaître, les radiologues sont plus demandés que jamais. Comme le montre ce « canari dans la mine », l’IA ne supprime pas d’emblée les métiers complexes : elle transforme surtout la nature du travail, et rend les spécialistes… encore plus occupés.
Depuis 2017, des modèles comme CheXNet ou ceux de sociétés telles qu’Annalise.ai, Lunit, Aidoc et Qure.ai montrent des performances impressionnantes : détection de pneumonies, cancers, AVC, réorganisation des priorités, voire production de brouillons de rapports intégrés aux systèmes hospitaliers. Plus de 700 modèles sont approuvés par la FDA, soit plus des trois quarts des outils d’IA médicale homologués. Pourtant, près de dix ans plus tard, la profession non seulement perdure mais connaît une demande croissante, avec des salaires moyens dépassant les 350 000 $ US par an aux États-Unis et une forte pénurie de praticiens.
Alors pourquoi l’IA ne remplace-t-elle pas encore les radiologues ? Trois explications dominent. D’abord, l’écart entre laboratoire et hôpital. Les modèles brillent aux tests standardisés, mais leur performance chute en conditions réelles, lorsqu’ils sont évalués « hors échantillon », c’est-à-dire sur des données provenant d’un autre hôpital ou d’une autre population que celles utilisées pour l’entraînement. Par exemple, un modèle entraîné à détecter la pneumonie dans un seul centre médical peut échouer ailleurs, car les machines d’imagerie, la qualité des clichés ou les profils des patients diffèrent. Les modèles sont souvent testés sur des données « propres », non ambiguës et homogènes, mais rencontrent beaucoup plus de difficultés face aux images imparfaites, floues, mal orientées ou issues de populations diverses. Une étude japonaise récente a montré que l’IA générative atteint des performances comparables à celles de médecins non spécialistes, mais reste environ 16 % derrière les experts. Cela souligne que l’IA peut être utile comme outil d’assistance, mais qu’elle ne peut pas se substituer (pour l'instant) à l’œil humain le plus aguerri.
Deuxième obstacle : le cadre réglementaire et assurantiel. La FDA impose des règles beaucoup plus strictes aux modèles autonomes qu’aux modèles assistifs (qui exigent toujours la validation d’un médecin). Même lorsqu’un outil est validé, les compagnies d’assurance refusent souvent de couvrir les diagnostics générés sans supervision humaine : certaines polices portent même la mention « Absolute AI Exclusion ». En pratique, cela rend indispensable la présence du radiologue pour signer le rapport. Tant que la responsabilité médicale repose sur l’humain, la supervision d’un radiologue reste indispensable. Les questions de confidentialité et de confiance publique sont également cruciales, comme l’a montré la controverse au Royaume-Uni autour du projet Foresight du NHS, qui reposait sur l’analyse de 57 millions de dossiers patients. Même si les données étaient « désidentifiées », le risque de ré-identification inquiète.
Troisième frein : le travail du radiologue ne se limite pas à « lire » des images. En moyenne, seule une minorité (environ 1/3) de leur temps est consacrée au diagnostic. Le reste est pris par la supervision des examens, la communication avec les médecins traitants et parfois les patients, l’enseignement, et l’adaptation des protocoles. L’IA ne peut pas, pour l’instant, se substituer à cet ensemble de tâches.
L’expérience passée illustre bien ces limites : dans les années 2000, les premiers systèmes d’aide au dépistage du cancer du sein avaient été adoptés massivement (Medicare remboursait leur usage). Résultat : plus de biopsies, mais aucune amélioration des détections. Pire : des études ont montré que les médecins, lorsqu’ils voyaient les « prompts » de l’IA, avaient tendance à trop s’y fier et à rater davantage de cancers quand la machine se trompait.
Même si les modèles deviennent plus performants et plus rapides, un autre paradoxe se dessine : au lieu de réduire le travail, ils risquent de l’augmenter. Dans les années 2000 déjà, la numérisation des images a fait chuter le temps de lecture, mais aussi bondir le volume d’examens réalisés. Quand les scans deviennent plus accessibles et moins coûteux en temps, la demande croît — c’est l’« effet rebond » ou paradoxe de Jevons. Résultat : plus de scanners, plus d’IRM, et donc plus de travail global pour les radiologues.
En clair, l’IA en radiologie progresse vite mais bute encore sur trois réalités : la difficulté de reproduire en clinique ses scores de laboratoire, les lourdeurs réglementaires et assurantielles qui rendent un radiologue indispensable, et la multiplicité des tâches humaines non automatisables. Loin de disparaître, les radiologues sont plus demandés que jamais. Comme le montre ce « canari dans la mine », l’IA ne supprime pas d’emblée les métiers complexes : elle transforme surtout la nature du travail, et rend les spécialistes… encore plus occupés.
Aucun commentaire:
Enregistrer un commentaire