L'effet Google Maps en médecine :
Il y a quelques mois, je me dirigeais vers un rendez-vous important. Confiant, je suivais religieusement les indications de mon GPS. Soudain, l’écran s’est éteint. Batterie à plat.
Je me suis retrouvé au milieu de nulle part, incapable de me rappeler le nom de la rue que j’avais empruntée cinq minutes plus tôt. Cette sensation de vide mental, cette soudaine incompétence, m’a déstabilisé. Mon cerveau avait délégué. Il avait optimisé. Et, au moment où la béquille disparaissait, il ne savait plus marcher.
Et c’est beaucoup plus grave que mon anecdote de GPS.
Une découverte que personne n’attendait
Comment mesurer l’apport réel de l’intelligence artificielle en endoscopie ? C’est la question que se sont posée des chercheurs polonais en équipant quatre centres médicaux d’un système d’aide à la détection des polypes [1]. L’outil promettait d’augmenter les performances des gastro-entérologues dans le dépistage du cancer colorectal. Noble mission.
Le protocole semblait parfait : trois mois avec l’IA, trois mois sans. Une alternance censée mesurer l’apport de la technologie.
Mais l’étude multicentrique publiée dans The Lancet Gastroenterology & Hepatology le 12 août 2025 a révélé quelque chose que personne ne cherchait [1].
Quand les médecins ont dû retravailler sans leur assistant artificiel, leurs performances avaient chuté. De 28,4 % de détection d’adénomes avant l’IA, ils sont tombés à 22,4 % après avoir goûté à la technologie [1].
Relisez cette phrase.
Ces médecins expérimentés, plus de 2 000 coloscopies chacun au compteur, étaient devenus moins bons qu’avant.
« Ces résultats tempèrent l’enthousiasme actuel pour l’adoption rapide des technologies basées sur l’IA et soulignent l’importance de considérer attentivement les conséquences cliniques non intentionnelles. »
Dr Omer Ahmad, University College London, The Lancet Gastroenterology & Hepatology
Parallèlement, au MIT, des chercheurs ont observé un phénomène similaire dans un tout autre domaine. En mesurant l’activité cérébrale d’étudiants rédigeant des dissertations, Nataliya Kosmyna et son équipe ont mis en évidence ce qu’ils appellent la « dette cognitive » [2]. Les étudiants utilisant ChatGPT présentaient une connectivité neuronale réduite de 55 % par rapport à ceux qui écrivaient seuls. Leurs écrits devenaient plus formatés, moins originaux. Et quand on leur retirait l’assistant, ils sous-performaient, incapables de citer une seule phrase de leur propre texte.
Deux études. Deux domaines. Une même conclusion : l’intelligence artificielle, censée nous augmenter, pourrait nous diminuer.
Le piège cognitif
Ce qui se joue ici porte un nom en psychologie cognitive : le biais d’automatisation. Plus un système nous aide, moins nous restons vigilants. Plus nous lui faisons confiance, moins nous faisons confiance à nous-mêmes.
Mon GPS en est l’illustration triviale. L’IA en endoscopie, la version clinique. Le mécanisme, lui, suit une spirale implacable :
Délégation cognitive. L’humain transfère progressivement sa charge mentale vers le système.
Réduction de l’attention. Moins de vigilance, car « la machine surveille ».
Perte de compétences. Les circuits neuronaux non sollicités s’affaiblissent.
Dépendance. Difficulté croissante à fonctionner sans l’assistance.
La question devient alors préoccupante : si des médecins chevronnés perdent leurs réflexes en quelques mois, que se passe-t-il pour les internes ? Pour ces futurs docteurs qui apprennent directement avec l’IA ? Développeront-ils jamais cette intuition viscérale, cette capacité à « sentir » une anomalie que possèdent leurs aînés ?
En Suisse, des radiologues qui utilisent l’IA pour analyser les mammographies témoignent déjà de cette tension. Ils décrivent l’algorithme comme un « second avis » rassurant, un compagnon de travail. Mais la Dr Simona Artemisia, de la Clinique La Source, prévient : les radiologues en formation qui manquent d’expérience risquent de trop s’appuyer sur l’IA, au détriment de leur propre apprentissage [3].
« Je pense que s’ils manquent de pratique et d’expérience, les radiologues en formation risquent de trop s’appuyer sur l’intelligence artificielle. Ce faisant, ils pourraient manquer de faire leurs propres observations, qui sont la base de l’apprentissage. »
Dr Simona Artemisia, Radiologue, Clinique La Source [3]
L’industrie qui a déjà vécu ça
Heureusement, d’autres ont défriché ce terrain avant nous. L’aviation.
Dans les années 90, les pilotes de ligne vivaient le même dilemme. Les avions devenaient de plus en plus automatisés. Et les compétences, les réflexes s’émoussaient à cause de l’automatisation. En cas de panne système, la sécurité des vols pouvait être compromise.
L’industrie a réagi. Aujourd’hui, tout pilote doit effectuer des heures de vol manuel obligatoires. Des formations spécifiques enseignent la collaboration homme-machine. Le Crew Resource Management est devenu une discipline à part entière.
L’enseignement est clair : la technologie doit augmenter l’humain, pas le remplacer. Mais encore faut-il que l’humain continue de s’entraîner sans elle.
Le paradoxe de la confiance
Et puis il y a ce piège supplémentaire, celui du regard du patient. D’un côté, nous réclamons la modernité, nous voulons que nos médecins utilisent les dernières technologies. De l’autre, dès qu’un médecin fait appel à l’IA, une petite voix nous chuchote : « Il ne sait pas faire tout seul ? »
Le médecin se retrouve dans une position impossible : utiliser l’IA et risquer d’être perçu comme dépendant, ou s’en passer et priver son patient d’un diagnostic potentiellement plus précis. La compétence se joue autant sur la maîtrise apparente que sur la maîtrise réelle.
La leçon ? Il ne suffit pas d’être meilleur avec l’IA. Il faut maîtriser sans elle pour mériter la confiance avec elle.
Déléguer sans abdiquer
Alors, que faire ? Rejeter l’IA ? Impossible. Elle sauve des vies, détecte l’invisible, augmente notre précision. L’adopter aveuglément ? Dangereux. L’étude du Lancet nous l’a démontré.
La voie du milieu existe. Elle s’inspire de l’aviation, de la psychologie cognitive, du bon sens : décider consciemment de ce qu’on délègue, pratiquer régulièrement sans assistance pour maintenir vivace notre expertise intrinsèque, et former nos futurs médecins à la collaboration homme-machine, pas à la dépendance.
L’Organisation mondiale de la santé l’a compris. Ses directives insistent sur la nécessité de placer « l’éthique et les droits humains au cœur de la conception, du déploiement et de l’utilisation » de l’IA en santé [4] [5].
« À terme, les médecins adopteront l’IA et les algorithmes comme partenaires de travail. Ce nivellement du paysage des connaissances médicales conduira finalement à une nouvelle priorité : trouver et former des médecins qui ont le plus haut niveau d’intelligence émotionnelle. »
Dr Eric Topol, Cardiologue, directeur du Scripps Research Translational Institute, Deep Medicine^[6]
L’avenir que nous choisissons
Je repense à mon histoire de GPS. Mais aussi à quelque chose de plus fondamental : les numéros de téléphone.
Avant, je connaissais par cœur celui de mes parents, de mes frères, de mes meilleurs amis. Une vingtaine de numéros gravés dans ma mémoire. Aujourd’hui ? Je ne connais même plus celui de mes propres enfants.
L’autre jour, j’ai réalisé l’absurdité de la situation : si je perdais mon téléphone en urgence, je serais incapable d’appeler ma famille. Mes contacts les plus précieux, devenus inaccessibles.
J’ai pris une décision radicale : j’ai effacé de mon répertoire les numéros de mes parents et de mes enfants. Et je me suis forcé à les retenir par cœur.
C’est exactement ce que doit faire la médecine.
L’IA n’est ni notre salut ni notre perdition. Elle est un outil. Puissant, mais outil quand même. La vraie question n’est pas « L’IA va-t-elle remplacer les médecins ? ». La vraie question est : « Comment les médecins vont-ils rester maîtres de l’IA ? »
Car au final, face à la maladie, face à la souffrance, face à l’incertitude du vivant, c’est encore l’intelligence humaine qui fait la différence. Cette capacité unique à comprendre, à ressentir, à décider dans l’incertain.
L’IA peut nous augmenter. Elle ne doit jamais nous diminuer.
Et si cette recherche multicentrique nous enseigne quelque chose, c’est que cette vigilance commence dès aujourd’hui. Avant qu’il ne soit trop tard pour faire marche arrière.
Références
Budzyń, K. et al. “Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study“. The Lancet Gastroenterology & Hepatology. 12 août 2025.
Kosmyna, N. et al. “Your brain on ChatGPT: accumulation of cognitive debt when using an AI assistant for essay writing task“. MIT Media Lab, arXiv preprint. 2025.
Koller, R. “Comment les radiologues s’appuient sur l’IA pour analyser les mammographies“. ICTjournal. 24 avril 2024.
Organisation mondiale de la santé. “WHO releases AI ethics and governance guidance for large multi-modal models“. WHO. 18 janvier 2024.
Organisation mondiale de la santé. “WHO outlines considerations for regulation of artificial intelligence for health“. WHO. 19 octobre 2023.
Topol, E. Deep medicine: how artificial intelligence can make healthcare human again. Basic Books. 2019.



