Quand la FDA libère et que l'Europe régule.
Et si c'était vous, le crash test ?
Je ne sais pas si vous avez suivi l’actualité du CES de Las Vegas début janvier. Moi, j’avoue, je m’y intéresse surtout pour les robots aspirateurs et les frigos qui commandent le lait tout seuls. Parfaitement inutiles… donc indispensables !
Mais cette année, entre deux démonstrations de téléviseurs enroulables, il s’est passé quelque chose de… surprenant.
Le 6 janvier 2026, le Dr Marty Makary, tout nouveau commissaire de la FDA, est monté sur scène. Costume sombre, ton décontracté, slides épurées. Et là, devant un parterre de startuppers et d’investisseurs en capital-risque, il a lâché une phrase qui m’a fait reposer mon café.
La FDA, a-t-il expliqué, doit désormais fonctionner « à la vitesse de la Silicon Valley » [1].
Attendez. La FDA. L’agence qui met parfois dix ans à approuver un médicament. Celle qui a inventé le principe de précaution avant que les Européens n’en fassent un art de vivre. Cette FDA-là veut sprinter comme une startup ?
J’ai d’abord cru à une figure de style. Un effet d’annonce pour faire plaisir à l’audience tech.
Et puis j’ai lu les documents publiés le même jour. Et j’ai compris que non, ce n’était pas du storytelling. C’était un virage à 180 degrés.
Ce qui a vraiment changé (et pourquoi c’est énorme)
Bon, je vous fais la version courte, parce que les textes réglementaires de la FDA ont la densité narrative d'une notice de micro-ondes traduite du coréen.
Jusqu’à présent, si vous développiez un logiciel qui dit à un médecin « prescris tel antibiotique pour cette infection », vous deviez passer par tout le processus d’approbation des dispositifs médicaux. Parce que la FDA considérait que donner une recommandation unique, c’était potentiellement dangereux [2]. Le médecin pourrait suivre aveuglément. Biais d’automatisation, tout ça.
La nouvelle doctrine dit l’inverse. Si le médecin peut comprendre pourquoi le logiciel fait cette recommandation, si la logique est transparente, alors ce n’est plus un dispositif médical. C’est juste… de l’information [3].
Vous voyez le glissement ?
Avant : « On protège le médecin contre lui-même. »
Maintenant : « Le médecin est un grand garçon, il saura faire le tri. »
Et pour les montres connectées qui mesurent votre tension ou votre glycémie ? Même logique. Tant qu’elles ne prétendent pas être « de grade médical », elles peuvent se vendre sans passer par la case régulation [4]. Le marché triera le bon grain de l’ivraie.
« Le gouvernement n’a pas besoin de tout réguler. Nous devons nous écarter là où la surveillance n’est pas justifiée. »
Dr Marty Makary, Commissaire de la FDA [5]
Quand j'ai lu ça, j'ai pensé à ma voisine qui, un soir de palpitations, a consulté l'ECG de son Apple Watch avant d'appeler le 15. L'écran affichait "rythme sinusal normal". Elle s'est recouchée. Est-ce que c'est vraiment une bonne idée de laisser le marché décider si sa montre sait lire une fibrillation auriculaire ?
Pendant ce temps, de l’autre côté de l’Atlantique…
Dix jours après le show de Las Vegas, le 14 janvier, l’Agence européenne des médicaments publiait, conjointement avec… la FDA (oui, la même), dix principes directeurs pour l’IA dans le développement pharmaceutique [6].
Alors là, je me suis dit : attends, ils viennent de dire qu’ils dérégulaient, et maintenant ils co-signent des principes de bonne conduite avec les Européens ?
En fait, c’est plus subtil que ça.
Les dix principes parlent de « conception centrée sur l’humain », de « surveillance continue », de « gouvernance des données » [7]. Des mots que l’Europe adore. Des mots qui, aux États-Unis, sonnent souvent comme des freins à l’innovation.
Mais voilà…ces principes sont des recommandations. Pas des obligations. La FDA les co-signe, les applaudit, et pendant ce temps, elle dérégule son marché intérieur.
L’Europe, elle, fait exactement l’inverse. L’EU AI Act, entré en vigueur en août 2025, classe la plupart des IA médicales dans la catégorie « haut risque » [8]. Documentation technique obligatoire. Gestion des risques. Supervision humaine. Transparence. Tout ça avant de mettre un pied sur le marché.
Vous voyez le paradoxe ?
Les deux agences signent ensemble un texte disant « soyons prudents avec l’IA ». Et le lendemain, l’une ouvre les vannes pendant que l’autre construit des digues.
Le biais d’automatisation: késako?
Je voudrais m’arrêter une seconde sur ce fameux « biais d’automatisation » dont parle la FDA.
C’est un phénomène bien documenté et un peu flippant, je vous préviens.
En gros, quand un logiciel nous donne une recommandation, notre cerveau a tendance à la suivre. Même si on est expert. Même si on sait que la machine peut se tromper. Il y a quelque chose dans l’autorité d’une machine, dans la précision apparente des chiffres, qui court-circuite notre esprit critique.
Des études en aviation ont montré que des pilotes chevronnés pouvaient ignorer des signaux d’alerte évidents parce que l’ordinateur de bord leur disait que tout allait bien [9]. En médecine, c’est pareil. Un radiologue qui voit l’IA valider une image aura tendance à moins chercher l’anomalie. C’est exactement le mécanisme que j’ai décrit dans l’effet Google Maps en médecine.
La position américaine, maintenant, c’est de dire : « Si le médecin peut voir la logique derrière la recommandation, il saura résister au biais. »
C’est… optimiste, disons.
Parce que la vraie question, c’est : qui a le temps ? Un urgentiste qui enchaîne les patients, un généraliste débordé, un radiologue qui doit lire 100 scanners par jour, ils vont vraiment prendre le temps de vérifier la logique de chaque recommandation ?
Et cette question du temps se double d’une autre, plus insidieuse : celle de la dépendance cognitive. Plus on délègue, moins on sait faire sans. Le cerveau, économe par nature, désapprend ce qu’il n’utilise plus.
Je n’ai pas la réponse. Mais je trouve que la question mérite d’être posée avant de déréglementer.
Le cas britannique : et si la solution était au milieu ?
J’aime bien regarder ce que font les Britanniques. Post-Brexit, ils n’ont plus à suivre ni les Américains ni les Européens. Ils peuvent inventer leur propre chemin.
Et ce qu’ils font est plutôt malin.
En février 2025, le NICE (leur équivalent de la HAS) a validé quatre outils d’IA pour détecter les fractures sur les radiographies : TechCare Alert, BoneView, Rayvolve et RBfracture [10]. Ces logiciels peuvent maintenant être utilisés dans le NHS.
Mais. C’est une validation conditionnelle. Une « Early Value Assessment ». En clair : « On pense que ça marche, on vous laisse l’utiliser, mais vous allez nous générer des données pendant trois ans pour qu’on vérifie » [11].
Pourquoi cette prudence ? Parce que les chiffres font réfléchir :
Les fractures manquées aux urgences, c’est entre 3 % et 10 % des cas [12]. Ça représente jusqu’à 80 % des erreurs diagnostiques dans les services d’urgence [13].
Le NHS dépense plus d’un million de livres par an en compensations liées à ces erreurs [14].
L’IA peut améliorer la sensibilité de 8,7 % et réduire le temps de lecture de 15 % [15]. Pour environ 1 livre sterling par scan analysé [16].
Sur le papier, c’est une évidence. Mais les Britanniques disent : « Prouvez-le en conditions réelles avant qu’on généralise. »
Ni la foi aveugle américaine dans le marché, ni la lenteur parfois paralysante des procédures européennes. Un entre-deux pragmatique.
Ce que ça change pour vous (et pour moi)
Je suis biologiste médical en France. Quand je vois ces évolutions, je me pose des questions très concrètes.
Le logiciel américain qui aide à interpréter mes résultats d’hématologie, celui que j’aurais peut-être voulu tester, il ne sera probablement jamais disponible ici. Pas avant des années de procédures, en tout cas.
En même temps, est-ce que je voudrais utiliser un outil qui n’a pas été validé cliniquement, juste parce qu’une startup de San Francisco promet qu’il est génial ?
Honnêtement, je ne sais pas.
Ce que je sais, c’est que mes collègues américains utilisent déjà ces outils. 66 % des médecins américains ont utilisé l’IA en 2024, contre 38 % l’année précédente [17]. C’est une adoption fulgurante, que je documentais récemment. Est-ce qu’ils font des erreurs ? Est-ce qu’ils détectent des choses qu’on rate ? On n’a pas encore assez de recul pour le dire.
Et c’est peut-être ça, le cœur du problème. Les Américains construisent le recul en temps réel, avec leurs patients. Les Européens veulent le recul avant de commencer.
Les deux approches ont leur logique. Les deux ont leurs angles morts.
La question que tout le monde évite:
Il y a un éléphant dans la pièce dont on parle peu : la responsabilité juridique.
Imaginons. Un logiciel d’aide à la décision recommande un traitement. Le médecin suit la recommandation. Le patient fait une complication grave. Qui est responsable ?
Aux États-Unis, avec la nouvelle doctrine Makary, la réponse est assez claire : le médecin. Il avait accès aux données, il pouvait vérifier, il a choisi de suivre. La machine n’est qu’un outil, comme un stéthoscope ou un manuel de médecine [18].
En Europe, l’EU AI Act établit une responsabilité partagée [19]. Le fabricant doit prouver que son système est fiable. L’hôpital doit s’assurer qu’il est utilisé correctement. Le médecin reste responsable de sa décision finale, mais dans un cadre où les garde-fous ont été validés en amont.
Vous voyez la différence ?
D’un côté : « Médecin, tu es seul responsable. Bonne chance. »
De l’autre : « On partage le risque, mais on partage aussi la lourdeur administrative. »
Je ne sais pas quelle approche est la meilleure. Ce que je sais, c’est que si je devais être jugé pour une erreur liée à une recommandation d’IA, je préférerais que quelqu’un ait vérifié que l’IA était fiable avant que je l’utilise.
Mais peut-être que c’est juste ma culture européenne qui parle.
On retrouve ici le même enjeu que celui que je soulevais à propos de la sycophantie des modèles de langage : quand l’IA dit au médecin ce qu’il veut entendre plutôt que ce qui est juste, la transparence de la logique ne protège de rien si le médecin n’a pas été formé à challenger la machine.
Les chiffres qui donnent le vertige
Parce qu’au fond, derrière ces débats philosophiques, il y a des enjeux économiques colossaux.
Le marché mondial de l’IA en santé pesait 26,69 milliards de dollars en 2024 [20]. Les projections pour 2034 ? 613,81 milliards [21]. Une croissance annuelle de près de 37 %.
Aux États-Unis, le retour sur investissement moyen est de 3,20 dollars pour chaque dollar investi dans l’IA en santé [22]. Retour réalisé en moyenne en 14 mois.
Vous comprenez pourquoi la FDA veut accélérer ?
Ce n’est pas (seulement) une question de santé publique. C’est une course économique. Et les Américains n’ont pas l’intention de la perdre.
L’Europe, elle, parie sur autre chose. Sur le fait que la confiance, ça se construit avec des preuves. Que les patients européens préféreront des outils certifiés, même s’ils arrivent plus tard. Que la qualité finira par l’emporter sur la vitesse.
C’est un pari. Comme celui des Américains. On saura dans dix ans qui avait raison.
Ce que j’en retiens (provisoirement)
Je termine souvent mes articles en essayant de dégager une morale. Là, honnêtement, je sèche un peu.
D’un côté, je comprends l’argument américain. Les médecins sont des professionnels. Les sur-réguler, c’est les infantiliser. Et pendant qu’on régule, des patients qui auraient pu bénéficier d’innovations attendent.
De l’autre, je comprends l’argument européen. L’IA médicale, ce n’est pas comme une app de livraison de pizza. Les conséquences d’une erreur peuvent être irréversibles. Demander des preuves avant de déployer, ce n’est pas de la bureaucratie, c’est du bon sens.
Et puis il y a l’approche britannique, ce « on vous laisse essayer mais on surveille », qui a le mérite du pragmatisme.
Ce qui me frappe, c’est que les trois approches partent du même constat : l’IA va transformer la médecine, et vite. La question n’est plus « faut-il l’adopter ? » mais « comment l’adopter sans faire n’importe quoi ? »
Les Américains répondent : « Faisons confiance au terrain. »
Les Européens répondent : « Faisons confiance aux preuves. »
Les Britanniques répondent : « Faisons les deux en même temps. »
Et nous, médecins et soignants, on fait quoi en attendant ?
On reste curieux. On reste critiques. On regarde ce qui marche et ce qui ne marche pas. On partage nos retours d’expérience.
Et on garde en tête que derrière ces grands débats transatlantiques, il y a des patients. Des vrais. Qui ne choisissent pas de quel côté de l’océan ils tombent malades.
C’est pour eux, au fond, qu’il faudra trouver le bon équilibre. Entre l’enthousiasme de la Silicon Valley et la prudence de Bruxelles. Entre la vitesse et la preuve.
On n’y est pas encore. Mais au moins, maintenant, on sait où sont les lignes de front.
Bibliographie
[1] STAT News. “FDA announces sweeping changes to oversight of wearables, AI-enabled devices“. STAT News. 6 janvier 2026.
[2] Covington & Burling LLP. “5 key takeaways from FDA’s revised clinical decision support (CDS) software guidance“. Covington. Janvier 2026.
[3] The FDA Law Blog. “A busy day in the (CDRH) neighborhood: updates to the CDS and general wellness guidance documents“. The FDA Law Blog. Janvier 2026.
[4] MedTech Dive. “FDA exempts more wearable, AI features from oversight“. MedTech Dive. 8 janvier 2026.
[5] OncoDaily. “What the FDA’s new guidance signals: regulatory restraint in the AI era“. OncoDaily. Janvier 2026.
[6] EMA. “EMA and FDA set common principles for AI in medicine development“. Agence européenne des médicaments. 14 janvier 2026.
[7] FDA. “Guiding principles of good AI practice in drug development“. FDA. 14 janvier 2026.
[8] Nature Digital Medicine. “Navigating the EU AI Act: implications for regulated digital medical products“. npj Digital Medicine. Septembre 2024.
[9] Cooley LLP. “Automation bias and clinical practice: FDA makes incremental updates to clinical decision support software guidance“. Cooley. Janvier 2026.
[10] NICE. “AI technologies recommended for use in detecting fractures“. NICE. Février 2025.
[11] Health AI Register. “UK recommends four AI products for fracture detection“. Health AI Register. 10 février 2025.
[12] Radiology. “Artificial intelligence in fracture detection: a systematic review and meta-analysis“. Radiology. 2022.
[13] Radiology. “Assessment of an AI aid in detection of adult appendicular skeletal fractures by emergency physicians and radiologists“. Radiology. 2021.
[14] Digital Health News. “UK explores AI-driven personalized health assessments for aging population“. Digital Health News. 2025.
[15] Radiology. “Assessment of an AI aid in detection of adult appendicular skeletal fractures“. Radiology. 2021.
[16] AI News. “NHS revolutionizes bone fracture detection with AI-powered X-ray tools“. AI News. Octobre 2024.
[17] DemandSage. “AI in healthcare statistics (2025), adoption & market size“. DemandSage. Décembre 2025.
[18] Fierce Healthcare. “FDA paves way for more consumer wearables to hit the market“. Fierce Healthcare. Janvier 2026.
[19] White & Case LLP. “New EU responsibility and liability landscape for smart medical devices in a global context“. White & Case. 2025.
[20] Precedence Research. “Artificial intelligence in healthcare market size to hit USD 613.81 billion by 2034“. Precedence Research. Août 2025.
[21] Precedence Research. “Artificial intelligence in healthcare market size to hit USD 613.81 billion by 2034“. Precedence Research. Août 2025.
[22] DemandSage. “AI in healthcare statistics (2025), adoption & market size“. DemandSage. Décembre 2025.


