The Promise, and Limits, of AI in Medicine
Par Bruce Schneier (technologue en sécurité), Dr Leana Wen (médecin urgentiste, ancienne commissaire à la santé de Baltimore) - 30 min - TEDMED Conversations - 📅 13 janvier 2026
Chaque semaine, je décrypte une conférence ou un podcast d’experts reconnus de l’IA en santé.
« L’IA n’est peut-être qu’un piètre substitut au médecin, mais c’est un excellent substitut à l’absence de médecin. »
— Bruce Schneier, technologue en sécurité et auteur
🎯 De quoi ça parle
Un expert en sécurité informatique et une médecin urgentiste dissèquent les usages actuels de l’IA en médecine. Leur constat : l’IA est déjà partout dans les soins, souvent à l’insu des patients. La vraie question n’est plus « faut-il l’utiliser ? » mais « comment l’encadrer pour qu’elle serve les patients plutôt que les seuls intérêts économiques ? »
📌 Les 3 points clés
1. L’IA prédictive sauve déjà des vies, l’IA générative reste à prouver
Il faut distinguer deux types d’IA en médecine. L’IA prédictive — celle qui analyse des données pour identifier des anomalies — a des cas d’usage solides : détection de lésions sur mammographies, identification de patients à risque d’aggravation en soins intensifs, diagnostic de tuberculose dans les pays à ressources limitées. L’IA générative (les chatbots), elle, n’est pas encore fiable pour le triage ou le diagnostic. Le Dr Wen est catégorique : « Je ne veux pas que les patients remplacent dès maintenant leurs interactions avec leurs médecins par l’IA générative. »
2. Les jeunes cliniciens utilisent l’IA à 100 % et cela change tout
Selon les témoignages recueillis par le Dr Wen, 100 % des étudiants en médecine et internes utilisent déjà l’IA au quotidien : rédaction de notes, interprétation de résultats, recherche d’informations cliniques. Ce qui prenait 10 minutes de lecture d’articles se fait désormais en quelques secondes. La conclusion est brutale : les cliniciens qui savent utiliser l’IA vont remplacer ceux qui ne le font pas. Et une nouvelle catégorie de soignants pourrait émerger — formés en 3 ans au lieu de 12, mais armés d’outils d’IA sophistiqués.
3. La transparence ne suffit pas: il faut surveillance et responsabilité
Bruce Schneier, fort de son expertise en sécurité, pose un cadre clair : pour qu’une IA soit digne de confiance, trois éléments sont indispensables. La transparence d’abord (comment l’algorithme a-t-il été entraîné ? sur quelles données ?). La surveillance ensuite (qui vérifie que le système fonctionne comme prévu ?). La responsabilité enfin (qui est comptable des erreurs ?). Sans ces deux derniers piliers, « nous ne faisons que savoir des choses » — ce qui ne protège personne.
💬 Mon regard de praticien
Cette conversation met le doigt sur un angle mort du débat français : nous discutons encore du « pour ou contre l’IA » alors que la vraie bataille se joue sur le « comment ». L’exemple des compagnies d’assurance américaines utilisant l’IA pour refuser des demandes pendant que les médecins utilisent l’IA pour les rédiger, illustre parfaitement les rapports de force à surveiller. En France, la question se posera différemment (Assurance Maladie, tarification à l’activité), mais le risque est le même : que les gains de productivité profitent aux structures plutôt qu’aux soignants et aux patients. Le triptyque transparence-surveillance-responsabilité de Schneier devrait être gravé au fronton de tout projet d’IA en santé.
Voir la conférence complète (⚠️ Video en anglais)

