Comment le cerveau humain se compare-t-il aux intelligences artificielles actuelles ?
Par Stanislas Dehaene (neuroscientifique, Collège de France) — 35 min — Colloque de rentrée 2025 du Collège de France
Chaque semaine, je décrypte une conférence ou un podcast d’experts reconnus de l’IA en santé. Des contenus sélectionnés pour la pertinence des sujets abordés et la qualité des intervenants: chercheurs, praticiens, décideurs, qui font autorité dans leur domaine.
« Les réseaux de neurones les plus avancés ne sont toujours pas capables de reconnaître un dessin d’enfant de 3 ans représentant un canard. »
— Stanislas Dehaene, neuroscientifique, Collège de France
🎯 De quoi ça parle
Stanislas Dehaene, professeur au Collège de France et spécialiste des sciences cognitives, dresse un bilan lucide des capacités comparées du cerveau humain et de l’IA. Si les réseaux de neurones modélisent correctement les premières étapes de la vision et certains aspects du langage, le cerveau conserve des avantages décisifs : apprentissage à partir de très peu d’exemples, représentation symbolique des connaissances, et sens inné de la géométrie et des mathématiques.
📌 Les 3 points clés
Le cerveau n’est pas une ardoise vierge et c’est un avantage décisif
Contrairement aux réseaux de neurones qui partent de zéro, le cerveau humain hérite de centaines de millions d’années d’évolution. Dès la naissance, les circuits spécialisés pour le langage, les nombres ou l’espace sont déjà en place. Un bébé de quelques mois calcule déjà des probabilités et détecte des violations arithmétiques, des compétences que l’IA n’acquiert qu’après un entraînement massif sur des milliards d’exemples.
« Le bébé a déjà un cerveau extrêmement plissé, avec des régions cérébrales spécialisées et des connexions à longue distance grosso modo dès la naissance. »
Les humains possèdent un « langage de la géométrie » absent chez l’IA
Les expériences de Dehaene montrent que les humains détectent instantanément les régularités géométriques (angles droits, parallèles, symétries) , une capacité que les babouins n’ont pas et que les réseaux de neurones à convolution classiques échouent à reproduire. Ce traitement symbolique des formes, présent dès l’âge préscolaire, nécessite un modèle cognitif différent de celui des réseaux actuels : un modèle où l’information est discrétisée (« il y a un angle droit ou il n’y en a pas »).
L’IA échoue sur des tâches visuelles et spatiales élémentaires
Malgré des performances impressionnantes en langage, ChatGPT-4 et même GPT-5 échouent massivement sur des problèmes de géométrie simple : tracer trois droites tangentes à un cercle, identifier une vue d’en haut d’un objet, ou distinguer une vraie illusion d’optique d’une image normale. Ces échecs révèlent que l’IA « parle » de ce qu’elle voit sans réellement « voir » — elle n’a pas accès à la structure mathématique sous-jacente des images.
💬 Mon regard de praticien
Cette conférence offre un contrepoids bienvenu à l’euphorie actuelle autour de l’IA. En médecine, nous utilisons quotidiennement notre « sens géométrique » pour interpréter des images (courbes biologiques, morphologies cellulaires, tracés ECG). Les limites décrites par Dehaene: incapacité à abstraire, à généraliser à partir de peu d’exemples, expliquent pourquoi l’IA médicale reste fragile face aux cas atypiques. Le chiffre qui me frappe : 20 watts pour le cerveau humain, contre des mégawatts pour les data centers. L’efficience énergétique du biologique reste un horizon lointain pour le silicium.

