Confession d’un cerveau en voie d’externalisation
quand l’IA pense à notre place
Je vais vous raconter une histoire qui m’a fait de la peine. Nous sommes en janvier 2026. Craig Guildford, chef de la police des West Midlands, l’une des plus grandes forces de l’ordre britanniques, annonce sa démission. L’homme a 32 ans de carrière derrière lui. Il ne part pas pour une affaire de corruption, ni pour un scandale de mœurs. Non. Il part parce qu’il a fait confiance à une intelligence artificielle qui lui a raconté n’importe quoi [1].
Pour justifier l’interdiction faite aux supporters israéliens de Maccabi Tel Aviv d’assister à un match contre Aston Villa, la police avait compilé un dossier de « renseignements ». Parmi les preuves : des incidents survenus lors d’un précédent match entre Maccabi et West Ham.
Sauf que ce match n’a jamais eu lieu.
Le « renseignement » était une pure invention de Microsoft Copilot, une hallucination présentée avec l’aplomb tranquille d’un fait vérifié [2].
Quand j’ai lu cette histoire, j’ai eu beaucoup d’empathie pour ce fonctionnaire aux états de service impeccables qui a vécu une fin de carrière humiliante.
Je dois faire un aveu. Il m’arrive, de plus en plus souvent, d’ouvrir Claude ou ChatGPT avant même d’avoir réfléchi à une question. Pas pour les sujets complexes, non. Pour des broutilles. Le nom d’un acteur. Une date. Une formule. Des choses que je savais autrefois retrouver dans ma mémoire, ou que j’aurais cherchées avec méthode.
Aujourd’hui, je tape. L’IA répond. Je passe à autre chose.
L’effet Google, version 2011
Pour comprendre ce qui nous arrive, il faut remonter un peu dans le temps. En 2011, une psychologue de Columbia nommée Betsy Sparrow publie dans Science une étude qui va faire date. Son titre : « Google effects on memory » [4].
L’expérience est simple. On pose des questions difficiles à des participants. Puis on mesure leur temps de réaction face à des mots liés à l’informatique. Résultat : après une question ardue, les gens pensent spontanément à Google. Leur cerveau, confronté à un trou de mémoire, se tourne automatiquement vers le moteur de recherche.
Mais ce n’est pas tout. Sparrow découvre aussi que nous retenons moins bien les informations que nous savons pouvoir retrouver en ligne. En revanche, nous mémorisons très bien où les trouver. Notre cerveau, malin, économise ses ressources. Pourquoi stocker ce qui est déjà stocké ailleurs ?
« Nous ne nous souvenons plus des informations elles-mêmes, mais de l’endroit où les trouver. »
Betsy Sparrow, psychologue, Université Columbia [4]
Sparrow avait mis le doigt sur ce que les psychologues appellent une « mémoire transactive ». Une extension externe de notre système cognitif. Comme le collègue expert qu’on appelle pour une question pointue. Ou le carnet d’adresses qu’on ne mémorise plus.
Sauf qu’Internet ne nous connaît pas. Ne nous corrige pas. Et ne s’offusque jamais quand on lui pose trois fois la même question.
De l’externalisation de la mémoire à l’externalisation de la pensée
L’effet Google, c’était la mémoire. L’IA générative, c’est autre chose. C’est la pensée elle-même.
Je m’explique. Quand je cherche une date sur Google, je délègue le stockage. Mais quand je demande à ChatGPT de m’écrire un plan, de me résumer un article, de me suggérer des arguments, je délègue le processus. La construction. L’effort de structuration qui, autrefois, se faisait dans ma tête.
Et c’est là que ça devient intéressant. Ou inquiétant. Selon l’angle.
En janvier 2025, un chercheur nommé Michael Gerlich publie dans la revue Societies une étude portant sur 666 participants [5]. Il mesure leurs capacités de pensée critique. Il mesure aussi leur usage des outils d’IA. Et il trouve une corrélation négative significative entre les deux.
Plus on utilise l’IA fréquemment, moins on performe aux tests de raisonnement critique.
Attendez, me direz-vous. Corrélation n’est pas causalité. Peut-être que les gens qui pensent moins bien sont simplement plus attirés par les outils qui pensent à leur place ?
Gerlich a anticipé l’objection. Il a identifié un mécanisme médiateur : le « cognitive offloading », l’externalisation cognitive. Les utilisateurs intensifs d’IA prennent l’habitude de sous-traiter leurs tâches mentales. Et cette habitude, progressivement, érode leurs capacités propres.
« L’usage régulier de l’IA est associé à des scores significativement plus bas dans les évaluations de raisonnement critique. »
Michael Gerlich, chercheur [5]
Le plus frappant ? Ce sont les 17-25 ans qui montrent la dépendance la plus forte et les scores les plus bas. La génération qui a grandi avec ces outils est aussi celle qui semble la plus vulnérable à leurs effets.
Le cerveau sous ChatGPT : une dette qui s’accumule
Au MIT Media Lab, des chercheurs ont voulu aller plus loin. Ils ont branché des électrodes sur des participants pendant qu’ils rédigeaient des essais. Certains avec ChatGPT. D’autres avec un simple moteur de recherche. D’autres encore sans aucune aide [6].
Les résultats interpellent, même si le faible échantillonage de l’étude vient tempérer les conclusions. Les utilisateurs de l’IA montraient une charge cognitive réduite pendant la tâche. Normal, me direz-vous. L’outil les aidait. Mais quand on leur demandait ensuite d’écrire sans assistance, leur cerveau peinait à reprendre le rythme. Comme un muscle qu’on aurait cessé de solliciter.
Les chercheurs du MIT parlent de « dette cognitive ». J’aime cette métaphore. Elle évoque ces intérêts composés qu’on accumule sans s’en rendre compte. Chaque fois que je demande à l’IA de structurer ma pensée à ma place, je contracte une petite dette. Insignifiante en apparence. Mais les petites dettes s’additionnent. Et un jour, la facture arrive.
Les trois signes de l’atrophie
Comment savoir si l’on est en train de s’atrophier cognitivement ? Noel Carroll, expert britannique en technologies et société, propose une grille de lecture que je trouve très intéressante [7].
Premier signe : le brouillon disparu. Vous souvenez-vous de l’époque où vous commenciez par griffonner des idées sur un coin de nappe ? Un tableau blanc ? Un carnet ? Ce moment où la pensée émerge, désordonnée, approximative, vivante ?
Si votre premier réflexe est désormais d’ouvrir un prompt, vous avez peut-être déjà renoncé à la partie la plus créative du processus intellectuel. Celle où l’on tâtonne. Où l’on se trompe. Où l’on découvre des connexions inattendues.
Je me suis posé la question pour moi-même. Et la réponse m’a rassuré: mes carnets continuent de se remplir….pour l’instant.
Deuxième signe : le seuil de frustration raccourci. Comptez les secondes. Combien de temps tenez-vous face à un problème avant de ressentir l’envie irrépressible de consulter l’IA ?
Si c’est moins d’une minute, votre tolérance à l’ambiguïté s’est probablement érodée. Or c’est précisément dans l’inconfort cognitif que naît ce que les psychologues appellent la « pensée divergente ». Cette capacité à générer des solutions multiples, originales, non conventionnelles.
L’IA, par définition, génère des réponses convergentes. Des moyennes statistiques de ce qui a déjà été dit. Elle ne peut pas penser « à côté ». Et si nous ne pensons plus qu’à travers elle, nous non plus.
Troisième signe : du décideur au validateur. Celui-ci est le plus insidieux. Acceptez-vous les suggestions de l’IA sans les remettre en question ? Doutez-vous de votre propre intuition au point de la vérifier systématiquement auprès d’une machine ?
Vous êtes peut-être passé du statut de décideur à celui de simple approbateur. Voire de passager passif de votre propre processus de pensée.
Réintroduire la friction
Alors, que faire ? Bannir l’IA ? Ce serait absurde. Aussi absurde que de renoncer à la calculatrice ou au moteur de recherche. L’enjeu n’est pas de refuser l’outil. C’est de réapprendre à penser avec lui sans penser par lui.
Plusieurs stratégies émergent des recherches.
La règle des 30 minutes. Avant d’ouvrir une interface IA, imposez-vous une demi-heure de réflexion autonome. Papier, stylo, schémas. Cartographier le problème, les pistes, les angles morts. Ce travail préalable crée ce que les psychologues appellent un « sentiment de propriété » sur la pensée. Quand l’IA intervient ensuite, c’est pour affiner mes idées, pas pour les remplacer.
Je dois admettre que c’est difficile. Les trente premières minutes sont inconfortables. Mon cerveau réclame sa dose de réponses instantanées. Mais c’est précisément dans cet inconfort que quelque chose se passe. Des connexions inattendues. Des idées que l’IA n’aurait pas eues, parce qu’elles ne sont pas dans les patterns statistiques.
Le scepticisme actif. Traiter l’IA comme un collègue brillant mais peu fiable. Celui qui a toujours une réponse, mais dont il faut vérifier les sources. Me donner pour mission de trouver trois erreurs dans chaque production de l’IA. Ou de casser sa logique. Cet exercice force le cerveau à quitter le mode « consommateur » pour revenir en mode « éditeur ».
Les espaces sanctuarisés. Identifier une tâche, personnelle ou professionnelle, que je m’engage à accomplir entièrement sans assistance artificielle. Pour moi, c’est l’écriture des premières versions de mes articles. Le brouillon. Le moment où la pensée se cherche. Je garde l’IA pour la relecture, la vérification, l’enrichissement. Mais le squelette, c’est moi qui le construis.
Ce que l’IA ne sait pas faire
Car l’IA, rappelons-le, ne comprend rien. Elle prédit des suites de mots probables à partir de patterns statistiques. Elle ne sait pas ce qui est vrai. Elle ne sait pas ce qui est juste. Elle ne sait pas ce qui est pertinent pour vous, dans votre situation, avec vos valeurs.
Quand nous lui déléguons notre pensée, nous confions notre jugement à un système qui, par construction, n’en a aucun.
Reste une question. Quand nous aurons cessé de penser par nous-mêmes, qui s’en apercevra ?
Références
The National. “Police missed ‘global consequences’ of Birmingham ban on Maccabi Tel Aviv fans“. The National. 14 janvier 2026.
ITV News. “West Midlands Police chief Craig Guildford retires after controversial Maccabi fan ban“. ITV News Central. 16 janvier 2026.
Sky Sports. “West Midlands police chief Craig Guildford to retire after Maccabi Tel Aviv fan ban“. Sky Sports. 16 janvier 2026.
Sparrow B, Liu J, Wegner DM. “Google effects on memory: cognitive consequences of having information at our fingertips“. Science. 2011;333:776-778.
Gerlich M. “AI tools in society: impacts on cognitive offloading and the future of critical thinking“. Societies. 2025;15(1):1-28.
Kosmyna N et al. “Your brain on ChatGPT: accumulation of cognitive debt when using an AI assistant for essay writing task“. MIT Media Lab. 2025.
Carroll N. "Is AI hurting your ability to think? How to reclaim your brain". The Conversation. 2026.
Natali C et al. “AI-induced deskilling in medicine: a mixed-method review and research agenda“. Artificial Intelligence Review. 2025.
Sermo. “Are AI tools making doctors worse at their jobs?“. Sermo. 17 novembre 2025.
Cabral S et al. “Clinical reasoning of a generative artificial intelligence model compared with physicians“. JAMA Internal Medicine. 2024;184(5):581-583.
Monteith S et al. “Artificial intelligence and deskilling in medicine“. The British Journal of Psychiatry. 2026.
Et vous, quel est votre ‘espace sanctuarisé’ où l’IA n’a pas droit de cité ? Répondez-moi en commentaire, je lis tout.




