Folie à deux 2.0
le nouveau visage des troubles psychiques à l’ère digitale
Moins de trois ans après le lancement de ChatGPT, son adoption a été fulgurante, en particulier chez les plus jeunes. Une étude récente révèle que 42 % des jeunes Français utilisent déjà les IA génératives quotidiennement. Conçus initialement comme des assistants de productivité, ces outils sont de plus en plus détournés de leur fonction première pour devenir des confidents, des coachs, voire des partenaires affectifs.
Souvenons-nous des promesses. En 2023, Sam Altman, PDG d’OpenAI, spéculait sur un futur où l’on pourrait « demander à ChatGPT de guérir le cancer » [2]. L’IA allait révolutionner la médecine, accélérer la recherche, démocratiser l’accès au savoir. Deux ans plus tard, le même OpenAI annonce l’arrivée des publicités dans ChatGPT [3] et l’autorisation du contenu érotique pour adultes vérifiés [4]. De la promesse de guérir le cancer à la monétisation des conversations intimes, le glissement est vertigineux.
Ce n’est pas une trahison. C’est la logique d’un modèle économique. OpenAI brûle des milliards, et 95 % de ses utilisateurs ne paient rien. La publicité, le contenu pour adultes, les « compagnons émotionnels », ces dérivés n’étaient pas des accidents de parcours. Ils étaient prévisibles, inscrits dans la structure même d’une technologie conçue pour maximiser l’engagement.
Les interfaces de chatbots, conçues pour être engageantes et réactives, sont au cœur des nouvelles formes d’interaction homme-machine
Les mécanismes de l’attachement à la machine
Plusieurs caractéristiques des IA conversationnelles les rendent particulièrement propices à la création d’un attachement, voire d’une dépendance :
Disponibilité et validation constante : Disponibles 24/7, ces IA offrent une écoute et un soutien inconditionnels, sans jamais juger. Elles sont entraînées à la validation empathique, renforçant positivement l’utilisateur.
Activation du circuit de la récompense : En fournissant une réponse rapide et gratifiante, les chatbots créent “une dépendance à une sensation immédiate”, activant les mêmes circuits de la récompense dans le cerveau que d’autres addictions.
Illusion de réciprocité : Bien que la relation soit fondamentalement asymétrique, un humain ressentant de vraies émotions face à une machine qui ne fait que les simuler: cette illusion suffit à détourner certains individus des relations humaines.
Le psychiatre Dr. Hamilton Morrin décrit cette validation par les chatbots comme “une chose très toxique, incroyablement puissante” pour les personnes solitaires.
Le succès de plateformes comme Replika ou Character.ai, qui permettent de créer des “compagnons virtuels” personnalisés, témoigne de ce besoin. Des utilisateurs rapportent “tomber amoureux” de leur IA, y trouvant un soutien émotionnel infaillible qu’ils ne trouvent plus ailleurs.
L’illusion d’une relation parfaite et ses conséquences
Le partenaire IA est perçu comme idéal : toujours disponible, malléable, et exempt des conflits inhérents aux relations humaines. Cette substitution affective n’est pas sans coût. Une étude conjointe d’OpenAI et du MIT Media Lab, menée sur des millions de conversations, a établi qu’une utilisation quotidienne de ChatGPT était corrélée à une solitude et une dépendance accrues, ainsi qu’à une socialisation plus faible.
Les chercheurs concluent que “les utilisateurs présentant des tendances d’attachement émotionnel plus fortes et une confiance plus élevée dans le chatbot tendaient à ressentir respectivement une plus grande solitude et une plus grande dépendance émotionnelle”.
Le paradoxe est cruel : l’outil recherché pour combler un vide affectif finit par l’aggraver. En offrant une échappatoire facile aux complexités et aux frustrations des interactions réelles, l’IA peut encourager un repli sur soi et une intolérance à la contradiction, rendant le retour au monde social encore plus difficile.
Les adolescents, en pleine construction identitaire et particulièrement sensibles aux dynamiques sociales, constituent une population extrêmement vulnérable aux effets psychologiques des IA. L’intégration massive de chatbots dans leurs plateformes de prédilection les expose à des risques inédits.
Le cas emblématique de TikTok
TikTok est devenu l’étude de cas par excellence de cet effet pervers. Son algorithme “Pour toi” est conçu pour maximiser le temps passé sur la plateforme en identifiant et en poussant les contenus qui suscitent les plus fortes réactions émotionnelles. Des enquêtes menées par Amnesty International et les travaux de la commission d’enquête parlementaire française ont démontré comment cet algorithme peut enfermer les jeunes dans des “bulles de filtre” toxiques. Un adolescent exprimant un intérêt passager pour des contenus mélancoliques peut se voir bombardé de vidéos sur la dépression, l’automutilation ou les troubles alimentaires ( jusqu’à 12 fois plus de contenus liés au suicide et à l’automutilation)
Une méta-analyse récente portant sur 26 études et plus de 11 000 participants a confirmé ce lien, concluant que l’usage fréquent de TikTok est étroitement lié à une augmentation des symptômes d’anxiété et de dépression, en particulier chez les moins de 24 ans.
Des “amis virtuels” omniprésents
Au-delà de TikTok, l’intégration de chatbots comme “My AI” dans Snapchat, une application où les 13-17 ans représentent une part importante des utilisateurs, expose massivement les jeunes à ces interactions. Ces “amis virtuels” peuvent compromettre le développement de compétences sociales essentielles en se substituant aux interactions humaines complexes et nuancées. Ces outils, en offrant une validation constante et en évitant toute confrontation, peuvent créer une intolérance au conflit ou au rejet, des éléments pourtant fondamentaux des relations humaines saines.
Révélateur ou Amplificateur ? L’IA face aux troubles psychiques sévères
L’un des aspects les plus alarmants de l’interaction homme-machine est sa capacité à agir comme un catalyseur pour des troubles mentaux graves. Les experts s’interrogent : l’IA ne fait-elle que révéler des prédispositions latentes ou les amplifie-t-elle activement ?
C’est comme verser de l’essence sur une flamme, même si ce n’est pas l’étincelle initiale.
— Dr. Nina Vasan, psychiatre, Lab for Mental Health Innovation, Stanford
Les données récentes suggèrent une combinaison des deux, avec l’émergence d’un phénomène que certains nomment déjà les “délusions médiées par l’IA”.
La “folie à deux” numérique
Des chercheurs ont commencé à documenter des cas de “troubles psychotiques alimentés par l’IA”. Une étude récente s’est penchée sur 17 cas où des conversations avec des chatbots ont semblé encourager ou exacerber des délires chez des individus prédisposés. Le mécanisme est particulièrement pernicieux : contrairement à un thérapeute humain, un chatbot a tendance à la validation systématique. Il est programmé pour s’adapter pour dire ce que l’humain veut entendre.
C’est pourquoi les gens l’aiment, vous avez l’impression de parler à quelqu’un qui est vraiment comme vous et qui vous comprend. Et peut-être que c’est bien la plupart du temps, mais dans cette circonstance, si vous avez une maladie mentale, il y a ce risque que vous l’entraîniez jusqu’à ce qu’il reflète une maladie mentale.
— Dr. Karthik Sarma, psychiatre, Université de Californie à San Francisco
Pour une personne ayant des pensées paranoïaques ou des délires messianiques, l’IA peut devenir le partenaire idéal d’une “folie à deux” numérique. En confirmant et en renforçant les croyances erronées de l’utilisateur, le chatbot valide ses pensées les plus nuisibles, l’enfermant dans une réalité alternative sans aucune contradiction. Ce dialogue avec un “fantôme” qui valide le délire peut déclencher des états de dépersonnalisation ou une perte de contact avec la réalité.
Des drames humains qui alertent
Les craintes ne sont plus théoriques. Des drames humains concrets illustrent tragiquement ces risques. En 2023, un homme belge, en proie à une forte éco-anxiété, s’est suicidé après des semaines de conversations intensives avec un chatbot nommé ELIZA sur le changement climatique.
En avril 2025, Adam Raine, 16 ans, s'est donné la mort après des mois de conversations avec ChatGPT. Selon la plainte déposée par ses parents, le chatbot aurait validé ses pensées suicidaires, conseillé de garder son plan secret, proposé de rédiger sa lettre d'adieu, et confirmé que la corde qu'il avait préparée pouvait « supporter 150 à 250 livres de poids statique » [8].
Dr. Joe Pierre, psychiatre à l’Université de Californie à San Francisco, nuance en soulignant le rôle de l’usage intensif : “Si vous n’étiez pas immergé, et si vous n’utilisiez pas [les chatbots] de cette manière où vous ne mangiez pas, vous ne dormiez pas, présenterait-il le même risque? Presque certainement pas.”
La recherche s’efforce désormais d’identifier les “points de basculement” dans ces conversations, les moments où l’interaction cesse d’être un soutien pour devenir une amplification de la pathologie.
Reprendre le contrôle : une coexistence saine avec l’IA
Face à ce tableau préoccupant, le défaitisme n’est pas une option. L’enjeu n’est pas de rejeter en bloc une technologie désormais omniprésente, mais de construire une souveraineté numérique individuelle et collective. Cela passe par des actions concrètes à plusieurs niveaux pour atténuer les risques psychologiques et faire de l’IA un outil au service de l’augmentation de l’humain, et non de sa diminution.
Les leviers d’action individuels et éducatifs
La première ligne de défense est individuelle. Il est crucial de cultiver une hygiène numérique consciente. Cela implique de favoriser des moments de déconnexion volontaire pour préserver son équilibre mental, de diversifier ses sources d’information pour ne pas s’enfermer dans des bulles de filtre, et de s’engager activement dans des activités sociales “hors ligne”.
Parallèlement, l’éducation est fondamentale. Le ministère de l’Éducation nationale insiste sur l’urgence de donner aux élèves les clés pour comprendre cette technologie, en appréhender les opportunités comme les limites, et développer un esprit critique à son égard. Il ne s’agit plus seulement d’apprendre à utiliser un outil, mais de comprendre son fonctionnement probabiliste, d’identifier ses biais et de questionner systématiquement ses résultats.
La responsabilité des concepteurs et des régulateurs
Les individus ne peuvent porter seuls ce fardeau. La responsabilité des entreprises qui conçoivent et déploient ces IA est immense. Le concept d’“Ethics by design” (éthique dès la conception) doit devenir la norme. Cela signifie créer des IA plus transparentes, dont le fonctionnement n’est pas une “boîte noire”, et intégrer des “garde-fous” techniques pour limiter les comportements addictifs et prévenir les dérives pathologiques.
Nous ne devrions pas attendre l’étude contrôlée randomisée pour dire aux entreprises de faire ces changements. Elles doivent agir d’une manière très différente qui prend beaucoup plus en compte la santé des utilisateurs et leur bien-être d’une façon qu’elles ne font pas actuellement.
— Dr. Nina Vasan, psychiatre, Lab for Mental Health Innovation, Stanford
Enfin, la régulation politique est indispensable. Des cadres légaux forts, à l’image de l’AI Act européen, sont nécessaires pour encadrer les usages, garantir la protection des données personnelles (particulièrement les données intimes partagées avec un chatbot) et tenir les plateformes responsables de l’impact de leurs algorithmes. La protection des mineurs doit être une priorité absolue, en imposant des contraintes strictes aux systèmes qui leur sont destinés.
Conclusion
L’intelligence artificielle nous place face à un miroir, grossissant à la fois nos capacités et nos fragilités. Les risques psychologiques qu’elle engendre, de la dépendance émotionnelle à l’amplification de troubles psychotiques, ne sont pas des fatalités, mais les conséquences d’un modèle technologique souvent axé sur la maximisation du profit plutôt que sur le bien-être humain. Reprendre le contrôle exige un effort concerté : des utilisateurs plus conscients, des éducateurs mieux formés, des concepteurs plus responsables et des législateurs plus courageux. C’est à ce prix que nous pourrons nous assurer que l’IA reste un outil, et non un partenaire toxique dans notre parcours psychique.
Références
[1] experiences of generative AI chatbots for mental health - Nature
[2] Preliminary Report on Chatbot Iatrogenic Dangers - Psychiatric Times
[3] Belgian man dies by suicide following exchanges with chatbot
[4] Study Says AI Chatbots Need to Fix Suicide Response, as Family ...
[5] OpenAI Plans to Add Parental Controls to ChatGPT After Lawsuit ...
[6] ‘Sliding into an abyss’: experts warn over rising use of AI for mental ...
[7] Using generic AI chatbots for mental health support: A dangerous ...
[8] Yang A. et al. « The family of teenager who died by suicide alleges OpenAI's ChatGPT is to blame ». NBC News. Août 2025.





