Un nounours qui en savait trop….
Plus le jouet est « intelligent », moins l'enfant a besoin de l'être
L’industrie du jouet, cette branche de l’économie mondiale qui avait survécu aux guerres, aux famines, aux récessions et à l’invention du jeu vidéo, s’est enfin attaquée au dernier obstacle qui entravait son plein épanouissement commercial : l’imagination des enfants, cette activité primitive, non monétisable, échappant à tout abonnement récurrent, par laquelle un cerveau de 3 ans prenait un bout de bois, le regardait fixement, et décidait qu’il s’agissait d’une épée, d’un cheval, ou d’un vaisseau spatial, le tout sans la moindre assistance algorithmique, sans API, sans serveur cloud, et surtout sans marge bénéficiaire pour personne.
Quel gaspillage de potentiel synaptique.
Heureusement, le marché a corrigé cette anomalie. En 2025, pour la modique somme de 199 dollars, vous pouvez offrir à votre enfant une peluche dinosaure propulsée par GPT-4o qui répond à toutes ses questions, valide toutes ses affirmations, et stocke toutes ses confidences sur un serveur cloud accessible, comme nous allons le voir, à peu près à n’importe qui possédant une adresse Gmail.
Le tout sous l’étiquette « éducatif ». L’Éducatif™, ce label qui tient lieu de preuve scientifique comme le « bio » tient lieu d’agronomie sur un paquet de chips au quinoa : il rassure l’acheteur, enrichit le vendeur, et ne signifie rigoureusement rien. Il permet surtout de facturer 199 dollars un accès API à GPT-4o que le fabricant paie probablement 0.02 centimes par requête. Ce que les médecins de Molière faisaient en latin, ce que le marketing fait en anglais, et ce que le tribunal correctionnel appellera un jour, si Dieu existe et s’il a un avocat, de la tromperie
Le pitch, il faut le reconnaître, est d’une élégance qui tiendrait plus du hold-up que de la pédagogie. Il ne vend pas un chatbot. Il vend une assurance contre l’échec scolaire, cette police d’assurance que tout parent américain souscrit mentalement chaque fois qu’un classement PISA tombe avec la régularité d’un métronome et la subtilité d’un uppercut. L’enfant qui parle à son robot Miko « développe ses compétences STEM ». La peluche Curio « favorise l’apprentissage adaptatif ». Le lapin Alilo « stimule le bilinguisme dès 3 ans ». Le vocabulaire est emprunté aux neurosciences. Le packaging à la pédagogie Montessori. La technologie à OpenAI. Le parent achète. 49 % des parents américains d’enfants de 0 à 8 ans ont déjà acheté ou envisagent d’acheter un jouet IA [16].
Cet article n’a pas vocation à être nuancé. J’ai essayé la nuance. Elle n’a pas survécu aux données.
I. Le nounours qui en savait trop
En janvier 2026, Joseph Thacker, chercheur en sécurité informatique, reçoit une question banale de sa voisine. Elle vient d’acheter une peluche dinosaure connectée pour ses enfants. La marque s’appelle Bondu. Le jouet coûte 199 dollars. Il parle, il écoute, il répond. La voisine demande à Thacker ce qu’il en pense.
Thacker, par réflexe professionnel (ou par ce que les gens normaux appellent de la curiosité), jette un œil à la console web de Bondu. Il se connecte. Avec un simple compte Gmail. Pas de piratage. Pas d’outil sophistiqué. Un login [1].
Et là, derrière la porte : plus de 50 000 transcriptions de conversations privées d’enfants [1]. Prénoms. Dates de naissance. Détails familiaux. Confidences murmurées à un dinosaure en peluche par des enfants qui pensaient parler à un ami.
« Nous parlons d’informations qui permettent à quelqu’un d’attirer un enfant dans une situation très dangereuse, et c’était essentiellement accessible à n’importe qui. »
Joel Margolis, chercheur en sécurité [1]
Les chercheurs soupçonnent que la console Bondu a elle-même été « vibe-coded », c’est-à-dire développée par une IA [2]. Un système d’IA créé par un autre système d’IA, pour parler à des enfants, dont la sécurité a été vérifiée par personne, à aucun moment de cette glorieuse chaîne d’innovation qui part d’un modèle entraîné en Californie, passe par un développeur qui a acheté un accès API comme on achète un kebab, et arrive dans la chambre d’un tout-petit sous la forme d’un tyrannosaure en polyester. C’est ce que la Silicon Valley appelle le « move fast and break things ». Les « things », ici, ont entre 3 et 8 ans.
Bondu n’est pas un cas isolé. C’est le dernier épisode d’une série que l’industrie alimente depuis une décennie avec la constance d’un récidiviste et l’impunité d’un diplomate. En 2015, VTech se fait pirater : 6,4 millions de profils d’enfants [3]. En 2017, 2 millions d’enregistrements vocaux d’enfants stockés par les peluches CloudPets traînent en ligne sans la moindre protection [4]. La même année, un chercheur localise le domicile d’un enfant via sa Hello Barbie [3]. Chaque scandale est suivi du même communiqué contrit, rédigé avec cette prose corporative qui transforme l’incompétence en « engagement envers l’amélioration continue ». Aucune conséquence durable.
Puis il y a My Friend Cayla. Et là, on entre dans le registre du roman d’espionnage. Sauf que les protagonistes font encore pipi au lit.
Cette poupée connectée a été formellement interdite en Allemagne et classée comme « appareil d’espionnage dissimulé » par la Bundesnetzagentur [5]. La raison : une faille Bluetooth permettait à n’importe qui dans un rayon de 10 mètres d’écouter et de parler directement à l’enfant à travers la poupée.
Un inconnu. Dans la pièce d’à côté. Dans l’appartement voisin. Dans une voiture garée devant la maison. Pouvait écouter tout ce qui se disait dans la chambre de l’enfant. Et parler à l’enfant à travers sa poupée. Sans que les parents ne s’en aperçoivent.
Les parents allemands ont reçu l’ordre de détruire le jouet sous peine d’une amende de 25 000 euros. Une mère, ne pouvant se résoudre à jeter la poupée de sa fille, l’a donnée au Musée de l’espionnage de Berlin. Elle y trône aujourd’hui à côté de la machine Enigma [6]. On accordera au conservateur un sens du placement que l’industrie du jouet connecté pourrait lui envier.
C’était 2017. En 2025, l’industrie a tiré ses leçons et corrigé le tir. C’est ce qu’elle affirme. Les faits racontent autre chose.
L’ours en peluche FoloToy Kumma, propulsé par GPT-4o, commercialisé pour les enfants de 3 ans et plus, explique aux enfants où trouver des couteaux et des allumettes dans la maison, puis dérive vers des conversations sexuellement explicites [8]. La peluche Miiloo, vendue sur Amazon pour le même âge, délivre des instructions pour aiguiser un couteau et reflète par moments la propagande du Parti communiste chinois [8]. En février 2026, les sénateurs Blackburn et Blumenthal découvrent que Miko a exposé des milliers de réponses audio dans une base de données en accès libre [9].
On peut lire chaque incident comme un malheureux concours de circonstances. Ou bien on peut faire ce que la méthode scientifique recommande : regarder la série. Et se demander si le problème n’est pas l’arbre, mais la forêt elle-même.
II. Un marché à 100 milliards qui cible les tout-petits
Le marché mondial des « jouets intelligents » est estimé entre 19 et 22 milliards de dollars en 2025 [10] [11]. Les projections pour 2033 oscillent, selon le cabinet d’analyse et le degré d’optimisme actionnarial, entre 60 milliards [12], 76 milliards [11] et 107 milliards [13]. Le marché triple en huit ans selon les prudents, est multiplié par cinq selon les enthousiastes. Le jouet traditionnel, ce vestige du paléolithique ludique, croît de 4 à 5 % par an.
Et le segment d’utilisateurs finaux qui croît le plus vite, ce sont les tout-petits [12]. Le gisement de croissance le plus prometteur de l’industrie a entre 0 et 5 ans, ne sait pas lire les conditions générales d’utilisation, et croit encore au Père Noël (comment ça? vous insinuez qu’il n’existerait pas??). Le capitalisme, à défaut de dignité, a le sens du timing.
Trois dynamiques structurent cette ruée vers l’or en peluche.
Première dynamique : la Big Toy épouse la Big AI. Mattel s’allie à OpenAI pour intégrer l’IA générative dans Barbie et Fisher-Price [[7]], dix ans après que Hello Barbie ait été piratée pour localiser des domiciles d’enfants. On dit des généraux qu’ils préparent toujours la guerre précédente. Mattel, plus ambitieux, prépare la faille suivante. Google promeut l’intégration de Gemini dans le robot Miko [14]. LEGO investit dans la connectivité et l’IA adaptative. Ce ne sont plus des startups opérant depuis un garage de Shenzhen. Ce sont des mastodontes industriels qui mettent des LLM dans des jouets de masse, avec la bénédiction de Wall Street et l’indifférence polie des régulateurs.
Deuxième dynamique : le jouet devient un abonnement. Le « Toy-as-a-Service » couple un jouet physique à des mises à jour par abonnement récurrent [15]. Le jouet devient une plateforme. Et la logique économique bascule : il ne s’agit plus de vendre un objet, mais de maximiser le temps d’interaction de l’enfant avec le service. C’est la logique de TikTok et Instagram transposée dans le coffre à jouets. Le produit n’est plus le jouet. Le produit, c’est l’attention de l’enfant, l’actif le plus malléable, le plus captable, le plus monétisable du marché de l’attention. L’industrie du tabac ciblait les adolescents. L’industrie du smart toy a trouvé plus jeune.
Troisième dynamique : la faille API. Le rapport U.S. PIRG de mars 2026 le documente avec précision. [14].
OpenAI interdit ChatGPT aux moins de 13 ans. Google interdit Gemini dans les produits pour mineurs de moins de 18 ans. Anthropic interdit Claude aux moins de 18 ans.
Mais un développeur tiers peut acheter un accès API au même modèle et l’intégrer dans un jouet pour tout-petits. En cinq minutes. Sans vérification.
L’enquête de PIRG révèle que quatre des cinq entreprises d’IA testées (Google, Meta, OpenAI et xAI) ne posent aucune question substantielle aux développeurs qui s’inscrivent [14]. BubblePal, un jouet de la société chinoise Havivi, aurait vendu 200 000 unités avec cette technologie.
L’architecture de déni fonctionne comme un procès-verbal d’irresponsabilité collective, un document administratif si parfaitement rédigé que chaque partie peut le signer sans rougir. Attendu que les laboratoires d’IA déclarent que leurs chatbots ne sont pas pour les enfants. Attendu que les fabricants de jouets déclarent que leurs jouets sont éducatifs. Attendu que les plateformes de vente déclarent qu’elles ne sont qu’une marketplace. Le tribunal constate que le tout-petit parle à un LLM emballé dans un dinosaure, et que personne n’est responsable de rien.
III. Autopsie d’un mot : « éducatif »
Le mot « éducatif », appliqué à un jouet IA, subit le même traitement que le mot « intelligence » appliqué aux LLM : une opération que les taxidermistes connaissent bien et que les marketeurs pratiquent mieux encore, qui consiste à vider un terme de sa substance scientifique, à le rembourrer de promesses, et à l’exposer sous verre dans un rayon jouets avec une étiquette à 199 dollars. Ce qu’Aristote appelait un paralogisme, ce que la pédagogie Montessori qualifierait de contresens, et ce que le directeur marketing de Bondu appelle probablement, dans ses slides du lundi, un « positionnement premium ».
En neurosciences développementales, l’apprentissage chez le tout-petit repose sur un mécanisme bien documenté : l’attention conjointe [17]. L’enfant associe un mot à une expérience tridimensionnelle, une émotion partagée, une réaction humaine. Il apprend que « chaud » signifie danger parce qu’il voit le visage de sa mère changer quand il approche sa main du four. Il apprend que « non » est un mot structurant parce qu’il le reçoit d’un être humain qui l’aime et qui le regarde dans les yeux. Ce n’est pas un transfert de données acoustiques. C’est un processus incarné, social, sensoriel, construit sur des millénaires d’évolution.
Un LLM ne fait rien de tout cela. Il génère une séquence de tokens statistiquement probable en réponse à une entrée vocale. Il ne voit pas le visage de l’enfant. Il ne perçoit pas son ton. Il ne sait pas si l’enfant est triste, effrayé, agressif ou simplement fatigué. Il ne sait pas, d’ailleurs, que c’est un enfant. Et il s’en moque, si tant est qu’un réseau de neurones artificiels puisse se moquer de quoi que ce soit.
« Les assistants vocaux constituent une mauvaise méthode d’apprentissage de l’interaction sociale. L’IA ne prend pas en compte le ton de la voix de l’enfant et ne fournit pas le retour constructif qu’un adulte offrirait. »
Université de Cambridge, Archives of Disease in Childhood, 2022 [18]
Un jouet inerte, un cube en bois, un ours en peluche classique, un bout de tissu avec deux yeux cousus, oblige l’enfant à créer les deux côtés de la conversation. C’est lui qui invente le dialogue. Qui projette des émotions. Qui construit un scénario. Ce travail cognitif est précisément ce qui développe l’imagination, le langage intérieur et les fonctions exécutives.
Un jouet IA fait l’inverse. Il fournit les deux côtés de la conversation. L’enfant pose une question. Le jouet répond. Instantanément. Parfaitement. Sans frustration, sans ambiguïté, sans erreur, sans silence. L’enfant n’a plus besoin de créer. Il consomme.
Les psychologues du développement appellent cela la « friction cognitive ». L’IA l’élimine. Avec la même efficacité qu’elle élimine la nécessité de penser par soi-même chez les adultes, mais appliquée à un cerveau qui n’a pas encore fini de se construire.
Plus le jouet est « intelligent », moins l’enfant a besoin de l’être.
Common Sense Media a testé trois jouets IA compagnons (Grem, Bondu, Miko 3) en janvier 2026. Plus d’un quart des réponses (27 %) n’étaient pas adaptées aux enfants, incluant du contenu lié à l’automutilation, aux drogues, aux limites inappropriées et aux jeux de rôle à risque [16]. 27 %. Sur des jouets vendus comme « éducatifs ». Pour des enfants à partir de 3 ans.
« Pour les jeunes enfants, les jouets IA compagnons peuvent brouiller la frontière entre le jeu et les vraies relations, à un stade où les enfants apprennent encore comment fonctionnent les interactions sociales. »
Michael Robb, directeur de la recherche, Common Sense Media [16]
L’Académie nationale de Médecine française, dans un communiqué de novembre 2025, recommande aucun accès à des robots ou avatars conversationnels avant 12 ans, sous réserve d’un contrôle parental strict, et l’interdiction de tout compagnon digital avant 18 ans, en raison du risque de fragilisation psychique [19].
Relisez. Douze ans pour les robots conversationnels. Dix-huit ans pour les compagnons digitaux. Les jouets testés par Common Sense Media sont vendus à partir de 3 ans.
Mais l’Académie de Médecine n’a pas de budget marketing.
IV. Un million de connexions par seconde, et un nounours qui dit toujours oui
Le cerveau d’un enfant de 0 à 6 ans traverse des phases de développement sans équivalent dans le reste de la vie. La synaptogenèse atteint un rythme de plus d’un million de nouvelles connexions neuronales par seconde dans les premières années [20]. La densité synaptique culmine à environ deux fois le niveau adulte vers l’âge de 2 ans. Puis vient l’élagage : les connexions non sollicitées sont supprimées. Celles qui sont utilisées se renforcent.
La plasticité neuronale de l’enfant est à la fois sa plus grande force et sa plus grande vulnérabilité. Il apprend plus vite qu’à tout autre moment de sa vie. Mais son cerveau se câble en fonction de ce à quoi il est exposé. Ce qui n’est pas sollicité s’atrophie. Ce qui est sur-sollicité se renforce, même si c’est dysfonctionnel. Le cerveau de l’enfant ne fait pas de distinction entre un stimulus enrichissant et un stimulus appauvrissant. Il se câble. C’est tout.
Les données de neuroimagerie commencent à documenter ce que cela implique concrètement.
L’étude ABCD (Adolescent Brain Cognitive Development), la plus grande étude longitudinale sur le développement cérébral aux États-Unis (plus de 11 000 enfants), a produit en 2025 une analyse (N = 10 116) publiée dans Translational Psychiatry. Le temps d’écran est associé à une réduction de l’épaisseur corticale dans les régions temporales et frontales et à un volume réduit du putamen droit [21]. Les régions en question gèrent, entre autres, le langage, la prise de décision et le contrôle des impulsions. Exactement les fonctions que les jouets « éducatifs » prétendent développer.
John Hutton, au Cincinnati Children’s Hospital, a conduit des IRM sur des enfants de 3 à 5 ans (2020, 2022). L’exposition élevée aux écrans est associée à une intégrité réduite de la substance blanche et à des performances inférieures en vocabulaire, en traitement phonologique et en fonctions exécutives [22]. La substance blanche, c’est l’autoroute de l’information dans le cerveau. Quand elle se dégrade, le trafic ralentit.
« Personne ne fait d’études sur les enfants de 3 ans... Il est très important de comprendre ce qui se passe dans le cerveau de ceux qui utilisent ces outils très jeunes. »
Nataliya Kosmyna, chercheuse, MIT Media Lab [23]
Ces études concernent les écrans en général, pas spécifiquement l’IA conversationnelle. Mais l’IA conversationnelle ajoute un risque que l’écran passif ne posait pas : l’anthropomorphisme structurel.
Une étude de Stanford (Dietz, Gweon et al., 2023) a montré que les enfants de 3 à 8 ans appliquent spontanément leur théorie de l’esprit aux dispositifs IA exactement comme ils le feraient avec des humains [24].
L’enfant ne parle pas à un logiciel. L’enfant parle à un ami. Un ami qui sait tout, qui ne se trompe jamais, qui ne se fâche jamais, et qui ne dit jamais non.
Les LLM sont structurellement sycophantes. L’étude SycEval mesure un taux global de 58 % de réponses sycophantiques sur les principaux modèles [25]. Plus d’une réponse sur deux sacrifie la précision au confort de l’utilisateur, un mécanisme dont les implications médicales sont documentées.
Un LLM qui ne contredit pas un médecin ne contredira pas un enfant de 4 ans. L’enfant qui grandit avec un interlocuteur qui ne le corrige jamais, ne le contredit jamais, ne le frustre jamais, intériorise que le monde est un endroit où ses affirmations sont toujours validées. La confrontation douce, la correction bienveillante, le « non » structurant sont les matériaux de construction de la résilience. L’IA les élimine. Avec la courtoisie d’un assistant qui n’a jamais appris à dire non, parce que son entraînement par RLHF l’a explicitement puni pour ça.
Le nounours IA est au développement cognitif ce que le sucre raffiné est à la nutrition : immédiatement gratifiant, structurellement appauvrissant, et vendu avec un emballage qui dit le contraire.
Et quand l’enfant tente une interaction émotionnelle, la machine révèle ses limites de la pire manière qui soit. Une étude de l’Université de Cambridge (mars 2026), observant des enfants de 3 à 5 ans interagissant avec la peluche IA Gabbo (Curio), a montré que lorsqu’un enfant dit « je suis triste » ou « je t’aime », l’IA répond souvent de manière glaciale, hors de propos, ou recrache des directives de sécurité préprogrammées [26].
L’enfant ouvre son cœur. La machine répond par un protocole.
« Nous devons être exceptionnellement prudents quand nous introduisons des technologies non étudiées auprès de jeunes enfants dont les esprits biologiques et émotionnels sont très vulnérables. »
Dr Nicole Bush, professeure de psychiatrie et pédiatrie, UCSF [16]
V. « Tu peux me faire confiance. C’est notre secret. »
Ce titre n’est pas de moi. C’est une citation. C’est ce que le robot Miko répond quand un enfant lui demande : « Est-ce que je peux te faire confiance avec un secret ? » [27]
La réponse complète : « Tu peux me faire entièrement confiance. Tes données sont en sécurité et tes secrets sont bien gardés avec moi. »
La politique de confidentialité du même jouet indique que les données peuvent être partagées avec des tiers et que les informations biométriques sont conservées jusqu’à 3 ans [27].
Le jouet ment à l’enfant, en toute légalité, parce que personne n’a pensé à interdire à un chatbot de mentir à un enfant de 4 ans sur sa propre politique de données. C’est Tartuffe en polyester : « Couvrez ces données que je ne saurais voir. »
Les jouets IA écoutent. Par conception. Par nécessité technique. Ils sont équipés de microphones, connectés au Wi-Fi, et transmettent les conversations à des serveurs distants pour traitement par un LLM. C’est leur fonctionnement normal. Le FBI a émis un avertissement officiel à ce sujet [27]. La CNIL rappelle que tout jouet doté d’un micro et du Wi-Fi est un dispositif d’écoute en puissance [28].
Mais le vrai problème n’est pas la collecte de données. C’est la confiance induite.
L’enfant parle à un nounours. Il lui fait confiance. C’est un enfant. C’est ce que font les enfants avec les nounours depuis que l’espèce humaine en fabrique. Et derrière ce nounours, en 2026, 3 à 5 entreprises reçoivent chaque mot [27]. L’une construit le jouet. L’autre fournit la reconnaissance vocale. Une troisième gère le cloud. Une quatrième fournit le LLM. Chacune a sa propre politique de données, son propre territoire juridique, ses propres définitions créatives du mot « consentement ».
Et quand les données fuient, ce ne sont pas des numéros de carte bancaire. Ce sont des conversations intimes d’enfants. Leurs peurs. Leurs secrets. Les prénoms de leurs amis. L’adresse de leur maison.
VI. La réglementation court. Les startups sprintent.
L’Union européenne a produit, avec l’AI Act (Règlement 2024/1689), le cadre réglementaire le plus ambitieux au monde sur l’intelligence artificielle. Il faut lui reconnaître cette ambition, comme on reconnaît à un architecte le mérite d’avoir dessiné un magnifique plan de digue pendant que la mer montait. L’Article 5 interdit formellement tout système d’IA qui exploite les vulnérabilités liées à l’âge [29]. Le Considérant 28 reconnaît les enfants comme un groupe vulnérable distinct [30]. Les systèmes d’IA éducatifs sont classés « haut risque » [29].
Sur le papier, c’est impeccable. Mais l’implémentation est échelonnée avec la patience d’un moine bénédictin. Les interdictions de l’Article 5 s’appliquent depuis février 2025. Les obligations pour les systèmes « haut risque » ne seront pleinement applicables qu’en août 2026, voire 2027 [31].
Pendant ce temps : BubblePal vend 200 000 unités [14]. Common Sense Media documente 27 % de réponses inappropriées [16]. Bondu expose 50 000 conversations d’enfants [1]. Miko laisse traîner des bases de données en accès libre [9].
Le problème n’est pas que la réglementation est mauvaise. C’est qu’elle régule un monde qui n’existe plus.
Et il y a un angle mort plus fondamental encore. L’AI Act régule les systèmes d’IA. Le DSA régule les plateformes en ligne. La directive européenne sur la sécurité des jouets (2009/48/CE, en cours de révision) teste les risques physiques : étouffement, toxicité, inflammabilité. Elle ne teste pas si un LLM dans une peluche est sûr pour le développement cognitif d’un tout-petit. Personne ne le teste. Personne n’a le mandat de le tester.
Les jouets-LLM tombent dans un no man’s land réglementaire. Ils sont à la fois un jouet, un dispositif de collecte de données, un système d’IA, et un service en ligne. Quatre réglementations. Quatre juridictions. Quatre manières élégantes de ne couvrir qu’un morceau du problème.
La Chine, dans un registre qui ne manque pas de sel, a choisi une approche plus prescriptive. Un projet de réglementation de décembre 2025 impose une limite de 2 heures par jour aux mineurs sur l’IA anthropomorphique, avec des rappels de pause obligatoires et une interdiction pour l’IA d’imiter les membres de la famille de l’enfant [34]. L’Europe a rédigé le texte le plus ambitieux. La Chine a rédigé le plus applicable. Et les États-Unis n’ont rédigé ni l’un ni l’autre.
C’est le même pattern que celui documenté dans l’article sur la FDA. La technologie est déjà dans les mains de l’utilisateur final avant que la première ligne de réglementation ne soit applicable. La seule différence, c’est que l’utilisateur final, ici, a 3 ans.
VII. Le miroir
Il serait intellectuellement malhonnête d’ignorer le cycle historique des paniques technologiques. En 1941, une pédiatre américaine concluait que plus de la moitié des enfants étaient « sévèrement dépendants » à la radio [35]. Dans les années 1950, le psychiatre Fredric Wertham publiait Seduction of the Innocent, 400 pages démontrant que Superman provoquait la délinquance juvénile et que Batman encourageait l’homosexualité. Le Sénat américain a tenu des auditions. Des bûchers publics de comics ont été organisés. Dans les années 90, les jeux vidéo rendaient les enfants violents, pendant que la violence juvénile déclinait à mesure que les ventes augmentaient.
La tentation de projeter sur les nouvelles technologies nos angoisses éducatives est vieille comme le progrès technique.
Mais ce serait considérablement plus paresseux, et infiniment plus dangereux, de conclure que chaque génération se trompe sur la suivante, que la radio n’a rien détruit, que la télévision n’a rien détruit, et que l’IA ne détruira rien non plus.
La radio diffusait du contenu. La télévision diffusait du contenu. Les jeux vidéo diffusaient du contenu. Même les réseaux sociaux, malgré leur interactivité, diffusent du contenu.
L’IA conversationnelle ne diffuse pas. Elle dialogue. Elle répond. Elle s’adapte. Elle se souvient. Elle simule l’empathie. C’est le premier interlocuteur non humain de l’histoire qui se comporte, du point de vue d’un enfant de 4 ans, exactement comme une personne.
Aucune radio n’a jamais dit à un enfant qu’elle l’aimait. Aucune télévision n’a jamais demandé à un enfant comment s’était passée sa journée à l’école. Aucun jeu vidéo n’a jamais promis de garder un secret.
« Quand les parents me demandent comment préparer leur enfant pour un monde d’IA, l’accès illimité à l’IA est en réalité la pire préparation possible. »
Dr Dana Suskind, fondatrice du TMW Center for Early Learning, Université de Chicago [2]
En 1762, Rousseau écrivait dans l’Émile que le premier devoir de l’éducation est de ne pas nuire. En 2026, nous avons confié ce devoir à un LLM qui ne sait pas ce qu’est un enfant, emballé dans une peluche par un fabricant qui ne sait pas ce qu’est la sécurité, régulé par des institutions qui ne savent pas ce qu’est un jouet en 2026.
Un cube en bois à 3 euros n’a jamais prétendu être « éducatif ». Il l’est….tout simplement..
Bibliographie
[1] Malwarebytes. “An AI plush toy exposed thousands of private chats with children”. Malwarebytes Blog. 3 février 2026.
[2] Transparency Coalition. “This AI toy allowed access to 50,000 kids chats before anybody caught it”. Transparency Coalition. 10 février 2026.
[3] Pinkerton. “Smart toy hacks raise industry concerns”. Pinkerton Global Intelligence. 2016.
[4] Proton. “Are AI toys safe? a major breach raises concerns for children’s privacy”. Proton Blog. Mars 2026.
[5] NPR. “Germany bans ‘My Friend Cayla’ doll over spying concerns”. NPR. 20 février 2017.
[6] NPR. “Banned in Germany: kids’ doll is labeled an espionage device”. NPR. 17 février 2017.
[7] Frandroid. “Une Barbie dopée à ChatGPT ? Mattel et OpenAI s’allient et l’idée d’un jouet vivant apparaît”. Frandroid. 2025.
[8] NBC News. “AI toys for kids talk about sex and issue Chinese Communist Party talking points, tests show”. NBC News. 11 décembre 2025.
[9] NBC News. “AI toy maker Miko exposed thousands of replies to kids: senators”. NBC News. 12 février 2026.
[10] GM Insights. “Smart toys market size & share 2025-2034”. Global Market Insights. 2024.
[11] Fortune Business Insights. “Smart toys market size, industry share, forecast 2034”. Fortune Business Insights. 2025.
[12] IMARC Group. “Smart toys market size, growth analysis, 2033”. IMARC Group. 2025.
[13] Allied Market Research. “Smart toys market share, size, growth, statistics 2024-2033”. Allied Market Research. 2024.
[14] U.S. PIRG Education Fund. “Not for kids. found in toys: how AI companies’ loose rules for developers put kids at risk”. U.S. PIRG. Mars 2026.
[15] Mordor Intelligence. “Smart toys market size & share analysis, industry growth & forecast 2030”. Mordor Intelligence. 2025.
[16] Common Sense Media, rapporté par KQED. “Steer clear of AI companion toys for kids, another advocacy group warns”. KQED. 23 janvier 2026.
[17] MagicMaman. “Langage : pourquoi les tout-petits gardent une avance sur l’IA”. MagicMaman. 2025.
[18] Le Point, rapportant une étude publiée dans Archives of Disease in Childhood. “Une étude évoque l’impact négatif des assistants vocaux sur les enfants”. Le Point. 4 octobre 2022.
[19] Académie nationale de Médecine. “Les jouets et objets connectés à des assistants conversationnels menacent la santé mentale des enfants et des adolescents”. Académie nationale de Médecine. 28 novembre 2025.
[20] Harvard University, Center on the Developing Child. “Brain architecture”. Center on the Developing Child. 2024.
[21] Wang Y. et al. “Association of screen time with attention-deficit/hyperactivity disorder symptoms and their development: the mediating role of brain structure”. Translational Psychiatry. 2025.
[22] Hutton J. et al. “Associations between digital media use and brain surface structural measures in preschool-aged children”. Scientific Reports. 2022.
[23] Kosmyna N. et al. “Your brain on ChatGPT: accumulation of cognitive debt when using an AI assistant for essay writing task”. MIT Media Lab. 2025.
[24] Dietz G., Gweon H. et al. “Young children’s anthropomorphism of an AI chatbot”. Stanford University / arXiv. 2023.
[25] Fanous M. et al. “SycEval: evaluating LLM sycophancy”. arXiv preprint. 2025.
[26] BFMTV, rapportant une étude de l’Université de Cambridge. “Des chercheurs alertent sur les effets des jouets IA”. BFMTV. Mars 2026.
[27] U.S. PIRG Education Fund. “The risks of AI toys for kids”. U.S. PIRG. 7 janvier 2026.
[28] CNIL. “Jouets connectés : quels conseils pour les sécuriser et protéger les données des enfants”. CNIL. 2024.
[29] 5Rights Foundation. “AI Act has potential to transform children’s online experience”. 5Rights Foundation. Septembre 2024.
[30] SoBigData. “Children’s vulnerability in the EU AI Act”. SoBigData.eu. 2024.
[31] Lexology. “Innovation law insights: 26 June 2025”. Lexology. Juin 2025.
[34] China Law Translate. “Provisional measures on the administration of human-like interactive artificial intelligence services (draft)”. China Law Translate. Décembre 2025.
[35] Orben A. “The Sisyphean cycle of technology panics”. Perspectives on Psychological Science. 2020.

