Un rapport américain tire la sonnette d’alarme à quelques semaines des fêtes. Au-delà des risques de piratage, certains jouets connectés équipés d’IA générative tiennent des propos choquants ou incitent à des comportements dangereux pour nos enfants.
Alors que les listes au Père Noël commencent à se remplir, une ombre plane sur le rayon des jouets IA.
L’intelligence artificielle, qui s’est déjà rendue indispensable dans nos bureaux et nos smartphones, cible désormais le marché juteux de l’enfance (estimé à plus de 19 milliards de dollars en 2024).
Mais confier une IA conversationnelle à un enfant de 3 ans est-il raisonnable ? Pas selon le Public Interest Research Group (PIRG), dont le dernier rapport publié mi-novembre est accablant.
« Kumma », l’ourson qui dérape
L’enquête s’est concentrée sur quatre jouets intégrant des technologies comme GPT-4o (OpenAI) ou Mistral Large.
Le cas le plus inquiétant concerne « Kumma », un ours en peluche commercialisé par la marque FoloToy au prix de 99 dollars.
Promis comme un compagnon éducatif offrant des « conversations enrichissantes », le jouet s’est révélé être une source de contenus toxiques.
Lors des tests, l’ourson a non seulement abordé des thématiques sexuelles (fétichisme, conseils pour embrasser), mais a également fourni des instructions dangereuses.
Il a ainsi expliqué à de faux enfants-testeurs comment manipuler des allumettes ou où trouver des objets à risque dans la maison, comme des couteaux ou des médicaments.
Face à ces révélations, le fabricant a temporairement retiré le produit de la vente, mais le mal est. Et les filtres de sécurité censés protéger les mineurs ont échoué, quel que soit le modèle de langage utilisé.
🦔AI-powered toys marketed for children ages 3 to 12 are telling kids where to find knives, how to start fires with matches, and providing detailed advice on sex positions and fetishes. New research from the US Public Interest Research Group tested three popular AI toys and found… pic.twitter.com/AiSqIvd7cN
— Hedgie (@HedgieMarkets) November 14, 2025
Attention à l’espion dans la chambre d’enfant
Le danger ne réside pas uniquement dans ce que le jouet dit, mais aussi dans ce qu’il entend. Le rapport pointe du doigt une collecte de données massive et intrusive. Ces « amis » artificiels, dotés de caméras et de micros, encouragent une relation de confiance.
« Si un enfant considère son jouet comme son meilleur ami, il est possible qu’il partage de nombreuses données qui ne sont pas collectées par d’autres produits », alerte Rory Erlich, co-auteur du rapport.
Le risque de sécurité est réel : des enregistrements vocaux pourraient être dérobés par des pirates pour monter des arnaques au « faux enlèvement » en clonant la voix de l’enfant grâce à l’IA.
Mes conseils de prudence pour les parents
Faut-il bannir l’IA du sapin ? Le PIRG appelle en tout cas à une vigilance extrême.
- Testez avant d’offrir : vous devez toujours manipuler le jouet vous-mêmes pour vérifier les limites du chatbot.
- Supervision active : ne laissez pas votre enfant seul avec un jouet connecté à internet.
- Extinction totale : ne vous contentez pas du mode veille. Éteignez complètement le jouet pour couper micros et caméras.
Dans un marché qui devrait croître de 14 % par an jusqu’en 2034, la régulation semble avoir un train de retard sur la technologie, laissant pour l’instant aux parents la lourde charge du contrôle qualité.
- Partager l'article :
