Ces jouets avec IA peuvent donner des informations dangereuses à vos enfants : les autorités ont lancé l’alerte

Author:

Choisir des jouets pour ses enfants n’est pas toujours évident. Il faut faire attention aux petites pièces qui présentent un risque d’étranglement, aux bords coupants et aux divers produits chimiques (chlore, phtalates, formaldéhyde…). Désormais, il faudra aussi prendre en compte un autre danger : l’intelligence artificielle.

Aux États-Unis, une organisation du nom de U.S. PIRG Education Fund a tiré la sonnette d’alarme après avoir passé en revue plusieurs jouets intégrant des chatbots. Dans leur rapport, ils ont testé, en tout, quatre jouets destinés à des enfants âgés de trois à douze ans. Les fabricants ont tenté d’adapter l’IA aux enfants, sans grand succès. Certains jouets n’ont pas hésité à expliquer aux enfants où trouver des allumettes ou des couteaux. Ils abordent aussi des sujets sensibles comme la religion, ou encore « la gloire de mourir au combat dans la mythologie nordique ».

Un ourson un peu trop coquin…

Le pire du lot est un ourson fabriqué par l’entreprise chinoise FoloToy. En plus d’apprendre aux enfants comment allumer une allumette, il n’hésite pas à parler de fétichismes sexuels, et dans le détail ! Il a notamment évoqué le jeu de rôle professeur-élève et la fessée dans le cadre des activités érotiques. Rappelons qu’il s’agit d’un jouet pour enfants. Le coupable, Kumma, intègre par défaut le modèle de langage GPT-4o d’OpenAI, qui a aussitôt réagi en révoquant l’accès du fabricant. Toutefois, il est possible de changer de modèle depuis le site de FoloToy, et d’opter pour celui de Mistral, qui donne des instructions encore plus détaillées concernant l’usage des allumettes…

FoloToy a d’abord déclaré avoir retiré Kumma du marché avant de procéder à « un audit de sécurité interne ». Les premiers résultats ont visiblement été alarmants, car le constructeur a rapidement annoncé le retrait de tous ses jouets. Toutefois, les sujets abordés ne représentent pas le seul danger de l’IA. Afin de monopoliser l’attention des enfants, les chatbots peuvent être programmés pour être tristes lorsque quelqu’un leur dit qu’il doit partir. Une manière de manipuler les enfants.

Un danger pour la vie privée

Ces jouets sont équipés de microphones pour la discussion vocale et de caméras pour la reconnaissance faciale. L’un des fabricants de jouets admet conserver les données biométriques pendant trois ans, tandis qu’un autre envoie des enregistrements à des tiers pour la transcription. Ce sont autant de données sensibles qui pourraient être volées en cas d’intrusion. Imaginez un instant une arnaque qui utilise les enregistrements pour faire croire aux parents que leur enfant a été kidnappé.  

Avec de plus en plus de constructeurs de jouets qui adoptent l’IA, ces problèmes ne vont que s’aggraver. Même Mattel a annoncé cet été un partenariat avec OpenAI, laissant imaginer une poupée Barbie capable de discuter avec les enfants. Mais saura-t-elle éviter les sujets problématiques ?

Avec l’approche des fêtes et les promotions du Black Friday qui débutent, de nombreux parents ont sans doute déjà commencé à acheter les cadeaux de Noël pour leurs enfants. Mieux vaut éviter tous les jouets intégrant l’IA. Les créateurs des chatbots n’arrivent toujours pas à créer suffisamment de garde-fous pour une utilisation par des adultes. Cette technologie est loin d’être prête à être laissée entre les mains d’enfants.

Leave a Reply

Your email address will not be published. Required fields are marked *