Santé publique aux États-Unis : l’IA voulue par Trump choque déjà par ses réponses

Author:

À l’image de sa politique, l’administration Trump est fan des IA débridées. Faire sauter leurs verrous éthiques pour les rendre moins « woke » était même le souhait du président en dernière ligne droite des élections de 2024. Son vœu est exaucé et parmi les IA choyées par son administration, il y a Grok d’xAI, le chatbot irrévérencieux d’Elon Musk.

L’IA fait la polémique en ce moment en raison de sa propension à générer des contenus pornographiques, voire pédopornographiques. Et pourtant, l’IA débridée et permissive de Musk est en bonne voie pour avoir accès aux systèmes classifiés du Pentagone. Le secrétaire d’État de la défense a en effet déclaré envisager une IA militaire fonctionnant « sans contraintes idéologiques limitant les applications militaires légitimes ». La place devrait d’ailleurs bientôt être libérée pour Grok, puisque Claude d’Anthropic, qui est utilisé par l’armée, est sur la sellette. Pour des raisons d’éthique, la start-up refuse de laisser l’armée américaine faire ce qu’elle veut avec son IA. Elle ne veut pas qu’elle serve à gérer des armes de façon autonome ou à des fins d’espionnage envers les Américains.

Lire l’article

En attendant que Grok devienne un génie maléfique militaire, l’IA s’est déjà fait sa place à sa façon comme outil de santé publique.

Les conseils alimentaires de Grok

L’IA de Grok est maintenant directement intégrée à un site officiel destiné à promouvoir de nouvelles recommandations alimentaires pour la population américaine. Les citoyens sont invités à poser leurs questions nutritionnelles à l’IA pour « obtenir de vraies réponses sur la vraie nourriture ». L’outil est présenté comme un assistant capable d’aider à planifier les repas ou faire ses courses via le site realfood.gov.

Mais très vite, Grok étant Grok, les tests ont montré ses limites. L’expérience tourne déjà à la controverse et parfois au ridicule. Des journalistes ont ainsi démontré qu’il suffisait de formuler certaines requêtes pour que le chatbot délivre des conseils totalement hors sujet, voire potentiellement dangereux sur l’usage de certains aliments.

Le chatbot, lui-même, contredit parfois la ligne officielle du ministère. Cette stratégie nutritionnelle discutable défendue par Robert F. Kennedy promeut une alimentation très riche en protéines, essentiellement à base de bœuf. Or, des tests ont montré que Grok recommandait des sources de protéines végétales ou maigres et conseille de limiter la viande rouge.

C’est sur le site de l’administration américaine chargée des questions nutritionnelles que l’IA de Grok répond aux questions. Les réponses ne sont pas forcément celles que le gouvernement espérait… © Futura

Des aliments à insérer…

Dans certains cas, Grok – sans doute dans un sursaut de lucidité – est allé jusqu’à remettre en cause la solidité scientifique des nouvelles orientations nutritionnelles, estimant qu’elles reposent en partie sur des choix politiques plutôt que sur un consensus scientifique.

Mais les dérives sont encore plus spectaculaires lorsqu’on lui pose des questions absurdes ou provocatrices. Par exemple, il propose des listes détaillées d’objets alimentaires « adaptés » à l’insertion d’aliments via l’anus. Il livre même les instructions de préparation. Comme le montre le média 404, l’outil peut également répondre à des questions extrêmes, comme identifier la partie du corps humain la plus nutritive.

Lire l’article

Outre le ridicule, cette situation illustre surtout l’absence de garde-fous et la mauvaise intégration de cette IA sans filtre dans un service public de santé. En voulant moderniser à marche forcée la santé publique grâce à une intelligence artificielle débridée, Washington teste en réalité les limites d’un outil encore instable. On imagine les dégâts si Grok est employé de la même façon pour qu’un « robot tueur » décide de la vie ou de la mort.

Leave a Reply

Your email address will not be published. Required fields are marked *