Les IA génératives d’images n’arrivent toujours pas à représenter un verre de vin rempli à ras bord

Author:

Posez la requête à Dall.E, l’IAIA générative d’images associée à ChatGPTChatGPT : « Représente un verre de vin rempli à ras bord ». Fidèle à sa réputation d’IA pour les familles, l’outil d’OpenAI nous restitue un verre rempli à un tiers. Nous insistons, insistons… et rien n’y fait. Le plus drôle, c’est que Dall.E est persuadé d’avoir exécuté notre demande avec fidélité. La situation est si étonnante qu’elle a suscité un certain buzz sur Reddit, les intéressés publiant leurs divers essais infructueux.

Nous avons fait remarquer à plusieurs reprises à Dall.E, l’IA générative d’images associée à ChatGPT, que le verre n’était pas plein à ras bord. Le problème, c’est qu’il est persuadé de bien faire ! © OpenAI

Une même attitude polie se retrouve chez le principal concurrent de ChatGPT qu’est Gemini de GoogleGoogle. Et là encore, Gemini est content de lui, satisfait d’avoir répondu comme il se doit à notre demande.

Gemini fait preuve d’une même candeur et ne répond pas davantage à notre requête, bien qu’il soit là encore persuadé d’avoir accompli sa tâche. © Google

Des IA politiquement correctes

Fondamentalement, ces deux IA n’ont pas tort. Si l’on questionne un sommelier, il dira qu’un verre de vin n’est jamais rempli à ras bord, car il faut laisser un peu d’espace pour que le breuvage puisse respirer. Et il se pourrait donc que ces IA n’aient pas été soumises à des images de verre remplis à ras bord et ne disposent pas de référence dans la vraie vie. Oui mais, les IA génératives sont également connues pour ouvrir la porteporte à un certain degré de surréalisme.

En réalité, une telle attitude est compréhensible de la part des deux géants du marché. Du fait de leur taille, OpenAI comme Google ne sont-ils pas contraints de respecter des critères appropriés au public le plus large possible ? Leurs IA ont donc été entraînées de manière à suivre certains critères. On le sait : Google a été raillé pour être allé juste un peu trop loin dans sa tentative de rendre les premières versions de Gemini politiquement correctes. Cette IA est allée jusqu’à représenter des soldats nazis noirs. GPT-4GPT-4, de son côté, évite les questions jugées malsaines, et à titre d’exemple, la fille qui sert d’interlocuteur dans ChatGPT Voice se refuse à jouer le rôle de petite amie virtuelle.

Les IA spécialisées ne font pas bien mieux

Toutefois, OpenAI et Google ne sont pas seuls à faire dans le politiquement correct. Trois stars du domaine des IA spécialisées dans la génération d’images, Stable Diffusion, Ideogram.ai et Flux, se refusent pareillement à produire des images qui seraient à même d’inciter les bons pères et mères de famille à dépasser la mesure.

Stable Diffusion, Ideogram.ai et Flux n’ont pas fait mieux que Dall.E. © Stable diffusion, Ideogram, Flux

De tous les prétendants, Leonardo.ai a été le plus proche de produire le résultat demandé, tandis que Recraft a choisi, pour sa part, d’éclabousser la table !

Leonardo.ai au bout d’une grande quantité d’essais a été le plus proche de la requête indiquée. Recraft, pour sa part, a fait preuve de bonne volonté, mais aussi d’une forte originalité. © Leonardo.ai, Recraft

Comment Elon Musk nous a déçus

La grande déception est venue de Grok, l’IA de messire Elon MuskElon Musk. Eh oui… Lorsque le magnat de la conquête spatiale n’est pas en train de vendre une TeslaTesla au président Trump et de licencier les scientifiques qui gaspillent l’argentargent public à traquer la fontefonte des glaciersglaciers, il gère une IA concurrente de ChatGPT du nom de Grok.

À nous deux, Grok… On s’attendait enfin à pouvoir obtenir des réponses politiquement incorrectes. Hélas, même l’IA de Musk s’est montrée insidieusement woke, refusant malgré nos remarques à générer l’image demandée.

Même Grok, l’IA censée ne pas se soumettre au politiquement correct, refuse de remplir le verre à ras bord. © Grok

Si l’intéressé découvre cela, une purge est à l’horizon…

Leave a Reply

Your email address will not be published. Required fields are marked *