Alors que GoogleGoogle vient de dévoiler Gemini 2.0, son tout dernier grand modèle de langage, la firme a aussi annoncé la disponibilité du processeur qui a servi à son entraînement. Baptisé Trillium, il s’agit d’un Tensor Processing Unit (TPU), un accélérateur d’intelligence artificielle spécialement conçu pour fonctionner avec la bibliothèque d’apprentissage automatique TensorFlow. Il sert à la fois pour l’entraînement de l’intelligence artificielle, ainsi que pour l’inférence, autrement dit son fonctionnement par la suite, comme répondre à des prompts.
La première génération de TPU a été mise en service en 2015 et Trillium représente la sixième génération. Ce processeur est notamment utilisé dans l’AI Hypercomputer de Google Cloud, une architecture de supercalculateur composé « d’un système intégré de matériel aux performances optimisées, de logiciels ouverts, de frameworks d’apprentissage automatique de premier plan et de modèles de consommation flexibles ».
Voici le processeur Google Trillium, un accélérateur d’intelligence artificielle utilisé pour entraîner Gemini. © Google
Trillium disponible dans Google Cloud
Même si ces processeurs sont disponibles pour le grand public, il n’est pas possible de les acheter. Pour s’en servir, il faut passer par la plateforme Google Cloud. Toutefois, grâce à l’augmentation des performances, le coût d’utilisation a baissé. Selon Google, Trillium offre 2,5 fois plus de performance pour l’entraînement des grands modèles de langage par dollar, comparé à la génération précédente.
Google Trillium montre que l’avenir de l’IA ne dépend pas uniquement des grands modèles de langage et autres composants logiciels. Il faudra également les composants matériels spécialisés pour répondre à une demande toujours croissante. Et Google semble être bien parti dans une course contre ses principaux rivaux, notamment les processeurs graphiquesprocesseurs graphiques Nvidia, les Trainium utilisés dans AmazonAmazon Web Services et MicrosoftMicrosoft Azure Maia.