Nvidia affirme que l’évolution de ses puces a largement dépassé la loi de Moore

Author:

Un phénomène curieux existe dans le monde high-tech. Tous les deux ans, le nombre de transistors sur un microprocesseur est doublé, à coût constant. Peu importe les avancées technologiques, le rythme est maintenu, et ce depuis plus de soixante ans. Ce phénomène porteporte le nom de « loi de Moore », d’après la prédiction faite par Gordon E. Moore en 1965.

Toutefois, pour Jensen Huang, président de Nvidia, la loi de Moore ne s’appliquerait plus aux puces conçues par l’entreprise pour l’intelligence artificielle, qui évolueraient à un rythme bien plus rapide. Lors de son keynote au Consumer Electronics Show à Las VegasVegas (CES 2025), l’homme a affirmé : « Nos systèmes progressent bien plus vite que la loi de Moore. » La dernière puce à destination des centres de donnéescentres de données pour le fonctionnement des grands modèles de langage serait 30 fois plus rapide que la génération précédente.

Suivez le keynote complet de Jensen Huang au CES 2025. (En anglais, activez la traduction automatique des sous-titres.) © Nvidia

Une augmentation des performances pour l’intelligence artificielle

« Nous pouvons construire l’architecture, la puce, le système, les bibliothèques et les algorithmes en même temps, a ajouté Jensen Huang. Si vous faites cela, vous pouvez avancer plus vite que la loi de Moore, parce que vous pouvez innover sur l’ensemble de la chaîne de production. » Il avait déjà suggéré entre outre une « hyper loi de Moore », où l’inférence, autrement dit le fonctionnement quotidien de l’IA par opposition à son entraînement, connaîtrait une évolution similaire. Une augmentation des performances permettra de réduire le coût de l’inférence.

La nouvelle puce de Nvidia est la GB200 NVL72, initialement annoncée au mois de mars 2024. Elle est basée sur l’architecture Blackwell, la même que celle utilisée pour les nouvelles cartes graphiquescartes graphiques RTX série 50, et remplace les puces H100 et H200 à base d’architecture Hopper. La GB200 NVL72 serait 30 à 40 fois plus rapide pour les tâches d’inférence et 1 000 plus rapide que les puces fabriquées par le constructeur il y a dix ans.

Pour Jensen Huang, cette accélération bien plus rapide que ce que prévoit la loi de Moore permettra de réduire les coûts de fonctionnement de l’IA, notamment pour les modèles plus sophistiqués, comme o3 d’OpenAI, qui nécessitent beaucoup de puissance de calcul pendant la phase d’inférence.

Leave a Reply

Your email address will not be published. Required fields are marked *