L’intelligence artificielle (IA) est très gourmande en énergie et notamment pendant sa phase d’entraînement. C’est un problème d’une telle ampleur qu’Elon Musk a prédit que le monde manquerait d’électricité pour les IA d’ici à un an. Mais des chercheurs du Cold Spring Harbor Laboratory aux États-Unis ont peut-être trouvé la parade, en s’inspirant du cerveau humain.
« Aussi impressionnants que soient ChatGPT et toutes ces technologies d’IA actuelles, en termes d’interaction avec le monde physique, elles sont encore très limitées. Même dans des domaines comme résoudre des problèmes de mathématiques et rédiger des dissertations, il leur faut s’entraîner sur des milliards et des milliards d’exemples avant de pouvoir les faire correctement », a expliqué Kyle Daruwalla, l’auteur principal de l’article publié dans la revue Frontiers in Computational Neuroscience.
Comparaison d’un réseau neuronal classique (A) avec une nouvelle approche (B) qui permet un retour d’informations à chaque couche du réseau. © CSHL
Une mémoire de travail pour permettre la mise à jour des synapses
Pour lui, le problème se situe au niveau du déplacement des données. Les réseaux neuronaux artificiels sont composés de milliards de connexions, et les données doivent traverser des circuits complets avant que le modèle ne se mette à jour. Avec cette nouvelle approche, chaque neurone artificiel reçoit un retour grâce à un réseau de mémoire auxiliaire et peut être modifié en temps réel.
Cela crée une connexion directe entre la mémoire de travail et les mises à jour synaptiques, apportant un nouvel élément de preuve à une théorie non prouvée en neurosciences qui lie la mémoire du travail à l’apprentissage et la performance académique. Cette nouvelle approche pourrait donc réduire considérablement la puissance de calcul et par conséquent l’énergie nécessaire pour le fonctionnement des intelligences artificielles.