Percée dans le traitement de l’IA : le calcul optique atteint les capacités de la « vitesse de la lumière »

5

Des chercheurs ont dévoilé une nouvelle architecture informatique optique qui pourrait surmonter un goulot d’étranglement critique dans le développement de l’intelligence artificielle (IA) : la vitesse à laquelle les modèles d’IA traitent les données. Cette avancée, publiée dans Nature Photonics, utilise la lumière au lieu de l’électricité pour effectuer des calculs, révolutionnant potentiellement la façon dont les systèmes d’IA sont formés et exploités.

Le goulot d’étranglement du Tensor dans les systèmes d’IA actuels

L’IA moderne s’appuie sur des « tenseurs » : des structures de données complexes qui organisent les informations comme un classeur très efficace. Au fur et à mesure que les modèles d’IA apprennent, ils trient les données selon ces tenseurs. La vitesse à laquelle ces tenseurs peuvent être traités est une limitation fondamentale ; plus le modèle est grand, plus le traitement devient lent. Actuellement, même les systèmes d’IA les plus puissants d’entreprises comme OpenAI et Google nécessitent des milliers d’unités de traitement graphique (GPU) fonctionnant en parallèle pour fonctionner.

Le problème est que la plupart des systèmes informatiques optiques, bien que plus rapides et plus économes en énergie à petite échelle, ne peuvent pas être facilement étendus. Contrairement aux GPU, qui peuvent être enchaînés pour des gains de traitement exponentiels, les systèmes optiques fonctionnent généralement de manière linéaire. Cette limitation les a historiquement rendus moins attractifs pour les développeurs malgré leurs avantages théoriques.

Multiplication matrice-matrice optique parallèle (POMMM)

La nouvelle architecture, appelée Parallel Optical Matrix-Matrix Multiplication (POMMM), contourne ce problème d’évolutivité. Il effectue plusieurs opérations tensorielles simultanément à l’aide d’une seule rafale laser, contrairement aux méthodes optiques précédentes qui nécessitaient des tirs laser répétés. Cela signifie que les systèmes d’IA pourraient théoriquement traiter les données à des vitesses auparavant inaccessibles, tout en réduisant également la consommation d’énergie.

Les chercheurs ont codé les données numériques dans l’amplitude et la phase des ondes lumineuses, les transformant en une propriété physique dans le champ optique. En conséquence, les opérations mathématiques se produisent passivement à mesure que la lumière se propage sans nécessiter de puissance supplémentaire. Les scientifiques affirment que cette approche peut être mise en œuvre sur le matériel optique existant.

Implications pour le développement de l’IA

L’impact potentiel est important. Selon Zhipei Sun, responsable du groupe photonique de l’université Aalto, ce cadre pourrait être intégré aux puces photoniques d’ici trois à cinq ans, permettant aux processeurs basés sur la lumière d’effectuer des tâches d’IA complexes avec une consommation d’énergie extrêmement faible.

Certains experts estiment que cette avancée constitue une étape vers l’intelligence générale artificielle (IAG), un système d’IA hypothétique qui dépasse l’intelligence humaine et apprend dans plusieurs disciplines. Bien que le document de recherche ne mentionne pas explicitement l’AGI, il met l’accent sur l’informatique à usage général. L’idée selon laquelle la mise à l’échelle des techniques d’IA actuelles mènera à l’AGI est populaire parmi certains membres de la communauté informatique. D’autres, comme Yann LeCun de Meta, soutiennent que les architectures d’IA actuelles n’atteindront jamais l’AGI, quelle que soit leur échelle.

Indépendamment du débat sur l’AGI, l’architecture POMMM supprime un goulot d’étranglement majeur dans le domaine. En surmontant les limitations de la vitesse de traitement des tenseurs, les développeurs pourraient créer des modèles d’IA qui dépassent les capacités actuelles. Cela pourrait accélérer les progrès dans divers domaines, de la découverte scientifique à la prise de décision automatisée.

Cette évolution pourrait accélérer le rythme de l’innovation en matière d’IA, refaçonnant potentiellement l’avenir de l’informatique et de l’intelligence artificielle.