Les processeurs photoniques ne sont plus une curiosité réservée aux laboratoires. En 2025, plusieurs entreprises et équipes de recherche ont démontré que la lumière peut exécuter une partie des calculs nécessaires aux réseaux de neurones plus vite et avec moins d’énergie que les approches purement électroniques — surtout pour les multiplications matricielles qui dominent l’inférence. L’idée centrale est simple : au lieu de faire circuler des électrons dans des transistors pour multiplier et additionner des valeurs, on encode les données dans la lumière et l’on laisse l’interférence optique réaliser l’essentiel du travail. Ce qui rend cette approche crédible aujourd’hui, c’est tout l’écosystème : la maturité de la photonique sur silicium, les progrès de l’assemblage, l’essor des chiplets d’interconnexion optique, ainsi qu’une compréhension plus claire des scénarios où la photonique dépasse réellement les GPU — et de ceux où elle ne le fait pas.
La plupart des inférences IA modernes — qu’il s’agisse d’un modèle de langage générant des tokens ou d’un modèle de vision classant des images — se résument à de l’algèbre linéaire. Concrètement, cela signifie de grandes multiplications de matrices répétées des millions de fois. La photonique y excelle naturellement, car l’interférence et les déphasages peuvent représenter des opérations de type multiply-and-accumulate en parallèle. Au lieu d’exécuter chaque multiplication électroniquement, un circuit optique peut appliquer de nombreux « poids » en une seule fois lorsqu’un faisceau traverse un maillage d’interféromètres. Le résultat n’est pas de la magie : c’est la physique qui effectue un calcul analogique à très haut débit.
Cet avantage physique apparaît surtout dans deux domaines qui comptent pour l’exploitation : le débit et l’énergie par opération. Les signaux optiques se propagent et se combinent à des vitesses effectives très élevées, et — point crucial — déplacer de l’information avec la lumière coûte souvent moins d’énergie que de la déplacer sur de longues pistes en cuivre à bande passante équivalente. C’est pourquoi, en 2025, la photonique est intimement liée au problème du mouvement de données : même lorsque le calcul est hybride (optique + électronique), réduire le coût du transport des activations et des poids peut améliorer sensiblement l’efficacité de l’inférence à l’échelle d’un rack.
Cependant, le bénéfice dépend fortement du type de charge de travail. Le calcul photonique est particulièrement performant quand le traitement est dominé par des couches denses et lorsque le système parvient à alimenter le cœur optique en données sans interruption. Si le modèle passe beaucoup de temps sur des fonctions non linéaires, des opérations clairsemées, de la logique conditionnelle ou des conversions de précision fréquentes, les gains diminuent rapidement, car l’électronique doit encore gérer le contrôle et « nettoyer » les résultats.
De nombreux moteurs IA photoniques reposent sur des maillages d’interféromètres Mach–Zehnder (MZI). De façon simple, un MZI peut agir comme un « bouton » réglable qui modifie la manière dont deux chemins optiques se combinent. En organisant des milliers de ces boutons en réseau, on peut implémenter une transformation matricielle : les entrées sont encodées dans l’intensité ou la phase de la lumière, le maillage applique la matrice de poids par interférence, puis des détecteurs reconvertissent la sortie en signaux électroniques. C’est pour cela que l’on qualifie souvent ce calcul d’analogique : la physique manipule des valeurs continues, même si le système numérique autour les traite comme des nombres.
Comme la partie optique est analogique, l’étalonnage est essentiel. Les variations de température, les tolérances de fabrication et la stabilité des lasers influencent la précision. Dans les systèmes de 2025, cela se gère généralement via des boucles de rétroaction, des recalibrations périodiques et des stratégies de précision mixte — la photonique effectue la multiplication principale, tandis que l’électronique s’occupe de la compensation, du changement d’échelle et du contrôle d’erreur. Ce n’est pas une faiblesse, mais une réalité d’ingénierie : on accepte une complexité supplémentaire d’étalonnage pour réduire le coût énergétique fondamental de l’algèbre linéaire.
Un autre point pratique concerne la précision. Le calcul photonique est souvent plus attractif pour l’inférence à précision réduite (par exemple, des formats dont la précision effective se rapproche du 8 bits ou moins), car de nombreux modèles déployés tolèrent la quantification. La tendance industrielle vers l’inférence quantifiée aide la photonique : si votre pile de production est déjà optimisée pour une arithmétique efficace et légèrement bruitée, les accélérateurs photoniques s’intègrent plus naturellement que dans un contexte où tout exige un comportement strictement flottant.
La manière la plus utile de comprendre la photonique en 2025 consiste à distinguer deux catégories : (1) les moteurs de calcul photoniques qui exécutent une partie des opérations des réseaux de neurones grâce à la lumière, et (2) les technologies d’interconnexion optique qui déplacent des données entre puces via la lumière. Les deux peuvent accélérer l’inférence, mais par des mécanismes différents. Les moteurs de calcul cherchent à réduire l’énergie et le temps consommés par les opérations matricielles. L’interconnexion optique vise à réduire l’énergie et la latence liées au transfert de tenseurs entre GPU, mémoire et accélérateurs — souvent le goulot d’étranglement caché lorsque l’on met l’inférence à l’échelle.
Côté calcul, Lightmatter a positionné Envise comme un système de calcul photonique conçu pour les charges de travail IA, en visant explicitement les performances et l’efficacité énergétique. L’entreprise présente Envise comme un produit de calcul photonique pour les réseaux de neurones, ce qui montre que la photonique se transforme en solution déployable plutôt qu’en démonstration de laboratoire.
Côté interconnexion, les chiplets optiques deviennent un thème majeur. Ayar Labs, par exemple, a annoncé une approche de chiplet optique UCIe destinée aux architectures de scale-up pour l’IA, avec l’objectif de maintenir une communication à très haute bande passante entre accélérateurs sur des distances où le cuivre serait pénalisant à puissance équivalente. En pratique, cela peut améliorer l’utilisation : moins d’attente de données, plus de temps consacré à l’inférence.
Les grands clusters d’inférence sont de plus en plus limités par le mouvement de données. À mesure que les modèles grandissent, on doit souvent recourir au parallélisme de modèle, au parallélisme tensoriel ou au pipeline parallelism — même en inférence — car les poids ne tiennent plus facilement sur un seul dispositif. Cela rend le tissu de communication entre dispositifs déterminant pour les performances. Les liens optiques peuvent aider, car ils offrent une bande passante élevée avec moins de pertes sur la distance, et ils évitent une partie des problèmes d’intégrité de signal qui apparaissent quand on pousse le cuivre à l’extrême.
La direction « optical I/O » d’Ayar Labs est pensée pour s’intégrer dans les écosystèmes de chiplets, ce qui compte parce que l’industrie se standardise autour de l’assemblage par chiplets. Leur communication en 2025 met l’accent sur des chiplets d’E/S optiques pour le scale-up IA, signe que la photonique vise des architectures systèmes grand public plutôt que des machines de niche.
Lightmatter a également mis en avant l’interconnexion photonique avec des produits comme Passage, avec des annonces autour de Passage M1000 et de composants associés destinés à des liens puce-à-puce très haut débit. Pour l’inférence, l’intérêt est clair : une fois le modèle fragmenté sur plusieurs dispositifs, votre débit effectif (tokens par seconde) peut devenir un problème de réseau autant qu’un problème de calcul.

Pour la plupart des équipes, la vraie question n’est pas « la photonique est-elle rapide ? », mais plutôt « quand est-ce rentable ? ». En 2025, les accélérateurs photoniques sont les plus convaincants quand l’inférence est dominée par des couches linéaires denses, quand le coût énergétique est une contrainte majeure (par exemple, des centres de données qui atteignent des plafonds de puissance), et lorsque l’opérateur peut maintenir une forte utilisation. Si un cœur photonique reste inactif en attendant des données ou passe trop de temps à convertir les représentations, l’avantage théorique se transforme en projet coûteux et peu utile.
Les toolchains progressent, mais restent un point important. Le calcul photonique implique souvent de mapper des couches de réseau sur des maillages optiques, de gérer des stratégies de quantification et de piloter l’étalonnage. Cela signifie que la pile logicielle doit exposer les bonnes abstractions : un compilateur capable de planifier des GEMM optiques (multiplications matricielles), un runtime pour l’étalonnage, et des modèles de performance clairs afin que les ingénieurs puissent décider si une couche doit tourner en optique ou en électronique. Les organisations qui investissent déjà dans l’optimisation de l’inférence — quantification, fusion de kernels, planification mémoire — sont généralement les mieux placées pour évaluer la photonique avec sérieux.
Il existe aussi un futur hybride. De nombreux systèmes dits « photoniques » ne sont pas des ordinateurs purement optiques ; ce sont des systèmes mixtes. L’électronique continue de gérer le contrôle, les non-linéarités, l’adressage mémoire et une partie du pipeline d’accumulation. En pratique, le scénario le plus probable à court terme est que la photonique accélère l’algèbre linéaire la plus lourde, tandis que l’assemblage avancé et l’E/S optique réduisent le coût du déplacement des données dans un système multi-puces.
D’abord, vérifiez si votre charge d’inférence est réellement limitée par les matrices. Si votre profilage montre que la majeure partie du temps et de l’énergie est dépensée dans des GEMM denses et le trafic mémoire qui les alimente, les approches photoniques méritent une étude. Si, au contraire, la charge est dominée par la surcharge d’attention, des accès mémoire irréguliers, de la logique de routage ou un post-traitement important, l’intérêt d’un cœur optique peut rester limité — même si les liens optiques peuvent aider à l’échelle du cluster.
Ensuite, évaluez le risque d’intégration. Le calcul photonique introduit un besoin d’étalonnage et une sensibilité à l’environnement ; il faut donc un plan de surveillance et de maintenance. Si vos opérations de centre de données peuvent supporter des cycles de recalibrage périodiques et que vous disposez d’une trajectoire claire en matière de fiabilité, la photonique devient bien plus réaliste. Les analyses de recherche et la couverture industrielle en 2025 soulignent régulièrement que le matériel IA évolutif et durable est lié aux circuits photoniques intégrés, mais la charge d’ingénierie reste non négligeable.
Enfin, envisagez la voie interconnexion même si vous n’adoptez pas immédiatement le calcul photonique. Les chiplets d’E/S optiques et la photonique sur silicium pour les liens peuvent apporter des bénéfices concrets en réduisant l’énergie et la latence du mouvement de données. Intel, par exemple, a communiqué publiquement sur des avancées en photonique sur silicium pour des blocs d’interconnexion optique à très grande bande passante, ce qui illustre l’attention portée par l’industrie à la connectivité optique à mesure que les systèmes IA se développent.