Fotonische processoren: hoe rekenen met licht AI-inferentie versnelt (2025)

Lichtgebaseerde inferentie

Fotonische processoren zijn niet langer een puur academische curiositeit. In 2025 hebben verschillende bedrijven en onderzoeksgroepen laten zien dat licht bepaalde berekeningen achter neurale netwerken sneller en met minder energie kan uitvoeren dan volledig elektronische benaderingen—vooral bij de matrixvermenigvuldigingen die inferentie domineren. Het kernidee is eenvoudig: in plaats van elektronen door transistors te sturen om getallen te vermenigvuldigen en op te tellen, codeer je waarden in licht en laat je optische interferentie het zware werk doen. Wat dit vandaag praktisch maakt, is het omliggende ecosysteem: volwassen silicon photonics, betere packaging, optische interconnect-chiplets en een duidelijker begrip van waar fotonica echt beter is dan GPU’s en waar niet.

Waarom licht beter kan presteren dan elektronen bij inferentiewerkbelasting

De meeste moderne AI-inferentie—of het nu gaat om een taalmodel dat tokens genereert of een visiemodel dat beelden classificeert—komt neer op lineaire algebra. In de praktijk betekent dit grote matrixvermenigvuldigingen die miljoenen keren worden herhaald. Fotonica is hier van nature sterk in, omdat interferentie en faseshifts vermenigvuldig-en-accumuleerbewerkingen parallel kunnen representeren. In plaats van elke vermenigvuldiging elektronisch uit te voeren, kan een optisch circuit veel “gewichten” tegelijk toepassen terwijl een lichtbundel door een netwerk van interferometers loopt. Het resultaat is geen magie; het is natuurkunde die analoge berekeningen doet met extreem hoge bandbreedte.

Dit natuurkundige voordeel komt tot uiting op twee punten die voor operators tellen: throughput en energie per bewerking. Optische signalen kunnen zich voortplanten en mengen met zeer hoge effectieve snelheden en—belangrijker nog—informatie verplaatsen met licht kost vaak minder energie dan dezelfde bandbreedte door lange koperen sporen sturen. Daarom is het fotonica-verhaal in 2025 nauw verbonden met dataverplaatsing: zelfs wanneer de berekening hybride is (optisch + elektronisch), kan het verlagen van de kosten voor het transport van activaties en gewichten de inferentie-efficiëntie in een rack merkbaar verbeteren.

Het voordeel is echter afhankelijk van het type workload. Fotonische compute is het sterkst wanneer de taak wordt gedomineerd door dense lineaire lagen en wanneer het systeem de optische kern continu van data kan voorzien. Als het model veel tijd besteedt aan niet-lineaire functies, sparse bewerkingen, vertakkende logica of frequente precisieconversies, kunnen de winsten snel slinken, omdat elektronica nog steeds de control flow moet afhandelen en de resultaten moet “opruimen”.

Hoe fotonische matrixvermenigvuldiging in de praktijk werkt

Veel fotonische AI-engines maken gebruik van Mach–Zehnder-interferometer (MZI)-matrices. Eenvoudig gezegd werkt een MZI als een instelbare “knop” die bepaalt hoe twee lichtpaden samenkomen. Plaats duizenden van zulke knoppen in een mesh en je kunt een matrixtransformatie implementeren: inputs worden gecodeerd in lichtintensiteiten of -fasen, de mesh past de gewichtenmatrix toe via interferentie en detectoren lezen de output weer uit naar elektronica. Daarom wordt fotonische compute vaak als analoog beschreven: de fysica representeert continue waarden, zelfs als het digitale systeem eromheen die als getallen behandelt.

Omdat het optische deel analoog is, is kalibratie belangrijk. Temperatuurdreiging, fabricagetoleranties en laserstabiliteit beïnvloeden allemaal de nauwkeurigheid. In systemen van 2025 wordt dit meestal opgevangen met feedbacklussen, periodieke herkalibratie en mixed-precision strategieën—waarbij fotonica het gros van de vermenigvuldiging doet en elektronica de compensatie, schaling en foutcontrole verzorgt. Dit is minder een zwakte dan een technische realiteit: je ruilt extra complexiteit in kalibratie voor een lagere fundamentele energiekost van de kern-lineaire algebra.

Een ander praktisch punt is precisie. Fotonische compute is vaak het aantrekkelijkst voor inferentie op lagere precisie (bijvoorbeeld formaten die in effectieve nauwkeurigheid vergelijkbaar zijn met 8-bit of lager), omdat veel uitgerolde modellen quantisatie tolereren. De trend richting quantised inference helpt fotonica: als je productiestack al is afgestemd op efficiënte, enigszins ruisgevoelige rekenkunde, passen fotonische accelerators daar natuurlijker in dan in een wereld waar alles strikte floating-point-eisen heeft.

Hoe “echte” fotonische processoren er in 2025 uitzien

De nuttigste manier om fotonica in 2025 te begrijpen is het onderscheid tussen twee categorieën: (1) fotonische compute-engines die delen van de neurale-netwerkberekeningen met licht uitvoeren en (2) optische interconnect-technologie die data tussen chips met licht verplaatst. Beide kunnen inferentie versnellen, maar op verschillende manieren. Compute-engines richten zich op het verlagen van energie en tijd voor matrixbewerkingen. Optische interconnect richt zich op het verlagen van energie en latency van het verplaatsen van tensors tussen GPU’s, geheugen en accelerators—vaak de verborgen bottleneck in opgeschaalde inferentie-uitrol.

Aan de compute-kant heeft Lightmatter Envise gepositioneerd als een fotonisch computingsysteem voor AI-workloads, expliciet gericht op prestaties en energie-efficiëntie. Het bedrijf presenteert Envise als een fotonisch computingproduct voor neurale netwerken, wat aangeeft dat fotonica wordt verpakt als een inzetbaar systeem in plaats van een labdemo.

Aan de interconnect-kant worden optische chiplets steeds serieuzer genomen. Ayar Labs heeft bijvoorbeeld een UCIe-optical-chipletbenadering aangekondigd voor AI scale-up architecturen, met als doel accelerators op zeer hoge bandbreedte te laten communiceren over afstanden die met koper bij vergelijkbaar vermogen lastig worden. In de praktijk kan dit leiden tot betere benutting: minder wachten op data, meer tijd voor inferentie.

Interconnect-eerst fotonica: inferentiesystemen laten schalen

Grote inferentieclusters worden steeds vaker begrensd door dataverplaatsing. Naarmate modellen groeien, heb je vaak modelparallellisme, tensorparallellisme of pipelineparallellisme nodig—zelfs voor inferentie—omdat de gewichten niet meer netjes op één device passen. Daardoor wordt de “fabric” tussen devices een performancefactor van de eerste orde. Optische links kunnen helpen omdat ze hoge bandbreedte leveren met minder verlies over afstand en sommige signaalintegriteitsproblemen vermijden die ontstaan wanneer je koper tot het uiterste pusht.

De optical I/O-richting van Ayar Labs is ontworpen voor integratie in chiplet-ecosystemen, wat belangrijk is omdat de industrie standaardiseert richting chiplet-gebaseerde packaging. Hun boodschap in 2025 draait om optical I/O-chiplets voor AI scale-up, een teken dat fotonica wordt gericht op gangbare systeemarchitecturen in plaats van niche, op maat gemaakte machines.

Lightmatter heeft ook fotonische interconnect benadrukt met producten zoals Passage, waaronder aankondigingen rond de Passage M1000 en gerelateerde componenten voor zeer snelle chip-to-chip links. De reden dat dit voor inferentie telt is simpel: zodra het model over devices is geshard, kan je effectieve tokens-per-seconde net zo goed een netwerkprobleem worden als een computeprobleem.

Lichtgebaseerde inferentie

Uitrol in de praktijk: kosten, toolchains en waar fotonica het beste past

Voor de meeste teams is de lastige vraag niet “Is fotonica snel?”, maar “Waar loont het?” In 2025 zijn fotonische accelerators het overtuigendst in scenario’s waarin inferentie wordt gedomineerd door dense lineaire lagen, waarin energiekosten een primaire beperking zijn (bijvoorbeeld datacenters die tegen power ceilings aanlopen) en waarin de operator de benutting hoog kan houden. Als een fotonische kern stilvalt doordat hij op data wacht of te veel tijd kwijt is aan conversies tussen representaties, verandert het theoretische natuurkundige voordeel in een duur experiment.

Toolchains verbeteren, maar blijven een aandachtspunt. Fotonische compute vereist vaak het mappen van neurale netwerklagen naar optische meshes, het beheren van quantisatiestrategieën en het afhandelen van kalibratie. Dat betekent dat de softwarestack de juiste abstracties moet bieden: een compiler die weet hoe optische GEMM’s (matrixvermenigvuldigingen) te plannen, runtime-ondersteuning voor kalibratie en duidelijke performancemodellen zodat engineers kunnen voorspellen wanneer een laag optisch moet draaien versus elektronisch. Organisaties die al zwaar investeren in inferentie-optimalisatie—quantisatie, kernel fusion, memory planning—zijn meestal het best gepositioneerd om fotonica realistisch te evalueren.

Er is ook een hybride toekomst. Veel “fotonische” systemen zijn geen volledig optische computers; het zijn gemengde systemen. Elektronica blijft nodig voor control, non-linearities, geheugenadressering en delen van de accumulatiepipeline. In de praktijk is het waarschijnlijkste patroon op korte termijn dat fotonica de zwaarste lineaire algebra versnelt, terwijl geavanceerde packaging en optical I/O de kosten van dataverplaatsing binnen multi-chip systemen verlagen.

Praktische checklist voor engineers in 2025

Kwantificeer eerst of je inferentieworkload echt matrix-bound is. Als profiling laat zien dat de meeste tijd en energie naar dense GEMM’s en het geheugenverkeer dat ze voedt gaat, zijn fotonische benaderingen het onderzoeken waard. Als de workload juist wordt gedomineerd door attention-overhead, onregelmatige geheugenaccess, routinglogica of significante post-processing, dan kan een optische compute-kern beperkte winst opleveren—ook al kunnen optische links op clusterniveau nog steeds helpen.

Evalueer vervolgens het integratierisico. Fotonische compute introduceert kalibratie en gevoeligheid voor omgeving, dus je hebt een plan nodig voor monitoring en onderhoud. Als je datacenteroperaties periodieke kalibratiecycli kunnen ondersteunen en je een helder betrouwbaarheidsscenario hebt, wordt fotonica realistischer. Onderzoek en industriële coverage in 2025 benadrukken herhaaldelijk dat schaalbare, duurzame AI-hardware samenhangt met fotonische geïntegreerde circuits, maar dat de engineeringbelasting niet triviaal is.

Ten slotte: overweeg het interconnect-pad, zelfs als je niet meteen fotonische compute adopteert. Optical I/O-chiplets en silicon photonics voor links kunnen tastbare voordelen bieden door energie en latency van dataverplaatsing te verlagen. Intel is bijvoorbeeld publiek geweest over vooruitgang in silicon photonics voor high-bandwidth optische interconnect-bouwstenen, wat laat zien hoeveel aandacht de industrie geeft aan optische connectiviteit naarmate AI-systemen schalen.