Photonic-Prozessoren: Wie Rechnen mit Licht KI-Inferenz beschleunigt (2025)

Lichtbasierte Inferenz

Photonic-Prozessoren sind längst keine reine akademische Idee mehr. Bis 2025 haben mehrere Unternehmen und Forschungsteams gezeigt, dass Licht bestimmte Rechenaufgaben neuronaler Netze schneller und oft energieeffizienter erledigen kann als rein elektronische Ansätze – insbesondere bei Matrixmultiplikationen, die den Grossteil der Inferenz ausmachen. Die Grundidee ist einfach: Statt Elektronen durch Transistoren zu treiben, um Zahlen zu multiplizieren und zu akkumulieren, werden Werte in Lichtsignale kodiert, und optische Interferenz übernimmt einen grossen Teil der Rechenarbeit. Praktikabel wird das heute vor allem durch das Umfeld: ausgereifte Siliziumphotonik, bessere Packaging-Technologien, optische Interconnect-Chiplets und ein klareres Verständnis dafür, wo Photonik tatsächlich Vorteile gegenüber GPUs bringt – und wo nicht.

Warum Licht Elektronen bei Inferenz-Workloads übertreffen kann

Die meisten modernen KI-Inferenzprozesse – egal ob ein Sprachmodell Token generiert oder ein Computer-Vision-Modell Bilder klassifiziert – laufen im Kern auf lineare Algebra hinaus. In der Praxis bedeutet das: grosse Matrixmultiplikationen, die millionenfach wiederholt werden. Photonik ist dafür prädestiniert, weil Interferenz und Phasenverschiebungen Multiply-and-Accumulate-Operationen parallel abbilden können. Statt jede Multiplikation einzeln elektronisch auszuführen, kann ein optischer Schaltkreis viele „Gewichte“ gleichzeitig anwenden, während ein Lichtstrahl durch ein Netz aus Interferometern läuft. Das ist keine Magie, sondern Physik, die analoge Berechnungen mit extrem hoher Bandbreite ermöglicht.

Dieser physikalische Vorteil zeigt sich vor allem in zwei Punkten, die für Betreiber entscheidend sind: Durchsatz und Energie pro Operation. Optische Signale können sich sehr schnell ausbreiten und mischen, und – entscheidend – das Bewegen von Informationen mit Licht kostet häufig weniger Energie als das Bewegen durch lange Kupferleitungen bei gleicher Bandbreite. Deshalb hängt die Photonik-Diskussion 2025 stark mit Datenbewegung zusammen: Selbst wenn das Rechnen hybrid bleibt (optisch + elektronisch), kann eine geringere Energie für den Transport von Aktivierungen und Gewichten die Inferenz-Effizienz in einem Rack messbar verbessern.

Allerdings sind die Vorteile stark vom Workload abhängig. Photonik ist am stärksten, wenn der Job von dichten linearen Schichten dominiert wird und das System den optischen Kern konstant mit Daten versorgen kann. Wenn ein Modell viel Zeit in nichtlinearen Funktionen, sparsamen Operationen, verzweigter Logik oder häufigen Präzisionsumrechnungen verbringt, schrumpfen die Gewinne oft deutlich – weil die Elektronik weiterhin den Kontrollfluss steuert und die Ergebnisse nachbearbeitet.

Wie photonische Matrixmultiplikation in der Praxis funktioniert

Viele photonische KI-Engines basieren auf Mach–Zehnder-Interferometer-(MZI)-Netzen. Vereinfacht gesagt wirkt ein MZI wie ein einstellbarer „Regler“, der beeinflusst, wie zwei Lichtpfade zusammengeführt werden. Ordnet man Tausende dieser Regler in einem Netz an, lässt sich eine Matrixtransformation implementieren: Eingaben werden als Lichtintensitäten oder -phasen kodiert, das Netz wendet die Gewichtsmatrix durch Interferenz an, und Detektoren lesen die Ausgaben zurück in die Elektronik. Deshalb wird photonisches Rechnen oft als analog beschrieben: Die Physik arbeitet mit kontinuierlichen Werten, auch wenn das umgebende digitale System sie als Zahlen interpretiert.

Weil der optische Teil analog ist, spielt Kalibrierung eine grosse Rolle. Temperaturdrift, Fertigungstoleranzen und die Stabilität der Laserquelle beeinflussen die Genauigkeit. Systeme im Jahr 2025 lösen das meist mit Feedback-Schleifen, periodischer Rekalibrierung und Mixed-Precision-Strategien – also Photonik für die grosse Multiplikation und Elektronik für Kompensation, Skalierung und Fehlerkontrolle. Das ist weniger ein Nachteil als eine technische Realität: Man akzeptiert zusätzliche Kalibrierarbeit, um die Energiekosten der linearen Kernoperation zu senken.

Ein weiterer praktischer Punkt ist die Präzision. Photonik ist häufig besonders attraktiv für Inferenz bei reduzierter Genauigkeit (beispielsweise vergleichbar mit 8-Bit-Formaten oder niedriger), weil viele Produktionsmodelle Quantisierung tolerieren. Der Branchentrend zu quantisierter Inferenz spielt Photonik in die Karten: Wenn ein Stack ohnehin auf effiziente, leicht „rauschige“ Arithmetik optimiert ist, lassen sich photonische Beschleuniger leichter sinnvoll integrieren als in Umgebungen, die strikt auf Floating-Point-Verhalten angewiesen sind.

Wie „echte“ photonische Prozessoren im Jahr 2025 aussehen

Am hilfreichsten ist es, Photonik 2025 in zwei Kategorien zu trennen: (1) photonische Compute-Engines, die Teile der neuronalen Netzrechnung mit Licht ausführen, und (2) optische Interconnect-Technologien, die Daten zwischen Chips mithilfe von Licht bewegen. Beide können Inferenz beschleunigen, aber auf unterschiedliche Weise. Compute-Engines zielen darauf ab, Energie und Zeit für Matrixoperationen zu reduzieren. Optische Interconnects zielen darauf ab, die Energie und Latenz der Datenbewegung zwischen GPUs, Speicher und Beschleunigern zu senken – oft der verdeckte Engpass in gross skalierten Inferenz-Setups.

Auf der Compute-Seite positioniert Lightmatter Envise als photonisches Computing-System für KI-Workloads und betont dabei Leistung und Energieeffizienz. Das Unternehmen beschreibt Envise ausdrücklich als Produkt für neuronale Netze, was zeigt, dass Photonik zunehmend als einsatzfähiges System – und nicht nur als Labordemo – verpackt wird.

Auf der Interconnect-Seite gewinnen optische Chiplets deutlich an Bedeutung. Ayar Labs hat beispielsweise einen UCIe-Optik-Chiplet-Ansatz angekündigt, der für KI-Scale-up-Architekturen gedacht ist. Ziel ist es, Beschleuniger über Distanzen mit sehr hoher Bandbreite zu verbinden, bei denen Kupfer bei ähnlicher Leistungsaufnahme schnell an Grenzen stösst. Praktisch kann das zu besserer Auslastung führen: weniger Wartezeit auf Daten, mehr Zeit für Inferenz.

Photonic-Interconnect zuerst: Inferenzsysteme skalierbar machen

Grosse Inferenz-Cluster werden zunehmend durch Datenbewegung begrenzt. Mit wachsenden Modellen braucht man oft Modell-, Tensor- oder Pipeline-Parallelität – selbst für Inferenz –, weil die Gewichte nicht mehr sauber auf ein einzelnes Gerät passen. Dadurch wird das „Fabric“ zwischen den Geräten zum zentralen Leistungsfaktor. Optische Links können helfen, weil sie hohe Bandbreite bei geringeren Verlusten über Distanz liefern und einige der Signal-Integritätsprobleme vermeiden, die bei extremem Kupfer-Tuning auftreten.

Die Optical-I/O-Ausrichtung von Ayar Labs ist auf die Integration in Chiplet-Ökosysteme ausgelegt, was wichtig ist, weil sich die Branche in Richtung chipletbasierter Verpackung standardisiert. Die Kommunikation des Unternehmens im Jahr 2025 betont Optical-I/O-Chiplets für KI-Scale-up und zeigt, dass Photonik auf Mainstream-Systemarchitekturen abzielt und nicht nur auf Nischenlösungen.

Auch Lightmatter hebt photonische Interconnects mit Produkten wie Passage hervor, inklusive Ankündigungen rund um Passage M1000 und verwandte Komponenten für extrem schnelle Chip-zu-Chip-Verbindungen. Für Inferenz ist das aus einem einfachen Grund relevant: Sobald ein Modell über mehrere Geräte verteilt wird, kann die effektive Tokens-pro-Sekunde-Rate genauso sehr ein Netzwerkproblem wie ein Rechenproblem sein.

Lichtbasierte Inferenz

Realistische Einführung: Kosten, Toolchains und wo Photonik am besten passt

Für die meisten Teams lautet die entscheidende Frage nicht „Ist Photonik schnell?“, sondern „Wo lohnt sie sich?“. Im Jahr 2025 ist photonische Beschleunigung am überzeugendsten in Szenarien, in denen Inferenz von dichten linearen Schichten dominiert wird, in denen Energiekosten ein Hauptlimit darstellen (zum Beispiel Rechenzentren, die an Power-Caps stossen), und in denen sich eine hohe Auslastung sicherstellen lässt. Wenn ein photonischer Kern jedoch im Leerlauf auf Daten wartet oder zu viel Zeit in Konvertierungen verbringt, wird der physikalische Vorteil schnell zu einem teuren Experiment.

Toolchains werden besser, bleiben aber ein wichtiger Faktor. Photonic Compute erfordert oft, neuronale Netzschichten auf optische Meshes zu mappen, Quantisierungsstrategien zu steuern und Kalibrierung zu berücksichtigen. Das Software-Stack muss dafür passende Abstraktionen bieten: einen Compiler, der optische GEMMs (Matrixmultiplikationen) plant, Runtime-Support für Kalibrierung und klare Performance-Modelle, damit sich vorhersagen lässt, wann eine Schicht optisch statt elektronisch laufen sollte. Organisationen, die bereits stark in Inferenz-Optimierung investieren – Quantisierung, Kernel-Fusion, Memory-Planning – sind typischerweise am besten positioniert, um Photonik realistisch zu bewerten.

Hinzu kommt eine hybride Zukunft. Viele „photonische“ Systeme sind keine rein optischen Computer, sondern gemischte Systeme. Elektronik übernimmt weiterhin Kontrolle, Nichtlinearitäten, Speicheradressierung und Teile der Akkumulationspipeline. Wahrscheinlich ist kurzfristig ein Muster, bei dem Photonik die schwerste lineare Algebra beschleunigt, während fortschrittliches Packaging und Optical I/O die Kosten der Datenbewegung in einem Multi-Chip-System senken.

Praktische Checkliste für Engineers im Jahr 2025

Zuerst sollte man messen, ob der eigene Inferenz-Workload wirklich matrixdominiert ist. Wenn das Profiling zeigt, dass der grösste Anteil von Zeit und Energie in dichten GEMMs und dem Speichertraffic liegt, der sie füttert, lohnt sich Photonik. Wenn hingegen Attention-Overhead, unregelmässiger Speicherzugriff, Routing-Logik oder umfangreiche Nachbearbeitung dominieren, kann ein optischer Compute-Kern nur begrenzten Nutzen bringen – selbst wenn optische Links auf Cluster-Ebene helfen.

Zweitens geht es um Integrationsrisiko. Photonic Compute bringt Kalibrierung und Umweltsensitivität mit, daher braucht es ein klares Konzept für Monitoring und Wartung. Wenn der Betrieb im Rechenzentrum periodische Kalibrierzyklen unterstützt und eine nachvollziehbare Zuverlässigkeitsstrategie vorhanden ist, wird Photonik deutlich realistischer. Berichte aus Forschung und Industrie betonen 2025 immer wieder, dass skalierbare, nachhaltige KI-Hardware eng mit photonischen integrierten Schaltkreisen verbunden ist – die Ingenieursarbeit bleibt jedoch anspruchsvoll.

Drittens sollte man den Interconnect-Weg auch dann prüfen, wenn photonisches Rechnen nicht sofort eingeführt wird. Optical-I/O-Chiplets und Siliziumphotonik für Verbindungen können greifbare Vorteile bringen, indem sie Energie und Latenz der Datenbewegung reduzieren. Intel hat beispielsweise öffentlich über Fortschritte in der Siliziumphotonik für Hochbandbreiten-Interconnect-Bausteine gesprochen, was zeigt, wie stark die Branche auf optische Konnektivität setzt, wenn KI-Systeme skalieren.