Los procesadores fotónicos ya no son una curiosidad puramente académica. Para 2025, varias empresas y grupos de investigación han demostrado que la luz puede encargarse de parte de las matemáticas detrás de las redes neuronales más rápido y con menos consumo energético que los enfoques puramente electrónicos, especialmente en las multiplicaciones de matrices que dominan la inferencia. La idea clave es sencilla: en lugar de empujar electrones a través de transistores para multiplicar y acumular números, se codifican valores en luz y se deja que la interferencia óptica haga el trabajo pesado. Lo que hace que esto sea práctico hoy es el ecosistema que lo rodea: fotónica de silicio madura, mejoras en el empaquetado, chiplets de interconexión óptica y una comprensión más clara de dónde la fotónica supera realmente a las GPU y dónde no.
La mayor parte de la inferencia moderna de IA—ya sea un modelo de lenguaje generando tokens o un modelo de visión clasificando imágenes—se reduce al álgebra lineal. En la práctica, eso significa grandes multiplicaciones de matrices repetidas millones de veces. La fotónica es naturalmente buena en esto porque la interferencia y los cambios de fase pueden representar operaciones de multiplicación y acumulación en paralelo. En lugar de ejecutar cada multiplicación de forma electrónica, un circuito óptico puede aplicar muchos “pesos” a la vez mientras el haz atraviesa una malla de interferómetros. El resultado no es magia; es física realizando computación analógica a un ancho de banda extremadamente alto.
Esta ventaja física se nota en dos aspectos que importan a los operadores: rendimiento y energía por operación. Las señales ópticas pueden propagarse y mezclarse a tasas efectivas muy altas y—lo más importante—mover información con luz suele costar menos energía que moverla por trazas largas de cobre al mismo ancho de banda. Por eso, la historia de la fotónica en 2025 está estrechamente ligada al movimiento de datos: incluso cuando el cálculo es híbrido (óptico + electrónico), reducir el coste de trasladar activaciones y pesos puede mejorar de forma material la eficiencia de la inferencia en un rack.
Sin embargo, el beneficio depende de la carga de trabajo. El cálculo fotónico es más fuerte cuando el trabajo está dominado por capas lineales densas y cuando el sistema puede mantener alimentado el núcleo óptico con datos. Si el modelo pasa mucho tiempo en funciones no lineales, operaciones dispersas, lógica con bifurcaciones o conversiones de precisión frecuentes, las ganancias pueden disminuir rápidamente porque la electrónica todavía debe gestionar el flujo de control y depurar los resultados.
Muchos motores fotónicos para IA se basan en mallas de interferómetros Mach–Zehnder (MZI). En términos sencillos, un MZI puede actuar como un “mando” ajustable que cambia cómo se combinan dos caminos de luz. Si organizas miles de estos mandos en una malla, puedes implementar una transformación matricial: las entradas se codifican en intensidades o fases de luz, la malla aplica la matriz de pesos mediante interferencia y los detectores leen la salida de vuelta a la electrónica. Por eso a menudo se describe el cálculo fotónico como analógico: la física representa valores continuos, aunque el sistema digital de alrededor los trate como números.
Dado que la parte óptica es analógica, la calibración importa. La deriva térmica, las tolerancias de fabricación y la estabilidad del láser afectan a la precisión. En sistemas de 2025, esto suele gestionarse con bucles de retroalimentación, recalibración periódica y estrategias de precisión mixta: se usa la fotónica para la multiplicación principal y la electrónica para compensación, escalado y control de errores. Esto no es una debilidad, sino una realidad de ingeniería: se intercambia cierta complejidad de calibración a cambio de reducir el coste energético fundamental del álgebra lineal principal.
Otro punto práctico es la precisión. El cálculo fotónico suele ser más atractivo para inferencia en precisión reducida (por ejemplo, formatos comparables a 8 bits o menos en precisión efectiva) porque muchos modelos desplegados toleran cuantización. La tendencia del sector hacia la inferencia cuantizada ayuda a la fotónica: si tu pila de producción ya está optimizada para aritmética eficiente y ligeramente ruidosa, los aceleradores fotónicos pueden encajar de forma más natural que cuando todo exigía un comportamiento estrictamente en coma flotante.
La forma más útil de entender la fotónica en 2025 es separar dos categorías: (1) motores de cálculo fotónico que realizan partes de las matemáticas de la red neuronal usando luz y (2) tecnología de interconexión óptica que mueve datos entre chips usando luz. Ambas pueden acelerar la inferencia, pero lo hacen de manera distinta. Los motores de cálculo buscan reducir la energía y el tiempo dedicados a operaciones matriciales. La interconexión óptica busca reducir la energía y la latencia de mover tensores entre GPU, memoria y aceleradores—con frecuencia el cuello de botella oculto en despliegues de inferencia a escala.
En el lado del cálculo, Lightmatter ha posicionado Envise como un sistema de computación fotónica diseñado para cargas de trabajo de IA, apuntando explícitamente al rendimiento y la eficiencia energética. La empresa presenta Envise como un producto de computación fotónica para redes neuronales, lo que indica que la fotónica se está empaquetando como un sistema desplegable y no solo como una demostración de laboratorio.
En el lado de la interconexión, los chiplets ópticos se están convirtiendo en un tema serio. Ayar Labs, por ejemplo, ha anunciado un enfoque de chiplet óptico UCIe destinado a arquitecturas de escalado para IA, con el objetivo de mantener los aceleradores comunicándose a un ancho de banda muy alto a distancias que serían problemáticas para el cobre con niveles de potencia similares. En la práctica, eso puede traducirse en mejor utilización: menos tiempo esperando datos, más tiempo ejecutando inferencia.
Los grandes clústeres de inferencia están cada vez más limitados por el movimiento de datos. A medida que los modelos crecen, a menudo necesitas paralelismo de modelo, paralelismo de tensores o paralelismo por etapas—incluso para inferencia—porque los pesos ya no caben cómodamente en un solo dispositivo. Eso convierte el “tejido” entre dispositivos en un limitador de rendimiento de primer nivel. Los enlaces ópticos pueden ayudar porque ofrecen gran ancho de banda con menor pérdida a distancia y evitan parte de los problemas de integridad de señal que aparecen al llevar el cobre a extremos.
La dirección de E/S óptica de Ayar Labs está diseñada para integrarse en ecosistemas de chiplets, lo cual importa porque el sector está estandarizando el empaquetado basado en chiplets. Su mensaje en 2025 se centra en chiplets de E/S óptica para escalado de IA, una señal de que la fotónica apunta a arquitecturas de sistemas convencionales en lugar de máquinas nicho hechas a medida.
Lightmatter también ha destacado la interconexión fotónica con productos como Passage, incluyendo anuncios sobre Passage M1000 y componentes relacionados destinados a enlaces de chip a chip de muy alta velocidad. Esto importa para la inferencia por una razón clara: una vez que el modelo se fragmenta entre dispositivos, tu rendimiento efectivo (tokens por segundo) puede convertirse en un problema de red tanto como de cómputo.

Para la mayoría de equipos, la pregunta difícil no es “¿La fotónica es rápida?”, sino “¿Dónde compensa?”. En 2025, los aceleradores fotónicos son más convincentes en escenarios donde la inferencia está dominada por capas lineales densas, donde el coste energético es una restricción principal (por ejemplo, centros de datos que alcanzan límites de potencia) y donde el operador puede mantener una alta utilización. Si un núcleo fotónico se queda inactivo esperando datos o pasa demasiado tiempo convirtiendo representaciones, la ventaja teórica de la física se convierte en un proyecto científico caro.
Las toolchains están mejorando, pero siguen siendo un factor. El cálculo fotónico a menudo requiere mapear capas de redes neuronales a mallas ópticas, gestionar estrategias de cuantización y manejar la calibración. Eso significa que la pila de software debe exponer las abstracciones adecuadas: un compilador que sepa programar GEMM ópticos (multiplicaciones matriciales), soporte de runtime para calibración y modelos de rendimiento claros para que los ingenieros puedan prever cuándo una capa debería ejecutarse en fotónica frente a electrónica. Las organizaciones que ya invierten mucho en optimización de inferencia—cuantización, fusión de kernels, planificación de memoria—suelen estar mejor posicionadas para evaluar la fotónica con realismo.
También hay un futuro híbrido. Muchos sistemas “fotónicos” no son ordenadores puramente ópticos; son sistemas mixtos. La electrónica sigue gestionando control, no linealidades, direccionamiento de memoria y partes del pipeline de acumulación. En la práctica, el patrón más probable a corto plazo es que la fotónica acelere el álgebra lineal más pesada, mientras que el empaquetado avanzado y la E/S óptica reduzcan el coste de mover datos dentro de un sistema multi-chip.
Primero, cuantifica si tu carga de inferencia está realmente limitada por matrices. Si tu perfilado muestra que la mayor parte del tiempo y la energía se van en GEMM densos y en el tráfico de memoria que los alimenta, los enfoques fotónicos merecen evaluación. Si, en cambio, la carga está dominada por sobrecarga de atención, acceso irregular a memoria, lógica de enrutamiento o mucho postprocesado, es posible que obtengas beneficios limitados de un núcleo de cómputo óptico—aunque los enlaces ópticos sigan ayudando a escala de clúster.
Segundo, evalúa el riesgo de integración. El cómputo fotónico introduce calibración y sensibilidad ambiental, así que necesitas un plan de monitorización y mantenimiento. Si tus operaciones de centro de datos pueden soportar ciclos de recalibración periódicos y tienes una historia clara de fiabilidad, la fotónica se vuelve más viable. La cobertura de investigación e industria en 2025 destaca repetidamente que el hardware de IA escalable y sostenible está vinculado a los circuitos integrados fotónicos, pero la carga de ingeniería no es trivial.
Tercero, considera la ruta de interconexión incluso si no adoptas cómputo fotónico de inmediato. Los chiplets de E/S óptica y la fotónica de silicio para enlaces pueden aportar beneficios tangibles al reducir energía y latencia en el movimiento de datos. Intel, por ejemplo, ha sido pública sobre avances en fotónica de silicio para bloques de construcción de interconexión óptica de alto ancho de banda, reflejando la atención que la industria está poniendo en la conectividad óptica a medida que escalan los sistemas de IA.