Fotonica e robotica: nuovo sistema a due chip esegue apprendimento in tempo reale senza elettronica

Ricercatori della Xidian University hanno sviluppato un sistema fotonico a due chip capace di eseguire calcoli neurali lineari e non lineari interamente nel dominio ottico, senza conversione in segnali elettronici: una svolta per reti neurali a impulsi applicabili a robot autonomi, guida autonoma e sistemi di intelligenza artificiale a bassa latenza. Lo studio è pubblicato sulla rivista Optica dell’Optica Publishing Group.

Il collo di bottiglia che frenava i chip fotonici

I chip fotonici lavorano con la luce al posto degli elettroni. I fotoni percorrono i circuiti integrati a velocità enormemente superiore rispetto ai portatori di carica elettrica, generano quantità trascurabili di calore per resistenza e consentono un consumo energetico strutturalmente inferiore rispetto alle architetture CMOS tradizionali. Queste proprietà li rendono candidati naturali per accelerare le operazioni delle reti neurali artificiali, dove la moltiplicazione di matrici e l’applicazione di funzioni di attivazione sono eseguite miliardi di volte al secondo.

Tuttavia, fino a questa ricerca, i sistemi fotonici a impulsi (noti come photonic spiking neural systems) presentavano una limitazione strutturale: erano in grado di processare otticamente solo la componente lineare del calcolo neurale. Le operazioni non lineari, indispensabili per qualsiasi forma di apprendimento, richiedevano la conversione dei segnali ottici in segnali elettrici, il trasferimento al processore digitale, l’elaborazione, e infine la riconversione in segnali ottici. Ogni passaggio di conversione introduce latenza aggiuntiva e annulla in parte i vantaggi energetici del substrato fotonico.

Shuiying Xiang, responsabile del gruppo di ricerca alla Xidian University, ha sintetizzato il problema: i sistemi a impulsi fotonici emulano la segnalazione neuronale biologica tramite brevi impulsi ottici, ma storicamente potevano processare con la luce soltanto le operazioni lineari. I passaggi non lineari necessari per l’apprendimento e il processo decisionale richiedevano ancora l’hardware elettronico, aggiungendo ritardo e riducendo i vantaggi di velocità ed efficienza energetica della fotonica.

Architettura del sistema a due chip

Il sistema sviluppato dal gruppo di Xiang supera questo vincolo attraverso una piattaforma neuromorfica fotonica programmabile e incoerente su larga scala, realizzata con due chip integrati che operano in tandem.

Il primo componente è un chip MZI mesh 16×16 (Mach-Zehnder interferometer mesh), progettato e fabbricato specificamente per reti neurali a impulsi. Una rete di interferometri di Mach-Zehnder disposti in una griglia 16×16 permette il controllo programmabile dei percorsi ottici: variando la fase relativa nei singoli interferometri tramite elementi termoottici o elettroottici, il chip può implementare qualsiasi trasformazione lineare arbitraria su 16 canali ottici simultanei. Il chip ospita complessivamente 272 parametri addestrabili, un valore che colloca il sistema già nella categoria delle reti neurali funzionali, sebbene modeste rispetto alle reti profonde di grandi dimensioni.

Il secondo chip contiene un array di laser a retroazione distribuita con assorbitore saturabile (distributed feedback laser array with saturable absorber, DFBSA). Gli assorbitori saturabili sono elementi ottici non lineari passivi: la loro trasmissione dipende dall’intensità del segnale incidente. Al di sotto di una soglia critica, il materiale assorbe la radiazione; al di sopra, diventa trasparente. Questo comportamento soglia riproduce direttamente la funzione di attivazione non lineare richiesta da un neurone artificiale, ma lo fa interamente nel dominio ottico e con soglie di attivazione particolarmente basse, il che riduce il consumo energetico necessario per innescare la non linearità.

I due chip lavorano insieme in un framework ibrido hardware-software strutturato in tre fasi sequenziali: il modello viene prima addestrato globalmente via software su un simulatore, poi addestrato direttamente sui chip fisici tramite apprendimento in situ, e infine rifinito via software per correggere le variazioni a livello di chip, inevitabili in qualsiasi dispositivo fabbricato. Questa procedura a cascata consente di ottenere prestazioni hardware molto vicine a quelle del modello software di riferimento.

Reinforcement learning su chip: i test CartPole e Pendulum

Per validare il sistema, i ricercatori hanno utilizzato due benchmark classici del reinforcement learning, la branca dell’intelligenza artificiale che addestra agenti attraverso interazioni con l’ambiente e retroazione di ricompensa.

Il primo test, denominato CartPole, richiede che un agente impari a bilanciare un’asta verticale su un carrello mobile, applicando forze orizzontali al carrello per compensare l’inclinazione dell’asta. Il secondo test, il Pendulum, è più complesso: un pendolo parte dalla posizione di equilibrio inferiore (appeso verso il basso) e deve essere portato e mantenuto nella posizione di equilibrio superiore (verticale) applicando coppie controllate. Il Pendulum introduce una dinamica non lineare più marcata e richiede sequenze di azioni più sofisticate.

I risultati mostrano che le decisioni prese dall’hardware fotonico replicano quelle del modello software con una degradazione molto contenuta: 1,5% di perdita di accuratezza sul task CartPole e 2% sul task Pendulum. Con il framework hardware-software combinato, il sistema ha raggiunto prestazioni ottimali sul CartPole e buone prestazioni sul Pendulum, dimostrando la capacità di gestire sia compiti di controllo semplici che scenari più articolati in tempo reale.

Le prestazioni misurate: efficienza energetica e latenza

Le misurazioni quantitative delle prestazioni collocano il sistema in un range competitivo rispetto alle soluzioni elettroniche esistenti. Per il calcolo lineare fotonico, il chip raggiunge un’efficienza energetica di 1,39 TOPS/W (tera operazioni al secondo per watt) e una densità di calcolo di 0,13 TOPS/mm². Per il calcolo non lineare, l’efficienza si attesta a 987,65 GOPS/W (giga operazioni al secondo per watt) e la densità a 533,33 GOPS/mm².

Questi valori sono paragonabili a quelli dei GPU di classe consumer, che si attestano tipicamente nell’intervallo 0,5-2 TOPS/W per l’efficienza energetica e 0,1-0,5 TOPS/mm² per la densità di calcolo. La differenza qualitativa sta però nella latenza: il tempo di elaborazione on-chip misurato è di soli 320 picosecondi, ovvero 320 trilionesimi di secondo. Si tratta di un valore circa tre ordini di grandezza inferiore rispetto ai cicli di clock degli acceleratori elettronici più veloci disponibili commercialmente, che operano nell’ordine dei nanosecondi.

Questa latenza ultra-ridotta deriva direttamente dalla fisica del substrato: la luce percorre i circuiti del chip alla velocità della propagazione ottica nel mezzo guidante, senza i ritardi associati al caricamento e scaricamento delle capacità parassitarie tipiche dei circuiti elettronici integrati.

Neuroni fotonici a impulsi e il modello biologico

Il paradigma dei photonic spiking neural networks (PSNN) trae ispirazione diretta dalla neuroscienza computazionale. I neuroni biologici comunicano attraverso potenziali d’azione, brevi depolarizzazioni della membrana cellulare della durata di circa 1-2 millisecondi, che si propagano lungo gli assoni e attraverso le sinapsi. Il momento esatto in cui si verifica uno spike, la sua frequenza e la correlazione temporale tra spike di neuroni diversi codificano l’informazione in modo radicalmente diverso rispetto alle reti neurali artificiali standard, dove i valori di attivazione sono numeri reali continui trasmessi in modo sincrono tra strati.

Nei PSNN, l’informazione è codificata nella temporizzazione degli impulsi ottici: un fotone che arriva al chip nei primi nanosecondi di una finestra temporale porta un segnale diverso rispetto a uno che arriva negli ultimi. Questo schema di codifica è intrinsecamente più efficiente dal punto di vista energetico perché il neurone è attivo (emette luce) solo durante gli spike, rimanendo silente nel resto del tempo, a differenza delle reti neurali convenzionali che richiedono attività computazionale continua su tutti i nodi.

L’assorbitore saturabile nel chip DFBSA emula il comportamento soglia del neurone biologico: solo quando il segnale in ingresso supera un livello critico di intensità ottica viene generato uno spike in uscita. Al di sotto della soglia, il segnale viene assorbito senza produrre risposta, replicando il comportamento sub-soglia dei neuroni reali.

Le applicazioni: robotica, guida autonoma e edge computing

Il gruppo di ricerca ha identificato tre ambiti applicativi principali verso cui il sistema fotonico è orientato: la guida autonoma, la robotica embodied e l’edge computing neuromorfico.

Nella guida autonoma, la latenza di 320 picosecondi del chip si traduce in tempi di reazione del sistema percettivo-decisionale potenzialmente inferiori al microsecondo, su scale temporali irraggiungibili per qualsiasi processore elettronico. Per un veicolo che percorre 100 km/h, una riduzione della latenza dell’hardware da 10 millisecondi a 1 microsecondo corrisponde a circa 28 centimetri di spazio di reazione in meno, una differenza potenzialmente rilevante in scenari di emergenza.

Per la robotica embodied, termine che indica sistemi robotici capaci di apprendere attraverso l’interazione fisica continua con l’ambiente, la disponibilità di un substrato di calcolo che apprende in tempo reale con consumi ultra-ridotti è una condizione abilitante. I robot attuali che devono apprendere in-field sono vincolati dalla durata delle batterie e dal calore generato dai processori: un chip fotonico che consuma una frazione dell’energia di un equivalente GPU cambia radicalmente il budget energetico a disposizione.

L’edge computing neuromorfico richiede chip con dimensioni, consumi e latenze compatibili con l’installazione su dispositivi periferici (droni, sensori industriali, sistemi di ispezione) che non possono appoggiarsi a infrastrutture cloud. Il sistema descritto nello studio, con la sua densità di calcolo superiore a 500 GOPS/mm², rappresenta un passo verso la miniaturizzazione dei processori neurali fotoniche a dimensioni compatibili con questi scenari.

Sviluppi futuri: verso il chip a 128 canali

Il percorso di sviluppo delineato dal gruppo di Xidian prevede come prossimo obiettivo la progettazione e fabbricazione di un chip PSNN completamente funzionale a 128 canali, rispetto ai 16 canali attuali. L’aumento di un fattore 8 nel numero di canali permetterebbe di affrontare task di reinforcement learning significativamente più complessi, tra cui la navigazione autonoma neuromorfica, dove il robot deve costruire una rappresentazione dell’ambiente e pianificare traiettorie in tempo reale senza una mappa pre-programmata.

Prima che la tecnologia diventi praticabile per scenari di edge computing reali, i ricercatori dovranno anche dimostrare un chip ibrido integrato su larga scala in formato compatto, che integri nella stessa unità fisica le funzioni attualmente distribuite tra i due chip separati e il sistema di test opto-elettronico esterno.

Parallelamente, il laboratorio di Xiang sta esplorando l’integrazione del sistema con framework di apprendimento più avanzati, inclusi algoritmi di spike-timing dependent plasticity (STDP), una regola di apprendimento biologicamente ispirata in cui la modifica del peso sinaptico dipende dalla differenza temporale tra gli spike pre-sinaptici e post-sinaptici. L’implementazione di STDP in hardware fotonico consentirebbe un apprendimento continuo e non supervisionato direttamente sul chip, senza necessità di alcuna supervisione software esterna.

Il contesto della fotonica computazionale nel 2026

Il lavoro della Xidian University si inserisce in un panorama di ricerca sulla fotonica computazionale che ha visto una significativa accelerazione negli ultimi anni. A dicembre 2024, un gruppo del MIT aveva pubblicato su Nature la dimostrazione di un processore fotonico integrato capace di eseguire tutte le operazioni chiave di una rete neurale profonda interamente in modo ottico, con una latenza inferiore a mezzo nanosecondo e un’accuratezza superiore al 92% su un task di classificazione. A marzo 2026, ricercatori dell’Università di Sydney hanno pubblicato su Nature Communications un chip nanofotonico ultra-compatto, realizzato presso il Sydney Nano Hub, capace di classificare oltre 10.000 immagini biomediche con accuratezza tra il 90% e il 99%, operando su scale temporali del picosecondo.

Sul fronte industriale, la tedesca Q.ANT ha annunciato nel novembre 2025 la disponibilità commerciale della sua seconda generazione di processori fotoniche (NPU 2), con spedizioni ai clienti previste nella prima metà del 2026, dichiarando efficienza energetica fino a 30 volte superiore e prestazioni fino a 50 volte più elevate rispetto ai chip CMOS equivalenti per specifici workload di intelligenza artificiale.

Il lavoro pubblicato su Optica dal gruppo di Xiang si distingue da questi contributi per la specificità dell’architettura a impulsi e per la dimostrazione di reinforcement learning su hardware fotonico, un dominio applicativo che richiede elaborazione dinamica e adattiva, più prossimo alle condizioni operative reali di un sistema robotico autonomo rispetto ai task di classificazione statica.