Fotoni come neuroni: la scoperta italiana che collega l’interferenza quantistica ai modelli di memoria artificiale

Un gruppo internazionale di ricercatori del CNR-Nanotec, dell’Istituto Italiano di Tecnologia (IIT) e della Sapienza Università di Roma ha dimostrato che fotoni identici che si propagano all’interno di circuiti ottici si comportano spontaneamente come una rete di Hopfield, il modello matematico classico della memoria associativa del cervello umano.
Lo studio, pubblicato il 18 febbraio 2026 su Physical Review Letters (Phys. Rev. Lett. 136, 070602, DOI: 10.1103/945c-11wt), stabilisce per la prima volta un collegamento formale tra l’interferenza quantistica multiphotonica e gli Hamiltoniani di tipo Hopfield delle reti neurali artificiali. Questo studio apre la strada a prospettive concrete per lo sviluppo di hardware AI a bassissimo consumo energetico basato su fotonica integrata.
Il modello di Hopfield: memoria associativa e reti neurali classiche
Per comprendere la portata della scoperta è necessario partire dal modello teorico a cui i fotoni si sono dimostrati analoghi. Il modello di Hopfield, introdotto dal fisico John J. Hopfield nel 1982, è una delle architetture fondamentali delle reti neurali artificiali. Si tratta di una rete ricorrente completamente connessa in cui ogni unità (neurone artificiale) può trovarsi in uno di due stati, convenzionalmente rappresentati come +1 e -1, analoghi ai valori binari dei neuroni biologici che sparano o non sparano un potenziale d’azione. Le connessioni tra le unità sono definite da pesi sinaptici, e la rete evolve nel tempo minimizzando una funzione di energia che dipende dallo stato complessivo del sistema.
La proprietà più importante del modello di Hopfield è la sua capacità di funzionare come memoria associativa: la rete può essere “addestrata” a memorizzare un certo numero di pattern (configurazioni di stati) che corrispondono ai minimi locali della funzione di energia. Quando viene presentato in ingresso un pattern parzialmente corrotto o incompleto, la rete evolve spontaneamente verso il minimo più vicino, “richiamando” il pattern memorizzato completo. Questo meccanismo è analogo a come il cervello umano è in grado di riconoscere un volto o ricordare una melodia a partire da indizi parziali.
Il modello di Hopfield originale è classificato come modello a due corpi (2-body), nel senso che la funzione di energia include solo termini di interazione tra coppie di neuroni. Negli anni successivi, sono stati proposti modelli generalizzati con interazioni a p corpi (p-body), in cui gruppi di tre, quattro o più neuroni interagiscono simultaneamente. Questi modelli generalizzati presentano proprietà di memorizzazione più potenti rispetto al modello originale, con una capacità di memorizzare un numero di pattern che cresce esponenzialmente con la dimensione della rete, rispetto alla crescita lineare del modello a due corpi. La loro implementazione pratica è però molto più complessa, e la simulazione computazionale su hardware convenzionale diventa rapidamente proibitiva all’aumentare delle dimensioni del sistema.
Il modello di Hopfield ha anche una stretta connessione con la fisica statistica dei vetri di spin (spin glass), sistemi magnetici con interazioni disordinate che manifestano proprietà di memoria e complessità computazionale elevata. Questa connessione non è casuale: Hopfield si ispirò esplicitamente ai lavori di Giorgio Parisi e Samuel Edwards sui vetri di spin quando formulò il suo modello. Il legame teorico tra reti neurali, vetri di spin e meccanica statistica è stato poi approfondito da Hopfield insieme a David Tank nel corso degli anni Ottanta, e ha influenzato lo sviluppo dell’intera teoria delle reti neurali ricorrenti. Per questi contributi, Giorgio Parisi ha ricevuto il Premio Nobel per la Fisica nel 2021, una data che conferisce una dimensione ancora più rilevante alla scoperta del 2026.
L’interferenza quantistica multiphotonica: il fenomeno Hong-Ou-Mandel e il boson sampling
Il secondo pilastro concettuale della ricerca è l’interferenza quantistica multiphotonica, un fenomeno che si manifesta quando fotoni identici (indistinguibili) si propagano attraverso circuiti ottici lineari. Per comprendere questo fenomeno è opportuno partire dall’esperimento fondamentale che lo illustra nella sua forma più semplice.
L’effetto Hong-Ou-Mandel, dimostrato sperimentalmente nel 1987, mostra che due fotoni identici inviati simultaneamente ai due ingressi di un beamsplitter (divisore di fascio ottico al 50%) escono sempre insieme dallo stesso uscita, mai separati uno per ciascuna uscita. Questo comportamento è radicalmente diverso da quello di particelle classiche o anche di fotoni distinguibili, ed è una conseguenza diretta della statistica bosoniana: i fotoni sono bosoni, e la loro funzione d’onda deve essere simmetrica per scambio. Quando i due fotoni sono perfettamente indistinguibili, i contributi di ampiezza per i casi in cui escono separati si cancellano per interferenza distruttiva, lasciando solo i contributi per i casi in cui escono insieme.
Estendendo questo principio a sistemi con molti fotoni e molti modi ottici, si ottiene il problema del boson sampling: dati N fotoni identici iniettati in un interferometro lineare a M modi, qual è la distribuzione di probabilità dei pattern di rilevamento in uscita? La risposta richiede il calcolo del permanente di una sottomatrice della matrice unitaria che descrive l’interferometro. Il permanente è una funzione matematica analoga al determinante ma con tutti i segni positivi, e il suo calcolo è un problema computazionalmente difficile (complessità #P-hard) per computer classici. Questo rende il boson sampling un candidato naturale per la dimostrazione di quantum advantage: un sistema fotonico può campionare dalla distribuzione del boson sampling molto più efficientemente di qualsiasi computer classico per matrici di dimensioni sufficientemente grandi.
La connessione tra boson sampling e modelli di Hopfield non era nota prima del lavoro pubblicato nel 2026. Il contributo teorico centrale del paper di Zanfardino e colleghi consiste nell’avere dimostrato formalmente che le statistiche di uscita di un sistema di N fotoni identici su M modi, opportunamente condizionate dalla presenza di un array controllabile di sfasatori binari (phase shifters), sono descritte matematicamente da un Hamiltoniano di Hopfield a p corpi, dove p vale esattamente 2N. Due fotoni generano un modello a quattro corpi (4-body Hopfield), tre fotoni un modello a sei corpi, e così via.
L’architettura del simulatore fotonico: interferometro, sfasatori e modi
L’architettura del simulatore quantistico descritto nel paper si compone di tre elementi funzionali distinti che operano in sequenza.
Il primo elemento è la sorgente di fotoni identici: il sistema richiede fotoni perfettamente indistinguibili, generati tipicamente tramite processi di conversione parametrica spontanea (SPDC, Spontaneous Parametric Down-Conversion) o sorgenti di fotoni singoli basate su difetti in materiali a banda larga o punti quantici (quantum dots). L’indistinguibilità dei fotoni è il requisito più critico per l’interferenza quantistica: qualsiasi differenza nei parametri dei fotoni (frequenza, polarizzazione, larghezza temporale del pacchetto d’onda) riduce la visibilità dell’interferenza e degrada le prestazioni del simulatore.
Il secondo elemento è un array controllabile di sfasatori binari, uno per ciascuno degli M modi ottici. Ogni sfasatore può applicare una fase di 0 o π al campo ottico che lo attraversa, corrispondendo agli stati +1 e -1 dei neuroni Ising nel modello di Hopfield. La configurazione dell’array di sfasatori codifica l’informazione che si vuole memorizzare o il pattern che si vuole far recuperare dalla rete. Questo elemento è fondamentale perché è la componente programmabile del simulatore: cambiando le fasi degli sfasatori, si cambia il pattern memorizzato o si seleziona il pattern da recuperare.
Il terzo elemento è un interferometro lineare multimodale a M ingressi e M uscite, descritto da una matrice unitaria U di dimensione M×M. L’interferometro può essere realizzato fisicamente attraverso una serie di beamsplitter e sfasatori aggiuntivi configurati secondo il design di Clements (2016, Optica), che permette di implementare qualsiasi matrice unitaria MxM con un numero di componenti che cresce quadraticamente con M. Nella configurazione usata per le simulazioni numeriche del paper, M vale 50 modi, con due fotoni (N=2) che generano un modello di Hopfield a quattro corpi su 50 neuroni Ising.
La matematica che collega questi tre elementi al modello di Hopfield si basa sul calcolo delle probabilità di rilevamento in uscita dall’interferometro. La probabilità di osservare uno specifico pattern di rilevamento in uscita, per una data configurazione degli sfasatori di ingresso, è proporzionale al modulo quadro di un permanente di una sottomatrice di U. Sommando opportunamente questi permanenti e applicando la teoria delle repliche della meccanica statistica, si ottiene che la funzione di partizione del sistema fotonico corrisponde esattamente a quella di un modello di Hopfield a p corpi, con il parametro p determinato dal numero di fotoni e la temperatura effettiva controllata dall’architettura dell’interferometro.
Il diagramma di fase: recupero, paramagnetismo e vetro di spin
Uno dei risultati più significativi del paper è la caratterizzazione completa del diagramma di fase del modello di Hopfield a quattro corpi realizzato con l’interferometro fotonico a due fotoni su 50 modi. Il diagramma di fase descrive come il comportamento del sistema varia in funzione di due parametri: la temperatura effettiva T (che nel contesto fotonico è controllata dai parametri dell’interferometro) e il rapporto α tra il numero di pattern memorizzati e il numero di neuroni (modo ottico).
Il sistema esibisce tre fasi distinte, ognuna con proprietà fisiche e computazionali caratteristiche. La prima è la fase paramagnetica, che si manifesta ad alta temperatura effettiva o ad alta densità di memoria (α elevato). In questa fase, il sistema non mostra alcuna correlazione tra stati vicini e non è in grado di recuperare nessuno dei pattern memorizzati: le fluttuazioni termiche sono così forti da distruggere qualsiasi organizzazione. La distribuzione della sovrapposizione (overlap parameter m) tra lo stato del sistema e i pattern memorizzati è centrata su zero, indicando l’assenza di recupero.
La seconda è la fase di recupero (retrieval phase), la regione operativa utile del sistema. Si manifesta a bassa temperatura effettiva e bassa densità di memoria. In questa fase, il sistema evolve spontaneamente verso uno dei pattern memorizzati, permettendo il recupero dell’informazione anche da un pattern di ingresso parzialmente corrotto o incompleto. La coerenza quantistica svolge qui un ruolo cruciale: è l’interferenza costruttiva tra i percorsi di propagazione dei fotoni che “seleziona” il minimo energetico corrispondente al pattern memorizzato e amplifica la probabilità di osservare il pattern di uscita corretto.
La terza è la fase vetro di spin (spin glass phase), la più interessante dal punto di vista teorico. Si manifesta ad alta densità di memoria ma bassa temperatura effettiva, una combinazione in cui il sistema è “freddo” ma sopraffatto dalla quantità di informazione. In questa fase, il sistema si blocca in configurazioni di minimo locale dell’energia che non corrispondono ad alcuno dei pattern memorizzati ma a stati disordinati intermedi, detti stati spuri. L’overlap parameter m con i pattern memorizzati è vicino a zero, ma il parametro d’ordine del vetro di spin q è non nullo, indicando che il sistema ha trovato un minimo ma non uno dei minimi “utili”. È la fase del “black-out della memoria”: il sistema non riesce più a recuperare l’informazione perché è intrappolato in un labirinto di minimi spurii.
La transizione tra la fase di recupero e quella vetro di spin, al crescere di α oltre un valore critico α_c, rappresenta il limite fondamentale della capacità di memoria del simulatore fotonico. Questo limite non è un difetto tecnologico eliminabile con hardware migliore, ma una proprietà intrinseca del modello fisico che deriva dalla matematica dei vetri di spin. Per il modello a quattro corpi (due fotoni), la capacità di memoria è significativamente superiore a quella del modello di Hopfield originale a due corpi, grazie alla natura delle interazioni a corpi multipli che permettono una separazione più netta tra i minimi corrispondenti ai pattern memorizzati e i minimi spuri.
Il collegamento con i vetri di spin e il Nobel di Parisi
La scoperta si inserisce in una tradizione scientifica di lungo corso che lega la fisica teorica dei sistemi disordinati alla teoria dell’apprendimento automatico e delle reti neurali. Questa tradizione ha le sue radici nella teoria delle repliche, un metodo matematico sviluppato da Giorgio Parisi negli anni Settanta e Ottanta per studiare i vetri di spin, sistemi magnetici in cui le interazioni tra i momenti magnetici atomici sono casuali e in competizione (alcune ferromagnetiche, altre antiferromagnetiche), determinando una struttura di energia con un numero esponenziale di minimi locali.
La teoria delle repliche di Parisi ha fornito la soluzione esatta del modello di Sherrington-Kirkpatrick, il modello di vetro di spin più studiato, e ha rivelato che i vetri di spin mostrano una struttura ultrametrica di stati di equilibrio, un risultato di profondo significato teorico. Hopfield si rese conto che i minimi di energia del suo modello di rete neurale corrispondevano matematicamente agli stati di equilibrio dei vetri di spin, e che i metodi della meccanica statistica dei sistemi disordinati erano direttamente applicabili allo studio delle proprietà di memorizzazione e recupero delle reti neurali.
Il paper di Zanfardino e colleghi dimostra che le stesse leggi del disordine che governano i vetri di spin classici emergono anche nei circuiti fotonici quantistici, stabilendo un terzo livello di collegamento che estende la catena teorica dal dominio classico a quello quantistico. Fabrizio Illuminati, direttore del CNR-Nanotec e co-autore della ricerca, ha sottolineato questo aspetto: “dimostriamo che le leggi del disordine osservate nei sistemi classici emergono anche nei circuiti quantistici fotonici”. La transizione verso la fase vetro di spin nel simulatore fotonico non è una patologia del sistema sperimentale, ma la manifestazione quantistica dello stesso fenomeno che Parisi aveva descritto matematicamente per i sistemi classici decenni prima.
La scalabilità del modello: da due fotoni verso sistemi più grandi
Il paper si concentra sul caso specifico di due fotoni su 50 modi, che realizza un modello di Hopfield a quattro corpi. Questa scelta non è limitante per il framework teorico, che si generalizza in modo diretto a un numero arbitrario di fotoni e modi. Con N fotoni, il sistema realizza un modello di Hopfield a 2N corpi, e la capacità di memorizzazione aumenta in modo superlineare con N.
La generalizzazione introduce tuttavia sfide tecnologiche significative. L’indistinguibilità dei fotoni deve essere mantenuta per tutti gli N fotoni simultaneamente, e il tasso di errore nelle coincidenze multi-fotone cresce con N. L’interferometro deve essere programmabile su M modi con una precisione che cresce con le dimensioni del sistema, e le fluttuazioni nella matrice dell’interferometro si traducono in errori nel modello di Hopfield simulato. Il paper discute come future implementazioni potranno esplorare reti con interazioni locali o sparse (non completamente connesse), realizzabili ingegnerizzando matrici di scattering che mescolano solo i modi vicini, e come stati fotonici con ampiezze non uniformi possano abilitare interazioni diluite o dipendenti dalla distanza tra i neuroni.
Un aspetto particolarmente promettente per la scalabilità è la compatibilità dell’architettura con le piattaforme di fotonica integrata su silicio. I circuiti fotonici integrati su silicio permettono di realizzare interferometri multimodali con centinaia di modi in un chip di pochi centimetri quadrati, sfruttando le stesse infrastrutture di produzione del settore microelettronico. La transizione dal banco ottico al chip integrato è quindi tecnologicamente raggiungibile, e il paper cita esplicitamente la fotonica integrata come direzione principale per la realizzazione di dispositivi pratici.
Il consumo energetico dell’hardware AI e il vantaggio della fotonica
Una delle motivazioni pratiche più urgenti che rendono rilevante la ricerca è il problema del consumo energetico dell’intelligenza artificiale. I data center che alimentano i moderni sistemi AI basati su reti neurali profonde consumano quantità crescenti di energia elettrica: stime del settore indicano che entro il 2026 i data center globali potrebbero consumare tra 620 e 1.050 TWh annui, un valore paragonabile al consumo annuo di interi stati europei di medie dimensioni.
Il costo energetico è determinato principalmente da due fattori. Il primo è il consumo dei chip elettronici (GPU e TPU) durante le operazioni di moltiplicazione matrice-vettore che costituiscono il nucleo computazionale delle reti neurali, operazioni in cui si devono moltiplicare e sommare miliardi di numeri in floating point ogni secondo. Il secondo è il costo del raffreddamento: i chip elettronici dissipano calore che deve essere rimosso da sistemi di raffreddamento che in alcuni casi consumano quasi quanto i chip stessi.
I circuiti fotonici operano su principi fisici che eliminano entrambi i problemi alla radice. La propagazione della luce nelle guide d’onda ottiche non genera calore per resistenza ohmica, poiché i fotoni non sono portatori di carica. La moltiplicazione matrice-vettore può essere implementata otticamente attraverso la propagazione in un interferometro multimodale: ogni fotone che attraversa l’interferometro computa implicitamente l’operazione lineare corrispondente alla matrice unitaria dell’interferometro, senza dissipare energia nel processo di calcolo vero e proprio. Il consumo energetico residuo riguarda solo i rivelatori di fotoni e gli eventuali modulatori (come gli sfasatori) necessari per programmare il circuito.
Luca Leuzzi del CNR-Nanotec ha quantificato l’entità potenziale del vantaggio: dispositivi di tipo fotonico integrato potrebbero “garantire elevate prestazioni con un consumo energetico drasticamente inferiore rispetto agli attuali data center”. La parola “drasticamente” riflette ordini di grandezza, non percentuali: mentre le ottimizzazioni nell’efficienza dei chip elettronici si misurano in fattori 2-5x per generazione, i circuiti fotonici hanno il potenziale teorico di ridurre il consumo delle operazioni computazionali di 2-3 ordini di grandezza, poiché eliminano la dissipazione ohmica e il suo effetto dominante sul bilancio energetico.
Le applicazioni oltre l’intelligenza artificiale: sistemi complessi e reti biologiche
Il comunicato stampa ufficiale del CNR e il paper su Physical Review Letters sottolineano che le implicazioni della ricerca non si limitano al dominio dell’intelligenza artificiale. La piattaforma fotonica sviluppata per simulare il modello di Hopfield è in realtà uno strumento più generale per la simulazione di sistemi fisici complessi e disordinati che sono difficili o impossibili da trattare con computer classici.
I sistemi complessi disordinati comprendono una vasta gamma di fenomeni naturali: le reti di interazione proteica nelle cellule biologiche, la dinamica delle reti ecologiche, i modelli del clima e delle correnti oceaniche, i sistemi di ottimizzazione combinatoria come il problema del commesso viaggiatore. Tutti questi sistemi condividono la caratteristica di avere un numero esponenziale di stati possibili con energie simili, rendendo la loro simulazione classica computazionalmente intrattabile per dimensioni rilevanti.
La connessione stabilita nel paper tra interferometri fotonici e modelli di Hopfield suggerisce che la stessa architettura potrebbe essere usata per simulare direttamente la fisica di questi sistemi, sfruttando il quantum advantage del boson sampling per campionare dalla distribuzione di probabilità degli stati in modo più efficiente rispetto ai metodi Monte Carlo classici. Fabrizio Illuminati ha esplicitato questa prospettiva descrivendo il circuito fotonico come “un vero e proprio laboratorio in miniatura, capace di esplorare i fenomeni complessi che governano sistemi naturali e artificiali, dal clima alle reti biologiche”.
Il team di ricerca: istituzioni e autori
Il paper è firmato da otto autori appartenenti a sei istituzioni in quattro paesi. Il primo autore è Gennaro Zanfardino, borsista di ricerca dell’Università del Salento e affiliato all’INFN (Sezione di Napoli, Gruppo Collegato di Salerno), che ha condotto la parte centrale dell’analisi teorica. Il secondo autore è Stefano Paesani del Niels Bohr Institute dell’Università di Copenaghen e del Center for Hybrid Quantum Networks (Hy-Q), responsabile della componente di fotonica sperimentale e teorica. Luca Leuzzi, dirigente di ricerca del CNR-Nanotec e affiliato alla Sapienza Università di Roma, ha coordinato il collegamento con la teoria delle reti neurali e dei vetri di spin. Raffaele Santagati è affiliato ai Quantum Lab di Boehringer Ingelheim (Ingelheim am Rhein, Germania), azienda farmaceutica con un programma di ricerca in quantum computing.
Fabio Sciarrino, professore alla Sapienza Università di Roma, è uno dei principali esperti europei di quantum information e fotonica quantistica. Fabrizio Illuminati, direttore del CNR-Nanotec e professore all’Università degli Studi di Salerno, ha coordinato l’aspetto della meccanica statistica quantistica. Giancarlo Ruocco, professore alla Sapienza e affiliato all’IIT (Center for Life Nano- and Neuro-Science), ha contribuito all’analisi dei sistemi complessi. Il corrispondente del paper è Marco Leonetti del CNR-Nanotec, ricercatore specializzato in ottica disordinata e reti fotoniche complesse. La ricerca è stata finanziata da INFN, dal Ministero dell’Università e della Ricerca italiano, e da programmi europei di ricerca in quantum technology, inserendosi nel quadro più ampio del Quantum Flagship europeo, l’iniziativa decennale della Commissione Europea per lo sviluppo di tecnologie quantistiche.
