Qualcosa di Grande sta accadendo, e ha bisogno di un posto dove girare

L’intelligenza artificiale, l’era agentica e l’infrastruttura invisibile che la rende possibile. Analisi del saggio di Matt Shumer, dell’AI Festival di Milano e di ciò che un data center a Caserta ha già capito.
Milano sapeva già. Ora si vede.
Qualche mese fa, tra il 21 e il 22 gennaio 2026, all’Edificio Roentgen dell’Università Bocconi si è tenuta la terza edizione dell’AI Festival organizzata da WMF, We Make Future. Il tema scelto era “Empowering the Agentic Era”. Oltre 10.000 presenze, più di 200 speaker, 70 investitori, 200 startup. Un ecosistema radunato attorno a una domanda che, di lì a poche settimane, avrebbe raggiunto 80 milioni di persone in tutto il mondo.
Precisamente, il 9 febbraio 2026, Matt Shumer, co-fondatore e CEO di OthersideAI, pubblicava sul suo blog personale uno scritto intitolato: “Something Big Is Happening”. Nel quale manifestava quello che in molti nell’industria già pensavano ma non pronunciavano ad alta voce. Risultato: 80 milioni di visualizzazioni, copertine su Fortune, Il Sole 24 Ore, The Guardian.
Ora, a qualche mese di distanza da quel momento, la traiettoria descritta non si è appiattita. Anzi, semmai, si sta rendendo più leggibile.

Il 5 febbraio 2026: il tornante
Il giro di boa che Shumer descrive nel suo saggio è preciso: il 5 febbraio 2026. Quel giorno, OpenAI e Anthropic hanno rilasciato nuovi modelli in simultanea: GPT-5.3 Codex e Claude Opus 4.6.
Shumer racconta cosa ha significato concretamente per lui: descrive all’AI in linguaggio naturale cosa vuole costruire, se ne va per quattro ore, torna e trova il lavoro finito. Non una bozza da correggere: il prodotto finale. Il modello ha aperto l’applicazione autonomamente, fatto clic sui pulsanti, testato le funzionalità, iterato.
“Non sono più necessario per il lavoro tecnico del mio lavoro.”
Aggiunge che con GPT-5.3 Codex ha percepito per la prima volta qualcosa che assomigliava a un giudizio, a un gusto, quella capacità di capire quale sia la scelta giusta che si diceva l’AI non avrebbe mai avuto. Il festival aveva costruito la cornice teorica. Il 5 febbraio aveva fornito la dimostrazione pratica. Il 9 febbraio, Shumer aveva dipinto il quadro con le parole giuste.
Che cos’è davvero un agente autonomo
La parola agente, nel contesto dell’intelligenza artificiale, non è nuova. Il dizionario Treccani la definisce, nella sua terza accezione, come “programma software che interagisce con l’ambiente in modo autonomo, raccogliendo dati e utilizzandoli per raggiungere certi obiettivi predeterminati dall’essere umano”. Non tutti gli agenti sono uguali. Esistono quattro livelli:
- Interazione diretta. L’utente parla direttamente al modello. È l’esperienza delle prime versioni di ChatGPT.
- Agente proxy. Un modello si interpone tra l’utente e un secondo sistema, riformulando le richieste. Migliora i prompt, non decide.
- Agente assistente. Il modello conosce funzioni e strumenti disponibili, li chiama, ma aspetta l’approvazione dell’utente. Ha consapevolezza degli strumenti, non autonomia.
- Agente autonomo. Interpreta l’obiettivo, costruisce un piano, identifica i punti decisionali, esegue i passaggi e prende decisioni in modo indipendente.
Un sistema ad agente è costruito attorno a cinque componenti: profilo e personaggio, azioni e strumenti, memoria e conoscenza, ragionamento e valutazione, planning e feedback. Per problemi più complessi, questi sistemi si moltiplicano in architetture multi-agente.

I dati di METR: la misura del tempo autonomo
Shumer cita l’organizzazione METR, che misura la lunghezza dei compiti che un modello AI riesce a completare autonomamente senza intervento umano. La progressione documentata nel saggio:
- Un anno fa: circa 10 minuti
- Poi: un’ora
- Poi: diverse ore
- Ultima misurazione pubblica riportata da Shumer (Claude Opus 4.5, novembre 2025): quasi 5 ore
Quel numero stava raddoppiando circa ogni sette mesi. Il rilascio di Claude Opus 4.6 il 5 febbraio 2026 non era ancora incluso in quella misurazione, siamo ora qualche mese dopo. I dati METR aggiornati devono essere verificati sulla fonte primaria. Se si estende il trend documentato nel saggio, si arriva ad AI capace di lavorare autonomamente per giorni nell’arco di un anno, per settimane nell’arco di due, per mesi nell’arco di tre.
Il progresso dal 2022 al 2026
- 2022: l’AI non sapeva fare aritmetica di base in modo affidabile. Diceva con sicurezza che 7 × 8 = 54.
- 2023: superava l’esame dell’avvocatura.
- 2024: scriveva software funzionante e spiegava concetti scientifici a livello universitario avanzato.
- Fine 2025: alcuni tra i migliori ingegneri al mondo avevano ceduto la maggior parte del proprio lavoro di codice all’AI.
- 5 febbraio 2026: arrivano modelli che fanno sembrare tutto il precedente un’era diversa.
“Chiunque stia ancora sostenendo quella posizione o non ha usato i modelli attuali, ha un interesse a minimizzare quello che sta accadendo, o sta valutando in base a un’esperienza del 2024 che non è più rilevante.” (Matt Shumer)
L’AI che costruisce se stessa
Il passaggio che Shumer considera il più importante è nella documentazione tecnica di GPT-5.3 Codex: “GPT-5.3-Codex è il nostro primo modello che ha contribuito in modo determinante a costruire se stesso. Il team di Codex ha usato versioni preliminari per fare debug del proprio training, gestire il proprio deployment, e diagnosticare risultati e valutazioni.” (OpenAI)
Non è una previsione: è OpenAI che annuncia, nel momento del rilascio, che il modello appena pubblicato è stato usato per creare se stesso. Dario Amodei, CEO di Anthropic, ha dichiarato che potremmo essere “a soli 1-2 anni da un punto in cui la generazione attuale di AI costruisce autonomamente la prossima“. Quella dichiarazione risale a inizio 2026. Siamo a maggio 2026: il margine si è ristretto.
L’analogia che ha fatto esplodere tutto
L’incipit di Shumer è un’analogia volutamente brutale. Pensate a febbraio 2020: un virus circolava in Asia, la borsa andava bene, i bambini erano a scuola. Chi diceva di fare scorta di carta igienica sembrava pazzo. Poi, nel giro di tre settimane, il mondo è cambiato completamente.
“Penso che siamo nella fase “sembra esagerato” di qualcosa di molto, molto più grande del Covid.” (Matt Shumer)
Shumer scrive per le persone comuni, per gli amici che gli chiedono di spiegare davvero cosa sta succedendo. Sono le stesse domande che rimbalzavano tra i corridoi della Bocconi a gennaio, ma in una versione che non richiedeva un biglietto d’ingresso.
Cosa significa per il lavoro
L’esperienza vissuta dai lavoratori tech, guardare l’AI passare da “strumento utile” a “fa il mio lavoro meglio di me” è l’esperienza che in molti probabilmente stanno per fare. Shumer cita esplicitamente: legge, finanza, medicina, contabilità, consulenza, scrittura, design, analisi, servizio clienti. Non tra dieci anni.
Amodei ha dichiarato che l’AI sostanzialmente diventerà più intelligente di quasi tutti gli esseri umani in quasi tutti i compiti tra il 2026 e il 2027. Il managing partner di un grande studio legale che Shumer cita senza nominare trascorre ore ogni giorno con l’AI. Gli ha detto che è come avere un team di associati disponibili istantaneamente.
“Non è in preda al panico. Ma sta prestando molta attenzione.”

L’era agentica ha bisogno di un posto dove girare
Fin qui, il saggio di Shumer. Ma c’è una domanda che quel saggio non pone e che per chi lavora in infrastruttura, in IT e in cybersecurity è la domanda più concreta di tutte.
Dove gira un agente autonomo che lavora per quattro ore senza interruzione? Non nell’aria. Gira su server fisici, in sale server con doppia ridondanza, con alimentazione non interrompibile, con connettività misurata in millisecondi. Ogni raddoppio del tempo di task autonomo è un raddoppio del requisito di continuità operativa.
Poco dopo la pubblicazione del saggio di Shumer pubblicavamo il reportage di su DataFelix DF01, un data center Tier III+ a Caserta, in Campania. La struttura ha ottenuto la qualifica ACN AI1, è pubblicata nel catalogo ufficiale ACN con ID IN-6428 e detiene le certificazioni ISO 27001, ISO 27017 e ISO 27018.
“I rack che stanno qui dentro non se ne accorgono proprio. Se esplode un trasformatore, parte il gruppo elettrogeno, alimenta l’UPS che per 30 secondi usa le batterie, poi passa alla corrente del generatore. Tutto senza un singolo millisecondo di interruzione. È come avere tre paracadute.” (Michele, sistemista DataFelix)
Francesco Taurino, CIO e fondatore di DataFelix, ha progettato l’impianto termico “studiando un secolo di dati meteorologici”: con 45°C esterni, la struttura mantiene 23°C costanti. La latenza da DataFelix a Milano è di 10-12 millisecondi. Per un’azienda collegata in fibra punto-punto dedicata, si scende a 0,1 millisecondi. Sono i numeri che contano quando un agente autonomo deve interrogare un database o aggiornare un sistema in tempo reale.
Cybersecurity nell’era agentica: il lato oscuro della traiettoria
Un agente autonomo che lavora per ore ha accesso a strumenti, API, sistemi. Ha, per definizione, una superficie d’attacco più ampia di qualsiasi chatbot. La “carta bianca” che Shumer descrive come abilitante è, dal punto di vista della sicurezza, esattamente ciò che preoccupa.
DataFelix risponde a questa preoccupazione dal lato infrastrutturale: monitoraggio dei log H24, analisi del traffico verso IP malevoli e command and control di botnet, osservazione del dark web per credenziali e indirizzi IP compromessi.
“Sapere in anticipo se i tuoi indirizzi IP o le tue credenziali circolano in qualche forum underground vale quanto un buon firewall.” (Francesco Taurino)
La qualifica ACN AI1 non è estetica: è normativa. Per un agente autonomo che opera per conto di un ente pubblico -classificazione automatica di pratiche, analisi di documenti, gestione di flussi burocratici -l’infrastruttura sottostante deve soddisfare questi requisiti. Il “dove gira” è una domanda di conformità, di responsabilità, di sovranità del dato.
Le critiche: cosa Shumer non ha detto
Paulo Carvao su Forbes ha osservato che alcune raccomandazioni di Shumer “suonano come un pitch di vendita”. The Guardian ha ricordato la sua storia di hype sull’AI, incluso un annuncio precedente sul “miglior modello open source al mondo” che non lo era. Le critiche non demoliscono il nucleo dell’argomento il ritmo di miglioramento è reale e documentato dai dati METR ma invitano a distinguere tra la descrizione del fenomeno e i consigli pratici che ne derivano.
Conclusione: la forma dell’onda
Siamo ora qualche mese dopo quel momento. I modelli citati nel saggio sono in produzione. Le previsioni di Amodei si avvicinano alla loro scadenza. I dati METR continuano ad aggiornarsi.
La prospettiva di chi costruisce infrastruttura, come Taurino a Caserta, che ha comprato l’immobile, tirato i cavi e ottenuto le certificazioni senza fondi pubblici, è forse la più lucida. Non vende visioni. Fornisce continuità. E la continuità, nell’era degli agenti autonomi, è la risorsa più scarsa.
“Le persone in cima alle onde portanti di ogni grande trasformazione tecnologica non erano necessariamente le più intelligenti, erano quelle che avevano visto la forma dell’onda prima che arrivasse a riva.” (Matt Shumer)
L’AI Festival era già sulla riva. Shumer ha costruito la segnaletica per chi era ancora in spiaggia. DataFelix ha costruito il fondale su cui l’onda può appoggiarsi. Il resto dipende da chi si mette in ascolto.
Fonti:
- Matt Shumer, Something Big Is Happening (shumer.dev, 9 febbraio 2026)
- AI Festival 2026, Università Bocconi, Milano, 21-22 gennaio 2026
- Fortune critica di Paulo Carvao al saggio di Shumer
