L’intelligenza artificiale, l’era agentica e l’infrastruttura invisibile che la rende possibile. Analisi del saggio di Matt Shumer, dell’AI Festival di Milano e di ciò che un data center a Caserta ha già capito.
Qualche mese fa, tra il 21 e il 22 gennaio 2026, all’Edificio Roentgen dell’Università Bocconi si è tenuta la terza edizione dell’AI Festival organizzata da WMF, We Make Future. Il tema scelto era “Empowering the Agentic Era”. Oltre 10.000 presenze, più di 200 speaker, 70 investitori, 200 startup. Un ecosistema radunato attorno a una domanda che, di lì a poche settimane, avrebbe raggiunto 80 milioni di persone in tutto il mondo.
Precisamente, il 9 febbraio 2026, Matt Shumer, co-fondatore e CEO di OthersideAI, pubblicava sul suo blog personale uno scritto intitolato: “Something Big Is Happening”. Nel quale manifestava quello che in molti nell’industria già pensavano ma non pronunciavano ad alta voce. Risultato: 80 milioni di visualizzazioni, copertine su Fortune, Il Sole 24 Ore, The Guardian.
Ora, a qualche mese di distanza da quel momento, la traiettoria descritta non si è appiattita. Anzi, semmai, si sta rendendo più leggibile.
Il giro di boa che Shumer descrive nel suo saggio è preciso: il 5 febbraio 2026. Quel giorno, OpenAI e Anthropic hanno rilasciato nuovi modelli in simultanea: GPT-5.3 Codex e Claude Opus 4.6.
Shumer racconta cosa ha significato concretamente per lui: descrive all’AI in linguaggio naturale cosa vuole costruire, se ne va per quattro ore, torna e trova il lavoro finito. Non una bozza da correggere: il prodotto finale. Il modello ha aperto l’applicazione autonomamente, fatto clic sui pulsanti, testato le funzionalità, iterato.
“Non sono più necessario per il lavoro tecnico del mio lavoro.”
Aggiunge che con GPT-5.3 Codex ha percepito per la prima volta qualcosa che assomigliava a un giudizio, a un gusto, quella capacità di capire quale sia la scelta giusta che si diceva l’AI non avrebbe mai avuto. Il festival aveva costruito la cornice teorica. Il 5 febbraio aveva fornito la dimostrazione pratica. Il 9 febbraio, Shumer aveva dipinto il quadro con le parole giuste.
La parola agente, nel contesto dell’intelligenza artificiale, non è nuova. Il dizionario Treccani la definisce, nella sua terza accezione, come “programma software che interagisce con l’ambiente in modo autonomo, raccogliendo dati e utilizzandoli per raggiungere certi obiettivi predeterminati dall’essere umano”. Non tutti gli agenti sono uguali. Esistono quattro livelli:
Un sistema ad agente è costruito attorno a cinque componenti: profilo e personaggio, azioni e strumenti, memoria e conoscenza, ragionamento e valutazione, planning e feedback. Per problemi più complessi, questi sistemi si moltiplicano in architetture multi-agente.
Shumer cita l’organizzazione METR, che misura la lunghezza dei compiti che un modello AI riesce a completare autonomamente senza intervento umano. La progressione documentata nel saggio:
Quel numero stava raddoppiando circa ogni sette mesi. Il rilascio di Claude Opus 4.6 il 5 febbraio 2026 non era ancora incluso in quella misurazione, siamo ora qualche mese dopo. I dati METR aggiornati devono essere verificati sulla fonte primaria. Se si estende il trend documentato nel saggio, si arriva ad AI capace di lavorare autonomamente per giorni nell’arco di un anno, per settimane nell’arco di due, per mesi nell’arco di tre.
“Chiunque stia ancora sostenendo quella posizione o non ha usato i modelli attuali, ha un interesse a minimizzare quello che sta accadendo, o sta valutando in base a un’esperienza del 2024 che non è più rilevante.” (Matt Shumer)
Il passaggio che Shumer considera il più importante è nella documentazione tecnica di GPT-5.3 Codex: “GPT-5.3-Codex è il nostro primo modello che ha contribuito in modo determinante a costruire se stesso. Il team di Codex ha usato versioni preliminari per fare debug del proprio training, gestire il proprio deployment, e diagnosticare risultati e valutazioni.” (OpenAI)
Non è una previsione: è OpenAI che annuncia, nel momento del rilascio, che il modello appena pubblicato è stato usato per creare se stesso. Dario Amodei, CEO di Anthropic, ha dichiarato che potremmo essere “a soli 1-2 anni da un punto in cui la generazione attuale di AI costruisce autonomamente la prossima“. Quella dichiarazione risale a inizio 2026. Siamo a maggio 2026: il margine si è ristretto.
L’incipit di Shumer è un’analogia volutamente brutale. Pensate a febbraio 2020: un virus circolava in Asia, la borsa andava bene, i bambini erano a scuola. Chi diceva di fare scorta di carta igienica sembrava pazzo. Poi, nel giro di tre settimane, il mondo è cambiato completamente.
“Penso che siamo nella fase “sembra esagerato” di qualcosa di molto, molto più grande del Covid.” (Matt Shumer)
Shumer scrive per le persone comuni, per gli amici che gli chiedono di spiegare davvero cosa sta succedendo. Sono le stesse domande che rimbalzavano tra i corridoi della Bocconi a gennaio, ma in una versione che non richiedeva un biglietto d’ingresso.
L’esperienza vissuta dai lavoratori tech, guardare l’AI passare da “strumento utile” a “fa il mio lavoro meglio di me” è l’esperienza che in molti probabilmente stanno per fare. Shumer cita esplicitamente: legge, finanza, medicina, contabilità, consulenza, scrittura, design, analisi, servizio clienti. Non tra dieci anni.
Amodei ha dichiarato che l’AI sostanzialmente diventerà più intelligente di quasi tutti gli esseri umani in quasi tutti i compiti tra il 2026 e il 2027. Il managing partner di un grande studio legale che Shumer cita senza nominare trascorre ore ogni giorno con l’AI. Gli ha detto che è come avere un team di associati disponibili istantaneamente.
“Non è in preda al panico. Ma sta prestando molta attenzione.”
Fin qui, il saggio di Shumer. Ma c’è una domanda che quel saggio non pone e che per chi lavora in infrastruttura, in IT e in cybersecurity è la domanda più concreta di tutte.
Dove gira un agente autonomo che lavora per quattro ore senza interruzione? Non nell’aria. Gira su server fisici, in sale server con doppia ridondanza, con alimentazione non interrompibile, con connettività misurata in millisecondi. Ogni raddoppio del tempo di task autonomo è un raddoppio del requisito di continuità operativa.
Poco dopo la pubblicazione del saggio di Shumer pubblicavamo il reportage di su DataFelix DF01, un data center Tier III+ a Caserta, in Campania. La struttura ha ottenuto la qualifica ACN AI1, è pubblicata nel catalogo ufficiale ACN con ID IN-6428 e detiene le certificazioni ISO 27001, ISO 27017 e ISO 27018.
“I rack che stanno qui dentro non se ne accorgono proprio. Se esplode un trasformatore, parte il gruppo elettrogeno, alimenta l’UPS che per 30 secondi usa le batterie, poi passa alla corrente del generatore. Tutto senza un singolo millisecondo di interruzione. È come avere tre paracadute.” (Michele, sistemista DataFelix)
Francesco Taurino, CIO e fondatore di DataFelix, ha progettato l’impianto termico “studiando un secolo di dati meteorologici”: con 45°C esterni, la struttura mantiene 23°C costanti. La latenza da DataFelix a Milano è di 10-12 millisecondi. Per un’azienda collegata in fibra punto-punto dedicata, si scende a 0,1 millisecondi. Sono i numeri che contano quando un agente autonomo deve interrogare un database o aggiornare un sistema in tempo reale.
Un agente autonomo che lavora per ore ha accesso a strumenti, API, sistemi. Ha, per definizione, una superficie d’attacco più ampia di qualsiasi chatbot. La “carta bianca” che Shumer descrive come abilitante è, dal punto di vista della sicurezza, esattamente ciò che preoccupa.
DataFelix risponde a questa preoccupazione dal lato infrastrutturale: monitoraggio dei log H24, analisi del traffico verso IP malevoli e command and control di botnet, osservazione del dark web per credenziali e indirizzi IP compromessi.
“Sapere in anticipo se i tuoi indirizzi IP o le tue credenziali circolano in qualche forum underground vale quanto un buon firewall.” (Francesco Taurino)
La qualifica ACN AI1 non è estetica: è normativa. Per un agente autonomo che opera per conto di un ente pubblico -classificazione automatica di pratiche, analisi di documenti, gestione di flussi burocratici -l’infrastruttura sottostante deve soddisfare questi requisiti. Il “dove gira” è una domanda di conformità, di responsabilità, di sovranità del dato.
Paulo Carvao su Forbes ha osservato che alcune raccomandazioni di Shumer “suonano come un pitch di vendita”. The Guardian ha ricordato la sua storia di hype sull’AI, incluso un annuncio precedente sul “miglior modello open source al mondo” che non lo era. Le critiche non demoliscono il nucleo dell’argomento il ritmo di miglioramento è reale e documentato dai dati METR ma invitano a distinguere tra la descrizione del fenomeno e i consigli pratici che ne derivano.
Siamo ora qualche mese dopo quel momento. I modelli citati nel saggio sono in produzione. Le previsioni di Amodei si avvicinano alla loro scadenza. I dati METR continuano ad aggiornarsi.
La prospettiva di chi costruisce infrastruttura, come Taurino a Caserta, che ha comprato l’immobile, tirato i cavi e ottenuto le certificazioni senza fondi pubblici, è forse la più lucida. Non vende visioni. Fornisce continuità. E la continuità, nell’era degli agenti autonomi, è la risorsa più scarsa.
“Le persone in cima alle onde portanti di ogni grande trasformazione tecnologica non erano necessariamente le più intelligenti, erano quelle che avevano visto la forma dell’onda prima che arrivasse a riva.” (Matt Shumer)
L’AI Festival era già sulla riva. Shumer ha costruito la segnaletica per chi era ancora in spiaggia. DataFelix ha costruito il fondale su cui l’onda può appoggiarsi. Il resto dipende da chi si mette in ascolto.
Fonti: