A ottobre 2024 ho scritto un articolo su questo sito per riordinare e condividere alcune informazioni su un tema ormai molto “rumoroso”, l’Intelligenza Artificiale. Avevo cercato di andare oltre il clamore e guardare la sostanza — definizioni, infrastrutture, applicazioni concrete, costi reali. Avevo anche detto che sarei tornato sull’argomento ma ci ho messo ben 18 mesi, e non per pigrizia, ma perché in questo periodo è successo così tanto da.. non avere abbastanza tempo per starci dietro tra studio, test, prime applicazioni.
Ciò che avevo scritto reggeva nei fondamentali — definizioni di sistema AI, distinzione tra ML tradizionale e LLM, tema delle risorse computazionali, differenza tra uso individuale e aziendale. Ma il panorama nel frattempo si è trasformato in modo inaspettato, sia per velocità che per direzione. Alcune certezze che sembravano consolidate sono saltate. Alcune tendenze si sono accelerate in modo quasi violento. E qualcuno ha mosso pezzi sulla scacchiera geopolitica che fino a poco fa sembravano fermi.
Vediamo cosa è successo — nel bene e nel male.
1- La fine del mito della scala: DeepSeek riscrive le regole
Fino a poco tempo fa la narrativa dominante era che i modelli di AI (soprattutto quella generativa) migliorassero in proporzione alla dimensione — più parametri, più GPU, più dati, più potenza computazionale. Conseguenza pratica: solo chi ha miliardi da spendere in infrastruttura può stare in prima fila. NVIDIA era (ed ancora è) il nuovo oro, e gli USA erano il nuovo monopolio.
Però a gennaio 2025 l’azienda cinese DeepSeek ha fatto saltare questa narrativa con un prodotto chiamato R1.
R1 è un modello open source con pesi – parametri interni appresi durante l’addestramento e ulteriormente affinabili che determinano come il modello risponde – sono pubblici e scaricabili liberamente. In base a vari benchmark eguaglia GPT-4 e supera i modelli di ultima generazione di Google. Il punto che ha fatto tremare i mercati non è stata la performance in sé, ma il modo in cui è stata ottenuta: DeepSeek ha dichiarato di aver usato 2.000 GPU NVIDIA invece delle 16.000+ impiegate da OpenAI per addestrare modelli comparabili, con un costo di training stimato attorno ai 6 milioni di dollari, contro le centinaia di milioni spesi dai competitor americani.
Come è possibile? Attraverso un’architettura chiamata Mixture of Experts (MoE): invece di attivare tutti i parametri del modello per ogni query — come fanno i modelli “dense” tradizionali — solo una parte specializzata del modello si attiva in base al tipo di problema. Più efficiente, non semplicemente più grande.
Il giorno del lancio, NVIDIA ha perso 600 miliardi di dollari di capitalizzazione in borsa in poche ore. Non perché DeepSeek li abbia sconfitti tecnicamente, ma perché il mercato ha capito che il racconto “più compute = migliore AI” potrebbe non essere eterno. E se non è eterno, il valore atteso delle GPU future si ridimensiona.
DeepSeek non ha risolto il problema dell’efficienza, incluso quella energetica — lo ha spostato. I modelli più efficienti rendono l’AI più accessibile, il che significa più utilizzo e più compute complessivo: quando un processo diventa più efficiente, il suo consumo totale di risorse spesso cresce, non scende. In realtà DeepSeek ha fatto qualcosa di altrettanto importante: ha dimostrato che l’innovazione algoritmica conta quanto l’infrastruttura, e che il monopolio tecnologico americano nel campo dell’AI non è garantito.
2- I modelli che “pensano”: l’AI rallenta per fare meglio
Nel mio articolo del 2024 ho descritto i LLM come sistemi che generano output a partire da input — probabilistici, veloci, a volte imprecisi su ragionamenti complessi. Negli ultimi 18 mesi è emersa una famiglia di modelli con un approccio diverso: prima di rispondere, ragionano.
OpenAI ha lanciato o1 a dicembre 2024 e o3 ad aprile 2025. Questi modelli impiegano più tempo — e più risorse computazionali — per elaborare una risposta, simulando una catena di ragionamento interno prima di produrre l’output. Il risultato: su compiti che richiedono logica, matematica, programmazione complessa o analisi multi-step, le performance migliorano significativamente — fino al 20% di errori in meno rispetto ai modelli precedenti su certi benchmark.
Un aspetto negativo è che il costo per gestire ogni query è più alto, ma per applicazioni professionali dove la qualità della risposta conta davvero — diagnostica, pianificazione industriale, ricerca, analisi legale — o per applicazioni altrettanto critiche come la difesa militare (che avrei preferito non menzionare) il trade-off ha senso.
DeepSeek R1 appartiene anche a questa categoria: è un modello reasoning open source che ottiene risultati comparabili a o1, a una frazione del costo, e ormai tutti i principali provider di servizi AI convergono su questo tipo di applicazioni basate sul ragionamento complesso.
3- L’AI agentiva: da strumento a collaboratore — o a concorrente?
Nel 2024 parlavo di LLM come assistenti virtuali e co-pilot. Oggi la conversazione si è spostata su qualcosa di più ambizioso: gli agenti.
Un agente AI non si limita a rispondere — pianifica, usa strumenti, esegue sequenze di azioni in autonomia, e si corregge se qualcosa va storto. Può cercare informazioni sul web, scrivere e eseguire codice, compilare form, inviare email, coordinare altri agenti. Il tutto senza intervento umano continuo.
Secondo McKinsey (State of AI 2025), l’88% delle organizzazioni usa già l’AI regolarmente in almeno una funzione aziendale; il 62% dichiara di stare sperimentando o scalando sistemi di AI agentiva specifica. Gartner stima che il 40% delle applicazioni enterprise integrerà agenti AI per task specifici entro fine 2026, rispetto a meno del 5% nel 2025. Insomma, la curva di adozione è ripida.
Ciò che forse deve preoccupare maggiormente non è il rischio che gli agenti diventino “senzienti” ma che vengano introdotti forse troppo velocemente in processi che non sono stati ri-progettati per includerli, e con aspettative di autonomia che non corrispondono alle reali capacità attuali. Peraltro, un agente che commette un errore in un flusso automatizzato può moltiplicare quell’errore molto prima che qualcuno se ne accorga.
Forse la domanda più giusta da porsi non è se “posso usare un agente AI per far questo?” ma piuttosto: “il mio processo è abbastanza robusto da tollerare e intercettare un errore autonomo?”
4- L’infrastruttura: la corsa è diventata gara geopolitica
Nel 2024 avevo già segnalato il tema delle risorse come centrale — GPU, data center, energia, impatto ambientale. Nel 2025 questo tema si è ingigantito oltre ogni previsione ragionevole.
A gennaio 2025, Donald Trump ha annunciato il Progetto Stargate: una joint venture tra OpenAI, Oracle, SoftBank e Microsoft con un piano di investimento da 500 miliardi di dollari in infrastruttura AI negli Stati Uniti nei prossimi quattro anni. La pipeline attuale è di quasi 7 gigawatt di capacità computazionale. I data center USA hanno consumato 183 TWh nel 2024 — circa il 4% dell’intera elettricità nazionale americana. Le proiezioni per il 2030 parlano di 426 TWh, più del doppio.
L’IEA ha pubblicato nel 2025 dati che fanno riflettere: i data center globali hanno consumato circa 415 TWh nel 2024 e raggiungeranno circa 945 TWh nel 2030 — più del doppio. In USA e Cina, dove si concentra la maggior parte dell’infrastruttura AI, oltre il 60% di questa energia proviene ancora da fonti fossili, e la stessa quota si prevede copra gran parte della crescita futura. Un singolo data center AI di dimensioni tipiche consuma quanto 100.000 famiglie — i più grandi attualmente in costruzione, venti volte di più.
Nel mio articolo del 2024 avevo già scritto che “se l’energia usata non fosse di tipo rinnovabile, si porrebbe un problema non trascurabile di impatto ambientale”. A questo punto il problema non è più ipotetico. È in corso.
L’altra dimensione di questa corsa è geopolitica. Stargate è esplicitamente posizionato come risposta alla Cina, ma la stessa DeepSeek è la dimostrazione, forse involontaria ma efficace, che i controlli alle esportazioni di GPU avanzate verso la Cina, introdotti dagli USA, non fermano lo sviluppo cinese, ma lo hanno solo reso più creativo.
La battaglia per la sovranità tecnologica nel campo dell’AI è iniziata, e l’Europa — inclusa l’Italia — è però ancora spettatrice più che protagonista.
5- Il regolatore si è svegliato: l’AI Act è ora legge operativa
Nel 2024 citavo l’AI Act Europeo come riferimento definitorio. Oggi è enforcement attivo, con date precise e sanzioni reali.
Febbraio 2025: vietate le pratiche AI a rischio inaccettabile — social scoring, manipolazione comportamentale, sistemi biometrici di identificazione di massa in spazi pubblici.
Agosto 2025: in vigore gli obblighi per i modelli di AI general purpose (GPAI) — trasparenza, documentazione, gestione dei rischi. L’AI Office EU diventa operativo con poteri ispettivi reali.
Agosto 2026: entrano in vigore le regole per i sistemi AI ad alto rischio — dove ricade la maggior parte delle applicazioni industriali, mediche, legali e di sicurezza.
Le sanzioni potranno arrivare fino a 35 milioni di euro o il 7% del fatturato globale.
In Italia si aggiunge un layer normativo ulteriore: a settembre 2025 è stata approvata la Legge 132/2025, prima legge nazionale sull’AI, centrata sui principi di human-centered AI, trasparenza e sicurezza.
Sul versante degli incentivi, i programmi Industria 4.0 e Transizione 5.0 — programma che premia digitalizzazione abbinata a sostenibilità — stanno provando a creare opportunità concrete per le aziende di investire in AI senza perdere di vista la decarbonizzazione, ma sono opportunità che molti ancora non hanno colto, e non solo per propria colpa.
Una lettura d’insieme
In 18 mesi l’AI è passata dall’essere una promessa eccitante a tecnologia con conseguenze reali — economiche, ambientali, geopolitiche, normative. Non è più un tema da tenere sotto osservazione: è già dentro le decisioni di investimento, i processi aziendali, i bilanci energetici e le politiche industriali.
Quello che occorre sottolineare — forse perché è un punto spesso frainteso — è che la velocità di evoluzione tecnologica non è stata accompagnata di pari passo da una crescita di maturità nei processi di adozione. Le aziende che stanno implementando AI (non poche) lo fanno spesso senza riprogettare i processi coinvolti, trascurando governance chiara e piani per gestire gli errori. La tecnologia è pronta, ma le organizzazioni in gran parte non lo sono, e per assurdo la stessa AI se ben usata potrebbe aiutare concretamente questo cambiamento.
Sul fronte opposto, chi rimane fermo ad aspettare che “le cose si stabilizzino” rischia di scoprire che le cose non si stabilizzano ma semplicemente evolvono, e velocemente. Ancora una volta, non esistono punti di equilibrio e occorre imparare a muoversi su un terreno che a sua volta è in continuo movimento.
Alcune fonti di ispirazione per questo articolo:
- DeepSeek R1 — World Economic Forum
- Stanford HAI su DeepSeek
- The State of AI 2025 — McKinsey
- Gartner: AI Agents in Enterprise 2026
- Energy and AI — IEA
- The Stargate Project — OpenAI
- EU AI Act Implementation Timeline
- AI Act Service Desk — European Commission