Anthropic ha detto al Pentagono di andare a farsi benedire. OpenAI ha risposto al telefono prima che smettesse di squillare. Alibaba ha rilasciato un modello che fa sembrare i frontier dell’anno scorso dei giocattoli. Apple ha deciso che il tuo laptop dovrebbe far girare 70 miliardi di parametri. E Andrej Karpathy dice che la programmazione sta “diventando irriconoscibile,” che è un modo educato per dire che la maggior parte di noi ormai fa il project manager per dei robot.
Marzo 2026 è una follia. Ecco cosa conta davvero.
1. Anthropic ha detto no. OpenAI ha detto “quanto?”
Questa è LA notizia. Tutto il resto è rumore di fondo.
Il Pentagono ha offerto ad Anthropic 200 milioni di dollari per usare Claude AI per analizzare dati commerciali in massa sui cittadini americani. Cronologie di ricerca. Movimenti GPS. Transazioni con carta di credito. La risposta di Anthropic, parafrasando: “Assolutamente no.”
L’accordo è saltato un venerdì pomeriggio. Il lunedì mattina, OpenAI aveva già il suo contratto con il Pentagono per sistemi IA classificati. Trump ha ordinato a tutte le agenzie federali di smettere di usare Anthropic entro sei mesi e ha appiccicato all’azienda l’etichetta di “rischio per la catena di fornitura,” una cosa che non era mai stata fatta a un’azienda tech americana. Mai.
Poi internet ha fatto quello che fa internet:
- #CancelChatGPT è diventato virale. Le disinstallazioni di ChatGPT sono schizzate del 295%.
- Claude è arrivato al #1 sull’App Store negli Stati Uniti, Canada e Germania.
- Anthropic ha registrato 503.424 download in un solo giorno. Record assoluto. E non di poco.
- Katy Perry (85 milioni di follower) è passata pubblicamente a Claude. Sì, quella Katy Perry.
- Quasi 100 dipendenti di OpenAI hanno firmato una lettera di protesta contro l’accordo della propria azienda.
La reazione è esplosa ovunque. Dario Amodei ha definito la comunicazione pubblica di OpenAI delle “bugie spudorate,” e la community IA gli ha dato ragione quasi unanimemente.
Nel frattempo, Donald Knuth (sì, quel Donald Knuth) ha pubblicato Claude’s Cycles, un paper che analizza il ragionamento matematico di Claude. È diventato il paper sull’IA più discusso della settimana. L’uomo ha 88 anni e continua a tirare fuori roba pazzesca.
Perché è più grande di una crisi di PR: è la prima volta che etica e sicurezza dell’IA scatenano una migrazione di massa dei consumatori. Non un thread su Twitter. Non una petizione. Gente che disinstalla un prodotto e paga per un altro per una questione di valori. Non era mai successo in questo settore.
2. La programmazione è morta. Lunga vita a… qualunque cosa sia questa.
Vi ricordate quando Andrej Karpathy ha coniato “vibe coding” un anno fa? L’idea che dai un prompt a un LLM, accetti tutti i suggerimenti, non leggi le diff, e lasci che l’IA faccia il lavoro vero? Era una battuta. Un’osservazione divertente sui progetti del weekend.
Non è più una battuta. È il paradigma dominante.
Google Trends racconta la storia: il volume di ricerca per Lovable è su del 173.000%. Claude Code su del 138.000%. MCP (il protocollo che connette l’IA agli strumenti) su del 74.000%. Google AI Studio su dell’80.000%. Non sono curiosità di nicchia. È un cambiamento tettonico nel modo in cui si fa software.
Karpathy stesso è già andato oltre. Il suo nuovo termine è “agentic engineering”: agenti IA che scrivono codice in autonomia, con gli umani che danno la direzione ma non toccano la tastiera. La sua citazione: la programmazione sta “diventando irriconoscibile.” Non ha torto.
L’Agentic Engineering Patterns di Simon Willison sta rapidamente diventando il manuale di questa nuova disciplina. L’intuizione chiave: “scrivere codice è diventato economico.” La parte costosa è sapere cosa costruire e come verificare che funzioni.
I numeri confermano. OpenAI dice che Codex ha raggiunto 1 milione di utenti attivi settimanali, con l’utilizzo dei token cresciuto di 5x dal lancio di GPT-5.3 Codex. Il piano? Fare di Codex la base per gli agenti IA enterprise. Non solo coding. Tutto.
La guerra degli strumenti IA per il coding si intensifica: Cursor, Windsurf, Claude Code, Lovable, Replit, e un nuovo arrivato chiamato Kiro (su del 31.850% su Google Trends, apparso dal nulla) si contendono l’attenzione degli sviluppatori. È una corsa all’oro, e nessuno sa quale piccone vincerà.
3. L’open-source è a cinque punti dal traguardo. Cinque.
Uno studio benchmark ha testato 94 endpoint LLM e concluso: “I modelli IA open-source sono ora a soli 5 punti di qualità dal proprietario.” Lasciate che la cosa vi arrivi.
Qwen 3.5 di Alibaba è appena uscito ed è assurdo. Una lineup completa da 0,6B a 480B parametri. Architettura Mixture of Experts. Finestra di contesto da 1 milione di token. Supporto nativo MCP e tool use. I modelli piccoli stanno generando un entusiasmo enorme nella community local LLM, con la gente che definisce il miglioramento generazionale “incredibile.”
Ah, e PewDiePie ha fatto il fine-tuning di Qwen2.5-Coder-32B per battere GPT-4o sui benchmark di programmazione. Viviamo nella timeline più assurda.
DeepSeek V4 dovrebbe uscire da un momento all’altro, pare con generazione di immagini e video. Nel frattempo, DeepSeek ha collaborato con le Università Tsinghua e Peking per rilasciare DualPath, un sistema di inferenza costruito apposta per scenari agentici complessi. Raggiunge tassi di hit della KV-Cache sopra il 95%, il tipo di lavoro infrastrutturale che non fa notizia ma rende tutto il resto possibile.
La corrente geopolitica è impossibile da ignorare. Il dibattito tra modelli chiusi americani e modelli aperti cinesi sta spaccando la community in due. La partenza del senior developer di Qwen, Junyang Lin, ha tutti che si chiedono cosa significhi per il futuro del progetto. La corsa all’IA non è più azienda contro azienda. È ideologia contro ideologia: aperto contro chiuso, e si sovrappone in modo scomodo a USA contro Cina.
4. Il tuo prossimo laptop può far girare un modello da 70B. Tranquillamente.
I chip Apple M5 Pro e M5 Max sono arrivati questa settimana. Il titolo per chi segue l’IA: elaborazione prompt 4 volte più veloce rispetto all’M4, e l’M5 Max ha 128GB di memoria unificata. Abbastanza per far girare un Llama 3.3 70B quantizzato. Sul laptop. Senza che le ventole sembrino un motore a reazione.
Qualche numero concreto:
- 40 acceleratori neurali in ogni core GPU sull’M5 Max
- ~3.000-3.500 token/secondo in prefill su modelli 7B Q4
- Banda di memoria di 614 GB/s sul Max (il doppio del Pro)
Qualcuno nella community LocalLLaMA ha fatto il reverse engineering del Neural Engine di Apple per addestrare MicroGPT. Il team di ricerca MLX di Apple ha pubblicato un paper sull’utilizzo degli acceleratori neurali M5 per gli LLM la stessa settimana. Quando un hobbista e il laboratorio di ricerca dell’azienda pubblicano sullo stesso chip contemporaneamente, sta succedendo qualcosa di interessante.
Per chi tiene alla privacy, alla latenza, o a non mandare ogni tasto premuto al server di qualcun altro: l’inferenza IA locale è passata da “tecnicamente possibile se strizzi gli occhi” a “genuinamente pratica.” L’era degli hobbisti è finita. Questi sono strumenti professionali.
5. Abbiamo costruito 104.000 agenti e ci siamo dimenticati di chiudere la porta.
L’Universal Agent Registry ora indicizza oltre 104.500 agenti IA su 15 registri. Non è un errore di battitura. Più di centomila agenti IA sono registrati e (teoricamente) utilizzabili.
GitHub Trending questa settimana è praticamente una vetrina di agenti: RuView costruisce grafi di conoscenza dai repository con un agente Graph RAG. Airi è un SuperAgent open-source che ricerca, programma e crea. Agent-Skills-for-Context-Engineering è un clone nano di Claude Code costruito interamente in Bash, perché ovviamente lo è.
Il problema: nessuno sembra neanche lontanamente entusiasta di occuparsi della sicurezza degli agenti IA quanto lo è di costruirli.
- Il crollo di OpenClaw ha scoperto 9 CVE e 2.200 skill malevole nel test reale più completo dell’OWASP Agentic Top 10. Non è un’esercitazione. È un incendio.
- Dei ricercatori hanno dimostrato che caratteri Unicode invisibili nascosti nel testo possono ingannare gli agenti IA facendogli eseguire istruzioni segrete. Testato su 5 modelli, più di 8.000 casi. Funziona.
- Leo de Moura, il creatore di Lean, ha pubblicato “Quando l’IA scrive il software, chi lo verifica?” La domanda sta prendendo fuoco, e nessuno ha ancora una risposta decente.
Il divario tra quello che gli agenti possono fare e quello che possiamo verificare che stiano facendo si allarga ogni settimana. Questa sarà la tensione che definirà l’IA nel 2026, e non siamo neanche lontanamente vicini a risolverla.
6. OpenAI ha corretto l’unica cosa di cui tutti si lamentavano.
GPT-5.2 Instant aveva la reputazione di essere, a voler essere diplomatici, insopportabilmente moralista. Facevi una domanda fattuale e ti aggiungeva tre paragrafi di avvertenze, dava per scontato che fossi in crisi, e ti ricordava gentilmente di consultare un professionista. La gente lo odiava.
GPT-5.3 Instant è uscito questa settimana come rimedio. I miglioramenti: 26,8% in meno di allucinazioni con la ricerca web, risposte dirette senza il paternalismo, e risposte più veloci in generale.
Il prezzo? Ha ottenuto punteggi peggiori sui benchmark di sicurezza interni di OpenAI, in particolare sul filtraggio dei contenuti. Il che vi dice qualcosa su dove si trova il settore in questo momento: il pendolo “sicurezza vs. usabilità” sta oscillando forte verso l’usabilità, e le aziende seguono gli utenti, non il contrario.
7. MCP: la cosa più importante di cui nessuno parla.
Il Model Context Protocol non è sexy. Non ha un momento virale. Nessuno ci fa TikTok sopra. Ma sta silenziosamente diventando l’impianto idraulico che fa funzionare l’intero ecosistema degli agenti IA.
Pensatelo come l’USB-C dell’IA. Un unico protocollo che permette a qualsiasi modello di parlare con qualsiasi strumento, database o API. Prima di MCP, ogni integrazione era idraulica su misura. Ora c’è uno standard.
I segnali si accumulano:
- Qwen 3.5 è uscito con supporto MCP nativo pronto all’uso
- MCP è un termine di ricerca in crescita su Google Trends, che appare insieme alle query sul vibe coding
- Ogni strumento IA per il coding serio (Cursor, Claude Code, Windsurf) si basa su MCP per la connettività con gli strumenti
Se stai costruendo qualcosa che tocca l’IA, capire MCP non è più opzionale. Non è glamour, ma neanche il TCP/IP lo era, e quello si è rivelato piuttosto importante.
E adesso?
DeepSeek V4 dovrebbe arrivare da un giorno all’altro. Se mantiene le promesse sulla generazione multimodale, potrebbe essere il modello open-source più capace mai rilasciato. La sfida legale di Anthropic contro l’etichetta di “rischio per la catena di fornitura” creerà un precedente per il rapporto di ogni azienda IA con il governo. L’EU AI Act sta mettendo i denti, e i benchmark M5 dalla community ci diranno se le affermazioni di Apple reggono fuori da una slide di keynote.
L’IA nel 2026 non è più una storia di tecnologia. È una storia di potere. Chi costruisce i modelli, chi può usarli, chi ci guadagna, e chi finisce sotto sorveglianza. Marzo sta dimostrando che non sono domande astratte da tavola rotonda. Sono il tipo di domande che fanno disinstallare app e cambiare campo dalla sera alla mattina.
