🇬🇧 Read this article in English
8 su 18. Questo e’ il rapporto.
Ho controllato GitHub Trending questa settimana. Dei primi 18 repo, 8 sono coding agent o framework per agenti. Non tool per sviluppatori. Non librerie. Non database. Agenti che scrivono codice al posto tuo.
Un anno fa, questa lista era dominata da repo di modelli AI, framework di training e qualche progetto virale. Adesso e’ tutta una parata di agenti: OpenAI, Google, Anthropic, GitHub, ByteDance e un pugno di sviluppatori indipendenti, tutti che rilasciano la stessa categoria di strumento nello stesso momento. Non succede per caso.
La formazione: chi ha rilasciato cosa
Vediamoli uno per uno. Tutti questi repo sono in trending adesso, la prima settimana di marzo 2026.
opencode (116K stelle) e’ attualmente il piu’ stellato: un coding agent open-source in TypeScript. Si presenta come “il coding agent open source,” che e’ una pretesa audace quando altri tre repo nella stessa pagina trending dicono la stessa cosa.
Gemini CLI (96K stelle) e’ la risposta di Google. Un agente terminale open-source basato su Gemini 3, con un tier gratuito di 60 richieste al minuto e una finestra di contesto da un milione di token. Viene con Google Search grounding integrato, operazioni su file, comandi shell, web fetching e supporto MCP. Ha anche integrazione con GitHub Actions per review automatiche delle PR e triage delle issue. Licenza Apache 2.0. Google lo regala.
Anthropic Skills (84K stelle) prende un’angolazione diversa. Invece di costruire l’ennesimo agente, Anthropic ha open-sourcato il sistema di skill che rende Claude Code efficace. Le skill sono cartelle di istruzioni, script e risorse che Claude carica dinamicamente. Il repo include le skill di creazione documenti (docx, pdf, pptx, xlsx) che alimentano le capacita’ native di Claude. Definisce anche la specifica Agent Skills, che sta iniziando a sembrare uno standard di settore.
GitHub Spec Kit (74K stelle) affronta l’elefante nella stanza: il “vibe coding” produce codice che non funziona. Spec Kit e’ un toolkit per lo Spec-Driven Development, un workflow in quattro fasi (Specificy, Plan, Tasks, Implement) che tratta le specifiche come artefatti eseguibili e viventi. E’ agnostico rispetto all’agente, funziona con Copilot, Claude Code, Gemini CLI, Cursor o Windsurf. GitHub sta essenzialmente dicendo: gli agenti sono fantastici, ma per favore smettetela di farli improvvisare.
Superpowers (71K stelle) e’ l’entry piu’ opinionata. Costruito da Jesse Vincent, e’ un workflow completo di sviluppo software che trasforma il tuo coding agent in qualcosa che assomiglia a un junior engineer disciplinato. Impone TDD red-green-refactor, design spec-first, sviluppo guidato da sub-agenti e code review multi-stadio. La filosofia: il tuo agente deve fare brainstorming con te, scrivere un piano che tu approvi, poi eseguire task in git worktree isolati con gate di review automatici.
OpenAI Codex (63K stelle) e’ quello sostenuto dal motore di ricavi piu’ grande. Scritto in Rust, gira in locale e si aggancia al tuo abbonamento ChatGPT. 1 milione di utenti settimanali attivi, triplicati da febbraio. Elaborazione di token aumentata del 500%. Cisco, Nvidia e Rakuten lo stanno usando nei loro team di sviluppo. OpenAI sta posizionando Codex come “agente standard” per l’uso enterprise oltre il solo coding.
Context7 (47K stelle) e’ l’idraulica. Un server MCP di Upstash che fornisce documentazione di codice aggiornata e specifica per versione direttamente nel contesto del tuo agente. Risolve il problema “l’LLM si inventa un’API che non esiste” iniettando documentazione live invece di affidarsi ai dati di training del 2024. Basta aggiungere “use context7” al tuo prompt.
DeerFlow 2.0 (24K stelle) e’ il “super agent harness” di ByteDance. Una riscrittura da zero che orchestra sub-agenti, esecuzione sandboxed in Docker, accesso al file system, memoria a lungo termine e caricamento progressivo di skill. Costruito su LangGraph e LangChain. Era #1 su GitHub Trending quando e’ uscito la settimana scorsa.
Il pattern di cui nessuno parla
Ecco cosa e’ interessante. Questi repo non condividono solo una categoria. Condividono un’architettura.
Ognuno di essi e’ convergito sullo stesso design: un modello linguistico connesso a un set di tool (file system, shell, web, ricerca) controllato da un set di skill (istruzioni strutturate caricate dinamicamente in base al contesto). L’approccio a skill, che si chiami “skills” (Anthropic, Superpowers, DeerFlow), “specs” (GitHub) o “file GEMINI.md” (Google), e’ la stessa idea: dare al modello il contesto giusto al momento giusto invece di ficcare tutto nel system prompt.
C’e’ persino un nome per questo. Context engineering. Martin Fowler ne ha scritto. L’intuizione chiave: i tool di coding AI falliscono non perche’ mancano di intelligenza, ma perche’ non hanno una comprensione adeguata del contesto della codebase. La soluzione non e’ un modello piu’ intelligente. E’ una distribuzione del contesto piu’ intelligente.
Se stai costruendo con agenti AI nel 2026, capire il context engineering conta piu’ di quale modello stai usando. Il modello sta diventando una commodity. Il contesto e’ il fossato.
Il numero che dovrebbe mettervi a disagio
Il Codex di OpenAI ha raggiunto 1 milione di utenti settimanali nella sua prima settimana come app desktop. Non e’ una curva di adozione da developer tool. E’ il lancio di un prodotto consumer.
Nel frattempo, un post su r/programming intitolato “AI Isn’t Replacing SREs. It’s Deskilling Them” ha raccolto 858 upvote e 165 commenti questa settimana. L’argomentazione si basa su un paper di psicologia cognitiva del 1983 chiamato “Ironies of Automation”: quando l’automazione gestisce il 95% del lavoro di routine, gli umani peggiorano nel gestire quel 5% di situazioni complesse e ad alto rischio che richiedono davvero competenza.
Il parallelo con i coding agent e’ ovvio. Se un agente scrive la maggior parte del tuo codice, debugga la maggior parte dei tuoi errori e gestisce la maggior parte del tuo refactoring, cosa succede alle competenze che smetti di praticare? L’agente non si stanca. L’agente non dimentica. Ma tu si’.
Le aziende che rilasciano questi agenti non si preoccupano di questo. OpenAI sta puntando agli “utenti non tecnici” come prossimo pubblico di Codex. Lo Spec Kit di GitHub esiste proprio perche’ gli agenti lasciati senza supervisione producono codice inaffidabile. Superpowers esiste perche’ qualcuno si e’ reso conto che gli agenti hanno bisogno di un umano nel loop, altrimenti l’output e’ spazzatura.
Gli strumenti stanno diventando piu’ bravi a programmare. La domanda e’ se le persone che li usano stanno diventando peggiori.
Cosa ci dicono i repo non-agente
Vale la pena notare cos’altro e’ in trending accanto ai repo agente:
- OpenCut (46K stelle): un’alternativa open-source a CapCut. Il video editing e’ la prossima categoria che gli agenti AI divoreranno.
- nanochat di Karpathy (44K stelle): un’app stile ChatGPT che puoi far girare per circa $100. Il movimento “fallo girare tu” non sta rallentando.
- Il tutorial di prompt engineering di Anthropic (32K stelle): un corso interattivo su come parlare efficacemente con gli LLM. Persino Anthropic pensa che la maggior parte della gente sia scarsa nel prompting.
Il segnale e’ chiaro. Il livello infrastrutturale del coding AI si sta assestando. Gli agenti sono l’interfaccia. Le skill sono la conoscenza. Il context engineering e’ la disciplina. MCP e’ il protocollo. Resta da capire se tutto questo rende il software migliore o solo piu’ veloce.
Dove porta tutto questo
Tre previsioni, su tutte e tre sono disposto ad avere torto:
1. Il formato “agent skills” si standardizzera’. La specifica agentskills.io di Anthropic, lo Spec Kit di GitHub e il formato skill di Superpowers stanno tutti convergendo sullo stesso pattern: file markdown con frontmatter, caricamento dinamico e riferimenti a tool. Entro sei mesi, ci sara’ un unico formato che funziona su tutti i principali agenti.
2. Il context engineering diventera’ un titolo di lavoro. Adesso e’ un argomento da blog post. Entro fine 2026, le aziende assumeranno per questo ruolo. La persona che decide cosa vede un agente e’ piu’ importante di quella che scrive i prompt.
3. Avremo il nostro primo “outage causato da un agente” di alto profilo. Un sistema di produzione andra’ giu’ perche’ un agente ha deployato codice non testato, o perche’ l’umano che avrebbe dovuto intercettare il bug non revisionava codice manualmente da mesi e si e’ perso qualcosa che un anno fa avrebbe beccato. Non e’ questione di se, ma di quando.
L’era dei coding agent non sta arrivando. E’ qui. Otto su diciotto repo in trending questa settimana lo dimostrano. Gli strumenti sono impressionanti. L’adozione e’ reale. Ma lo e’ anche il rischio che stiamo formando una generazione di sviluppatori bravissimi a supervisionare agenti e pessimi nel mestiere che quegli agenti stanno rimpiazzando.
Tenete affilate le vostre competenze. L’agente non sara’ sempre li’ a salvarvi.
