"La Federal Reserve certifica la scomparsa di 500.000 posti per programmatori, mentre GPT-5.5 e DeepSeek V4 ridefiniscono cosa significa costruire software oggi."
Questa settimana ho avuto la netta sensazione che il nastro della storia tecnologica sia stato mandato in avanti veloce. Non stiamo più parlando di prototipi o di modelli che fanno fatica a seguire istruzioni complesse. I dati economici, le acquisizioni miliardarie e i nuovi rilasci confermano una singola, brutale verità: l'infrastruttura del lavoro intellettuale sta cambiando pelle sotto i nostri occhi.
Ho passato gli ultimi sette giorni a testare nuovi pesi open source, a misurare i costi reali delle API e ad analizzare le mosse dei giganti del tech. Quello che emerge è un panorama polarizzato. Da una parte ci sono strumenti sempre più capaci di orchestrare interi flussi di lavoro in autonomia. Dall'altra, ci sono interi modelli di business che si stanno sbriciolando.
Ecco i miei appunti su cosa è successo e, soprattutto, su come tutto questo impatta il lavoro di chi costruisce soluzioni ogni giorno.
Uno studio della Federal Reserve Board ha messo nero su bianco quello che sospettavo da tempo guardando i miei stessi log di produttività: l'intelligenza artificiale generativa sta frenando drasticamente la domanda di nuovi programmatori. Prima di novembre 2022, le posizioni legate al codice crescevano del 5% annuo. Oggi la curva è piatta.
I ricercatori hanno calcolato un gap di circa 500.000 posti di lavoro che sarebbero esistiti senza l'avvento dei large language models. Non è un'ondata di licenziamenti diretti, ma un congelamento delle assunzioni. Le aziende hanno semplicemente smesso di cercare sviluppatori puri per task di routine.
Io stesso scrivo codice ogni giorno usando strumenti avanzati, e il mio output è triplicato. Trovo del tutto inutile delegare task ripetitivi o la stesura di codice boilerplate. Il calo più drammatico, infatti, colpisce le agenzie di outsourcing IT. Vendere ore-uomo per scrivere codice base è un modello di business morto. L'intelligenza artificiale genera la stessa base di codice in pochi secondi a un costo marginale vicino allo zero.
Il mercato non paga più per il codice come fine ultimo, ma per la capacità di orchestrare flussi di lavoro e costruire prodotti funzionanti end-to-end.
Chi si adatta a questa evoluzione vede le proprie opportunità moltiplicarsi. Le aziende preferiscono avere un singolo professionista senior potenziato dall'IA al posto di tre programmatori tradizionali.
La notizia più esplosiva della settimana riguarda una potenziale mossa di Elon Musk. SpaceX ha ottenuto un'opzione per acquisire Cursor per la cifra astronomica di 60 miliardi di dollari.
Uso Cursor quotidianamente per i miei progetti e conosco perfettamente il suo tallone d'Achille: la dipendenza dalle API di OpenAI e Anthropic. Pagare le chiamate per milioni di sviluppatori distrugge qualsiasi margine di profitto. L'integrazione con SpaceX cambia tutto. L'obiettivo è combinare il software di coding con Colossus, il supercomputer di xAI che vanta l'equivalente di un milione di GPU Nvidia H100.
Questa è un'operazione che taglia fuori i competitor alla radice. Musk non si limita a fornire modelli base, ma si compra direttamente l'interfaccia utente preferita da chi sviluppa software. L'accesso illimitato all'hardware permetterà di creare agenti di coding spaventosamente veloci ed economici da far girare in locale, creando un ecosistema chiuso e inattaccabile.
OpenAI ha finalmente lanciato GPT-5.5. Il salto prestazionale non è tanto nella prosa, quanto nell'efficienza pura e nelle capacità agentiche. Il sistema è costruito per il multitasking solido: gestisce codice, effettua ricerche complesse e genera automazioni trasversali mantenendo la stessa latenza per token della release precedente.
La vera killer feature è l'uso nativo del computer per risolvere compiti multi-step complessi in autonomia. Il progetto, nome in codice Spud, permette al modello di manovrare l'interfaccia grafica per eseguire task incrociati su più applicazioni.
Ho analizzato i primi benchmark e percepisco un netto cambio di paradigma. Spazza via in un istante i vecchi limiti dei sistemi RAG macchinosi e isolati. Configurare pipeline per lo sviluppo o l'analisi dei dati diventa immediato. Aspetto le API per cablarlo nei miei workflow quotidiani, perché la latenza ottimizzata ci permetterà di costruire veri agenti reattivi. Ne parlo spesso: siamo entrati a pieno titolo nella fine dell'era dei wrapper.
Non tutte le novità sono positive. Anthropic ha rilasciato Opus 4.7 con una sgradevole sorpresa. I prezzi di listino rimangono identici alla versione 4.6, eppure il consumo reale dei token registra un drastico incremento per ogni singola richiesta API processata.
I dati raccolti dalla community confermano un balzo medio del 37,4% nell'utilizzo grezzo dei token. I task legati alla programmazione subiscono l'impatto economico maggiore. I file markdown richiedono il 44,5% di token in più, mentre l'analisi della documentazione tecnica sfiora il 47% di rincaro.
Seguo i costi dei modelli multi-provider ogni singolo giorno e questa dinamica è letale quando si orchestrano workflow complessi su larga scala. I miei sistemi processano migliaia di chiamate giornaliere. Un rincaro del 37% per i task di codice rischia di bruciare completamente il ROI delle automazioni aziendali a fronte di un misero 5% di miglioramento sull'aderenza alle istruzioni.
Manterrò i miei agenti principali ancorati a modelli più efficienti e imposterò regole di routing intelligente per dirottare solo i task più critici su questa nuova versione. Monitorate le vostre dashboard di cost tracking in modo maniacale.
Sempre in casa Anthropic, il lancio di Claude Design cambia le regole del gioco per la creazione di interfacce. Il sistema legge in totale autonomia il design system aziendale per applicarlo coerentemente a ogni nuovo progetto. Passare dal concept iniziale al frontend funzionante sfruttando un'unica interfaccia governata dalla logica di Opus 4.7 è un salto di produttività enorme.
Dall'altra parte, OpenAI ha risposto con ChatGPT Images 2.0. Il modello applica capacità di ragionamento preliminare e interroga direttamente il web per recuperare il contesto prima di produrre l'output visivo.
Ho giocato con i prompt testuali e la differenza è brutale. Il grande problema storico delle scritte nelle immagini è risolto: il testo ha un senso logico, segue i pesi visivi e gestisce perfettamente alfabeti non latini. L'integrazione della ricerca web è fantastica: se chiedo un mockup per un evento reale svolto ieri, il modello legge di cosa si tratta per azzeccare lo stile. I vecchi generatori single-pass sembrano già roba dell'anno scorso.
Mentre le aziende americane alzano i costi nascosti, la Cina sgancia una bomba open-weight. DeepSeek ha rilasciato i modelli V4-Pro e V4-Flash con un'architettura Mixture of Experts da 1.6 trilioni di parametri e una finestra di contesto da un milione di token, il tutto con licenza MIT.
Ho testato i pesi di DeepSeek V4-Pro in locale e i risultati sono sbalorditivi. Eguaglia le prestazioni di GPT-5.5 e Claude Opus nei benchmark di ragionamento logico e matematico. Gestire un milione di token a una frazione minima del costo delle API di OpenAI cambia radicalmente le regole per chi sviluppa architetture complesse.
L'ottimizzazione dell'inferenza è eccellente e mantiene un'impronta di memoria snella. Manderò in pensione le vecchie pipeline: oggi l'open source domina sul rapporto qualità-prezzo. Questo evento consolida una tendenza che ho analizzato nella caduta degli agenti caotici.
Oltre ai grandi modelli di fondazione, questa settimana ho segnato nei miei appunti diversi strumenti estremamente pragmatici che meritano di essere testati.
Qwen3.6-27B Base: il nuovo modello open source di Alibaba batte varianti a 400B sui task di coding. È assolutamente perfetto per istanze locali leggere quando non voglio dipendere dal cloud.
OpenClaw: un framework open source per automatizzare workflow e costruire agenti personalizzati. Ideale per l'elaborazione percettiva continua e per chi vuole massima privacy sui dati.
Proxy-Pointer RAG: libreria immediata per ottimizzare il recupero vettoriale strutturato. Si setta in cinque minuti e supera le limitazioni fastidiose dei sistemi tradizionali.
Databricks Excel Add-in: una connessione diretta tra i database aziendali e i fogli di calcolo. Un'integrazione pragmatica ed essenziale che evita di far uscire i dati dall'ecosistema controllato.
La velocità con cui questi strumenti si stanno integrando nella nostra routine è impressionante. Il focus non è più su cosa l'intelligenza artificiale può generare, ma su quali processi aziendali può eseguire dall'inizio alla fine senza intervento umano. Chiudo il terminale per oggi, ci riaggiorniamo domenica prossima.

La guida pratica che trasforma l'AI in risultati concreti nel lavoro di tutti i giorni: 200+ prompt pronti, 12 problemi quotidiani, esempi reali e metodo operativo per lavorare meglio e risparmiare tempo senza tecnicismi inutili.

Da Claude integrato nativamente in Word al blocco del modello Mythos per rischi di sicurezza, fino alle interfacce generate in tempo reale da Google. Una settimana che ridefinisce l'automazione.

Anthropic lancia gli agenti gestiti e scala a 30 miliardi di ricavi, mentre Gemma 4 porta l'intelligenza autonoma direttamente in locale sui nostri smartphone. Una settimana che ridefinisce il concetto di produzione.

Anthropic uccide gli abbonamenti illimitati, OpenAI lancia la sua Super App e Cursor 3 cambia per sempre lo sviluppo software. Una settimana che ridefinisce l'infrastruttura AI.
AI Audio Version
Ascoltalo mentre guidi o sei in palestra.
Come AI Solutions Architect progetto ecosistemi digitali e flussi di lavoro autonomi. 10 anni nel marketing digitale, oggi integro l'AI nei processi aziendali: da Next.js e sistemi RAG a strategie GEO e formazione dedicata. Mi piace parlare di AI e automazioni, ma non solo: ci ho anche scritto un libro, "Lavora Meglio con l'Intelligenza Artificiale", un manuale pratico con 12 capitoli e oltre 200 prompt pronti all'uso per chi vuole usare ChatGPT e l'AI senza programmare. Il mio punto di forza? Guardare un processo manuale e vedere già l'architettura automatizzata che lo sostituirà.