
"Mentre OpenAI stacca la spina al suo generatore video, Anthropic raddoppia gli abbonati grazie agli agenti autonomi. Ecco come l'AI sta passando dall'hype visivo all'automazione aziendale pura."
Questa settimana ho assistito a uno dei contrasti più netti e rivelatori nella storia recente dell'intelligenza artificiale. Da una parte, la chiusura improvvisa di un prodotto che aveva incantato il mondo con la sua magia visiva. Dall'altra, l'esplosione silenziosa e inarrestabile di strumenti che lavorano in background, macinando codice e task noiosi sui nostri desktop.
Se c'è un filo conduttore negli appunti che ho preso negli ultimi sette giorni, è questo: la ricreazione è finita. Le interfacce conversazionali passive stanno cedendo il passo a veri e propri agenti operativi, capaci di agire, cliccare e risolvere problemi in totale autonomia.
Ho sempre valutato le tecnologie in base al loro impatto reale sul time-to-market e sull'efficienza quotidiana. Quello che sta succedendo ora nei laboratori di Anthropic, Google e persino Xiaomi, conferma che la vera corsa all'oro non è più generare il video perfetto, ma costruire l'infrastruttura per delegare il lavoro sporco.
La mossa più inaspettata della settimana è arrivata da OpenAI, che ha deciso di staccare definitivamente la spina a Sora a soli sei mesi dal lancio. Un'app che dominava le classifiche dell'App Store viene chiusa bruscamente, portandosi dietro la fine della partnership triennale appena siglata con Disney.
Trovo questa retromarcia un segnale inequivocabile. I video generati dall'intelligenza artificiale sono meravigliosi da guardare sui social, eppure restano un incubo da integrare in workflow aziendali automatizzati e misurabili. Ho sempre evitato di inserire la generazione video nei sistemi di produzione che disegno. La mancanza di controllo puntuale sull'output e il rischio costante di allucinazioni visive rendono questi strumenti del tutto inadatti a processi operativi rigorosi.
L'abbandono di Disney mi conferma una dinamica che osservo da tempo: le aziende enterprise scappano a gambe levate di fronte all'incertezza legale legata al copyright e ai costi di inferenza insostenibili. OpenAI sta chiaramente ricalibrando le priorità, spostando il focus verso l'automazione B2B. È la caduta degli agenti caotici e l'alba dell'infrastruttura deterministica, un passaggio obbligato per chiunque voglia costruire soluzioni scalabili e difendibili sul mercato.
Mentre i video sintetici crollano, i dati sulle transazioni delle carte di credito americane mostrano che gli abbonamenti alla versione Pro di Claude sono più che raddoppiati. Le persone sborsano volentieri 20 dollari al mese, e il motivo è semplice: trovano un effettivo incremento di produttività nel proprio workflow quotidiano.
La vera spinta arriva dalla funzione "Computer Use". I consumatori stanno pagando per avere a disposizione un agente in grado di navigare, cliccare e agire in autonomia sul sistema operativo. Io stesso ho integrato Claude Code nel mio ecosistema di sviluppo per le logiche di coding in React e Next.js, e i risultati sui tempi di rilascio sono innegabili. Stiamo assistendo al passaggio definitivo dai chatbot passivi agli agenti operativi.
Come se non bastasse, un grave errore di configurazione nel CMS interno di Anthropic ha esposto i documenti riservati sul loro prossimo modello di punta, nome in codice "Mythos". Le bozze descrivono un sistema con punteggi drasticamente superiori nel software coding e nella cybersecurity, capace di sfruttare vulnerabilità a velocità inedite.
Leggendo i dettagli sui costi di inferenza proibitivi di questo nuovo modello, la mia attenzione si accende immediatamente. Sarà necessario calibrare con estrema precisione i consumi tramite API, riservando questo "Mythos" esclusivamente ai task logici più complessi. L'idea di delegare interi refactoring architetturali a un'intelligenza autonoma mi affascina, ma richiederà un controllo spietato sui budget di calcolo.
Per far girare questi agenti su larga scala, l'hardware deve evolversi brutalmente. Questa settimana Google ha presentato "TurboQuant", un algoritmo di compressione della memoria che promette di ridurre il footprint in RAM per l'inferenza fino a sei volte. La reazione di Wall Street è stata isterica, con i crolli azionari immediati di colossi come Micron e Western Digital.
Ho analizzato il paper e le implicazioni sono massicce. Ridurre la memoria necessaria significa poter far girare modelli enormi su hardware edge o dimezzare brutalmente i costi delle istanze cloud. Aspetto di testare i primi porting open source per valutare se la qualità dell'output regge l'impatto della compressione estrema, ma la direzione è tracciata.
Sul fronte della sicurezza, Nvidia ha lanciato OpenShell, un framework per confinare l'esecuzione del codice degli agenti in sandbox effimere. Fino a ieri dovevo inventarmi layer di sicurezza posticci per evitare che un agente LLM eseguisse query distruttive in produzione. Ora ho a disposizione una soluzione nativa per far interagire le intelligenze artificiali con database e file system senza compromettere l'integrità dei dati. È il tassello mancante per portare l'agentic AI nei CRM bancari e nei sistemi legacy.
Nel frattempo, Xiaomi ha sparigliato le carte rilasciando i modelli MiMo. L'azienda cinese sta costruendo un livello di controllo operativo per l'hardware puro, permettendo agli agenti di agire direttamente sul sistema operativo di telefoni, auto e domotica, aggirando del tutto le API esterne. L'AI esce dal browser e prende il controllo del terminale in modo sempre più pervasivo e integrato.
Non c'è solo il codice. Google ha rilasciato Gemini 3.1 Flash Live tramite la Live API, puntando dritto alle interazioni vocali a bassissima latenza. Ho sempre pensato che il ritardo nella risposta fosse il vero scoglio per l'adozione massiva degli agenti vocali nel customer service.
Con questo rilascio, la barriera si abbassa drasticamente. La possibilità di prototipare agenti multimodali reattivi in poche ore apre scenari enormi per l'automazione dei centralini e dell'assistenza clienti. Lo testerò a breve nei miei flussi per capire come si comporta sotto stress.
Il mercato sta finalmente punendo i "giocattoli" visivi per premiare l'automazione silenziosa che taglia i costi operativi.
Oltre alle notizie principali, setaccio sempre i feed per cogliere i movimenti sotterranei dell'industria. Questa settimana ci sono stati diversi scossoni che delineano i prossimi mesi di sviluppo.
| Notizia | Il mio punto di vista |
|---|---|
| Fuga da xAI | Tutti gli 11 co-fondatori hanno lasciato l'azienda di Elon Musk. Un segnale di instabilità fortissimo in una startup che puntava a competere con i giganti. |
| Microsoft prende il datacenter OpenAI | Il mega impianto texano abbandonato da OpenAI passa a Redmond. L'infrastruttura fisica resta il vero collo di bottiglia del settore. |
| Apple distilla Gemini | Cupertino sta rimpicciolendo i modelli di Google per farli girare on-device. L'edge computing diventa la priorità per la privacy. |
| Karpathy sui colli di bottiglia | L'ex director di Tesla AI ha dichiarato che gli umani sono il vero limite nella ricerca. L'AI che progetta AI è sempre più vicina. |
La teoria non serve a nulla se non si trasforma in codice eseguibile. Ecco gli strumenti emersi in questi giorni che ho già iniziato a inserire nei miei repository. Se volete approfondire il mio stack abituale, vi rimando alla lista completa dei miei tool AI.
L'era dei prompt infiniti per ottenere un testo formattato sta finendo. Entriamo nella fase in cui definiamo l'obiettivo, forniamo le credenziali e lasciamo che il modello trovi la strada per eseguire il compito. E francamente, non vedevo l'ora.

La guida pratica che trasforma l'AI in risultati concreti nel lavoro di tutti i giorni: 200+ prompt pronti, 12 problemi quotidiani, esempi reali e metodo operativo per lavorare meglio e risparmiare tempo senza tecnicismi inutili.

Da Cursor che abbraccia l'open source cinese a OpenAI che acquisisce Astral: ecco perché i vecchi modelli di business basati sulle API stanno crollando a favore dell'esecuzione locale.

DeepMind smonta l'hype multi-agente, Anthropic azzera i costi sul contesto infinito e Nvidia ridisegna l'infrastruttura open source. Ecco come cambia il modo in cui costruiamo software oggi.

Da Claude Code che opera in background a GPT-5.4 con contesti enormi. Ecco come la velocità estrema sta trasformando la mia architettura software.
AI Audio Version
Ascoltalo mentre guidi o sei in palestra.

AI Solutions Architect
Come AI Solutions Architect progetto ecosistemi digitali e flussi di lavoro autonomi. 10 anni nel marketing digitale, oggi integro l'AI nei processi aziendali: da Next.js e sistemi RAG a strategie GEO e formazione dedicata. Mi piace parlare di AI e automazioni, ma non solo: ci ho anche scritto un libro, "Lavora Meglio con l'Intelligenza Artificiale", un manuale pratico con 12 capitoli e oltre 200 prompt pronti all'uso per chi vuole usare ChatGPT e l'AI senza programmare. Il mio punto di forza? Guardare un processo manuale e vedere già l'architettura automatizzata che lo sostituirà.