"Dall'infrastruttura di Salesforce che mantiene il contesto, al runtime di Central per l'esecuzione pura: questa settimana l'AI ha smesso di chiacchierare e ha iniziato a lavorare."
Ho passato gran parte della mia carriera a combattere contro la "memoria corta" dei chatbot. Costruisci un flusso perfetto, l'utente cambia dispositivo o fa una domanda fuori script, e tutto crolla. Questa settimana, però, ho visto finalmente i pezzi del puzzle andare al loro posto: non stiamo più parlando di chat, ma di architetture persistenti.
Ecco cosa ho annotato nei miei log questa settimana e perché cambia il modo in cui costruiamo automazioni.
La notizia che mi ha fatto saltare sulla sedia viene da Salesforce. Ho analizzato la loro nuova architettura per Agentforce e, finalmente, vedo la fine dei bot smemorati. Hanno introdotto un layer di "contesto condiviso" che risolve il problema alla radice: mantenere lo stato della conversazione attraverso canali diversi.
Per chi come me progetta workflow, questo è il tassello mancante. Posso costruire un agente che "ricorda" un carrello abbandonato su mobile e lo propone contestualizzato su desktop senza dover scrivere script di sincronizzazione complessi. L'Agentic Commerce diventa una realtà operativa. Non è più solo una buzzword, ma una specifica tecnica che abilita ROI misurabili. Se vi interessa capire come questi flussi cambieranno il business, ho approfondito il tema parlando di AI agentica.
Possiamo avere gli algoritmi migliori del mondo, ma se l'inferenza costa troppo, restano giocattoli. Nvidia ha appena cambiato la matematica del mio lavoro con Vera Rubin. I dati parlano di un abbattimento dei costi di inferenza del 90%.
Questo significa che posso smettere di ottimizzare ossessivamente il token count per risparmiare centesimi e concentrarmi sul "reasoning". Posso far girare catene di pensiero complesse e architetture multi-agente senza bruciare il budget del cliente in una settimana. Inoltre, l'aumento della densità di calcolo apre porte incredibili per l'hardware on-premise, avvicinandoci a quella visione di AI sull'edge che sostengo da tempo per la privacy e la velocità.
Un'altra novità che ho segnato con un doppio cerchio rosso è il lancio di CTRL da parte di Central. Per anni abbiamo costruito "impalcature" precarie attorno agli LLM per costringerli ad agire. CTRL promette un runtime nativo per gli agenti.
La differenza è sottile ma fondamentale: passiamo dalla generazione probabilistica (l'AI che "tira a indovinare" la parola successiva) all'azione deterministica. Per integrare l'AI nei processi core aziendali, ho bisogno di certezza, non di creatività. Questo runtime potrebbe diventare lo standard per chi, come me, vuole costruire sistemi che eseguono task senza allucinare.
Chiudo con due applicazioni pratiche che impattano direttamente la mia produttività quotidiana:
La direzione è chiara: meno chat, più infrastruttura. Se volete iniziare a costruire i vostri flussi, date un'occhiata alla mia lista completa strumenti AI e iniziate a sperimentare con i tool che permettono l'orchestrazione, non solo la generazione.
Dalla mossa aggressiva di ByteDance ai nuovi standard di GPT-5.3: ecco perché i miei diagrammi architetturali sono cambiati radicalmente negli ultimi sette giorni.
Dagli agenti che pagano umani via API alla scommessa da 600 miliardi sull'hardware: ecco perché stiamo costruendo le ferrovie del prossimo decennio.
Dall'esperimento sociale di OpenClaw al tramonto forzato di GPT-4o: questa settimana segna il passaggio definitivo dalla chat passiva all'azione autonoma.
AI Audio Version
Ascoltalo mentre guidi o sei in palestra.

AI Solutions Architect
Non mi limito a scrivere di Intelligenza Artificiale, la utilizzo per costruire valore reale. Come AI Solutions Architect, progetto ecosistemi digitali e flussi di lavoro autonomi. La mia missione? Aiutare le aziende a trasformare processi manuali e lenti in architetture di codice intelligente, scalabile e performante.