L’edizione 2025 di AWS re:Invent ha lasciato un messaggio inequivocabile: l’intelligenza artificiale sta diventando una componente nativa dell’infrastruttura cloud, e gli agenti AI sono destinati a trasformare radicalmente il modo in cui si sviluppa software, si gestiscono sistemi e si automatizzano i processi aziendali. Tra gli annunci: hardware di nuova generazione, servizi AI sempre più personalizzabili e una spinta fortissima verso automazione e sicurezza. Amazon Web Services ha definito un nuovo standard per il cloud del prossimo decennio, dove la ‘nuvola’ smette di essere un insieme di servizi e diventa un organismo intelligente, abitato da “agenti” capaci di lavorare, decidere, creare.
Intanto in un incontro con la stampa italiana, Antonio D’Ortenzio, Solutions Architect Manager di AWS Italia, parla di una realtà certamente in crescita, una buona premessa da cui partire per poi passare ad analizzare in dettaglio tutte le novità.
“AWS ha annunciato come ultimi risultati finanziari un totale di annual revenue rate di 132 bilioni di dollari… pensate che il delta nell’ultimo anno ammonta a circa 22 bilioni di dollari, che è più del fatturato di circa la metà delle aziende del Fortune 500” spiega D’Ortenzio.
L’hardware prende il volo: Graviton5 e Trainium3
Come ogni anno, AWS ha aperto le danze con un’ondata di annunci sul fronte hardware. Al centro della scena c’è Graviton5, la nuova CPU progettata internamente che rappresenta il più grande salto generazionale mai visto nella serie. Con 192 core, una cache L3 cinque volte più ampia e una riduzione della latenza inter-core del 33%, Graviton5 promette prestazioni sensibilmente superiori per carichi general-purpose, database e workload ad alta intensità di parallelismo. Numerosi clienti – da Airbnb ad Atlassian fino a SAP – hanno già riportato miglioramenti tra il 25% e il 60% nei test iniziali.
Accanto alle CPU arriva Trainium3, il nuovo chip che AWS ha creato per addestrare e servire i modelli di intelligenza artificiale del futuro. Basato su processo produttivo a 3 nm, Trainium3 offre quattro volte le prestazioni della generazione precedente e un consumo energetico inferiore del 40%. AWS lo propone tramite gli UltraServer, rack ad alta densità che integrano fino a 144 chip in configurazioni con bandwidth inter-nodo estremamente elevate. È l’architettura scelta da diversi grandi clienti, inclusi i partner storici Anthropic e OpenAI, per scalare il training dei modelli più avanzati.
L’azienda ha inoltre confermato che è già in lavorazione Trainium4, compatibile con le GPU Nvidia, segnando un’apertura significativa verso ecosistemi eterogenei e cooperativi.
AI Factories: l’intelligenza artificiale entra nei data center privati
Per la prima volta, AWS porta l’AI là dove per anni il cloud non è potuto entrare: nei data center dei clienti.
Una delle novità più strategiche presentate è infatti rappresentata dalle AI Factories, mini-region AWS che portano fisicamente nel data center del cliente l’infrastruttura necessaria per far girare modelli AI su hardware AWS (Trainium) o Nvidia. Pensate per governi, ambiti regolamentati e aziende con requisiti di sovranità del dato, permettono di eseguire Bedrock, SageMaker e altri servizi AI on-premises, mantenendo però la stessa coerenza operativa del cloud AWS.
Questa novità porta con sé un messaggio chiaro: non si tratta più di decidere dove far girare l’AI, ma come farlo nella maniera più sicura e integrata possibile.
Dalla Generative AI agli agenti: Bedrock cambia pelle
Sul fronte software, il protagonista assoluto è stato il concetto di AI agentica: non più semplici assistenti conversazionali, ma agenti capaci di identificare obiettivi, orchestrare strumenti, eseguire workflow complessi e lavorare in autonomia.
Bedrock si rinnova: personalizzazione e API compatibili OpenAI
AWS ha introdotto funzionalità avanzate per la customizzazione dei modelli, tra cui: Reinforcement Fine Tuning, che automatizza l’ottimizzazione tramite sistemi di ricompensa; personalizzazione serverless su SageMaker, che permette di creare LLM personalizzati senza gestire infrastruttura; e la nuova Response API, totalmente compatibile con gli endpoint di OpenAI, per facilitare il porting delle applicazioni.
Bedrock oggi supporta modelli di Google, Mistral, Nvidia, Anthropic, oltre ai modelli proprietari Amazon Nova.
Nova 2 e Nova Forge: la nuova generazione di modelli
Parallelamente la famiglia Nova 2 si rinnova introducendo miglioramenti nel reasoning, nella generazione multimodale e nello speech-to-speech. Nova Sonic, il modello vocale, introduce conversazioni naturali, interruzioni e cambio lingua fluido, con qualità paragonabile ai migliori modelli del mercato. Con Nova Forge, invece, AWS offre ai clienti la possibilità di finire l’addestramento dei modelli partendo dai checkpoint intermedi. In pratica: personalizzazione avanzata a costi sostenibili, un sogno per molte aziende.
AgentCore e i nuovi “colleghi digitali”: verso team ibridi uomo-AI
L’annuncio che più di tutti ha sicuramento acceso l’immaginazione del pubblico è stato quello relativo ad AgentCore, un insieme di servizi che risolve le sette aree più critiche per portare agenti AI in produzione: memoria, identità, orchestrazione dei tool, sicurezza, navigazione web, code execution, osservabilità e altro ancora. È il motore che permette ai nuovi agenti “Frontier” di muoversi da soli.
A proposito di agenti Frontier, durante l’evento ne sono stati presentati tre, a partire da Kiro Autonomous Agent, in grado di leggere repository, sviluppare codice, imparare dallo stile del team e lavorare in autonomia per giorni senza supervisione: non un semplice strumento ma un nuovo tipo di “collega”. Un secondo agente Frontier è invece dedicato alla sicurezza ed effettua code review e penetration test automatici. Per finire, un agente DevOps che rileva incidenti, genera analisi e suggerisce o applica fix.
Secondo AWS, presto gli agenti diventeranno “colleghi digitali” e non più semplici strumenti, tanto è vero che Danilo Poccia Chief Evangelist EMEA commenta: “Quello che crediamo in AWS è che il concetto di avere dei colleghi di lavoro agenti ci permetterà di fare di più… ci aspetta un futuro in cui non ci saranno tre agenti, ma miliardi di agenti che lavoreranno assieme a noi nelle aziende.”
Lambda cambia forma: funzioni più potenti e più longeve
Anche il serverless evolve e in questo ambito AWS ha introdotto due novità cruciali. Sono state infatti presentate le Lambda Managed Instances, che uniscono la flessibilità tipica di Lambda alla possibilità di specificare CPU e RAM sottostanti. Una mossa che apre le porte a workload finora inadatti al modello serverless, come video processing o pipeline AI pesanti.
Successivamente AWS ha lanciato le Durable Functions, che estendono la durata delle funzioni fino a un anno, con checkpoint e riprese automatiche. È la prova che il serverless non è un paradigma “leggero”, ma un modo diverso di concepire applicazioni complesse.


