Akamai Technologies ha lanciato Akamai Inference Cloud, una piattaforma che ridefinisce dove e come l’intelligenza artificiale viene utilizzata, ampliando l’inferenza dai data center centralizzati all’edge di Internet.
Akamai Inference Cloud fornisce un AI inference intelligente e proattiva sull’edge della rete, vicino a utenti e dispositivi. A differenza dei sistemi tradizionali, questa piattaforma è appositamente progettata per fornire l’elaborazione dell’AI sull’edge in tempo reale e a bassa latenza su scala globale. Il lancio di Akamai Inference Cloud sfrutta l’esperienza di Akamai nelle architetture distribuite a livello globale e nell’infrastruttura basata sull’intelligenza artificiale di NVIDIA Blackwell per ripensare ed estendere radicalmente il computing accelerato necessario per sfruttare il vero potenziale dell’AI.
Akamai Inference Cloud combina i server NVIDIA RTX PRO con l’infrastruttura di cloud computing distribuita e la rete edge globale di Akamai
La nuova generazione di applicazioni basate sull’intelligenza artificiale, dalle esperienze digitali personalizzate agli agenti intelligenti fino ai sistemi decisionali in tempo reale, richiede che l’inferenza AI sia avvicinata all’utente, fornendo un coinvolgimento immediato nei punti di interazione e prendendo decisioni intelligenti su dove indirizzare le richieste Gli Agentic workload richiedono sempre più spesso un’inferenza a bassa latenza, informazioni sul contesto locale e la possibilità di scalare globalmente in un istante. Progettata per favorire questa trasformazione, Akamai Inference Cloud è una piattaforma distribuita edge generative che avvicina lo stack AI di NVIDIA al luogo in cui vengono creati i dati e in cui si svolgono i processi decisionali.
Akamai Inference Cloud ridefinisce le posizioni e le modalità con cui l’intelligenza artificiale viene utilizzata avvicinando l’inferenza AI smart e agentic a utenti e dispositivi. La piattaforma combina i server NVIDIA RTX PRO, su cui vengono eseguite le GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, le DPU NVIDIA Bluefield-3 e il software NVIDIA AI Enterprise con l’infrastruttura di cloud computing distribuita e la rete edge globale di Akamai, che conta più di 4200 implementazioni in tutto il mondo.
Akamai Inference Cloud promuoverà la visione di Akamai per performance AI altamente scalabili e distribuite in tutto il mondo, tramite l’utilizzo delle più recenti tecnologie NVIDIA, tra cui la nuova DPU NVIDIA Bluefield-4, per accelerare e proteggere ulteriormente l’accesso ai dati e i workload dell’AI inference dal core all’edge.
La collaborazione tra Akamai e NVIDIA nella realizzazione della Akamai Inference Cloud
Akamai ha collaborato con NVIDIA per portare orgogliosamente l’inference in posizioni irraggiungibili prima d’ora, segnando l’inizio di nuove frontiere per l’intelligenza artificiale con Akamai Inference Cloud:
- Estensione delle AI Factory aziendali all’edge per favorire la diffusione di agenti commerciali intelligenti ed experience digitali personalizzate: questo approccio consente di coordinare il ciclo di vita dell’intelligenza artificiale, dall’acquisizione dei dati alla creazione dell’intelligence su larga scala. Akamai Inference Cloud estende la produzione dell’intelligenza artificiale all’edge, decentralizzando i dati ed elaborando e indirizzando le richieste ricevute al modello migliore utilizzando le posizioni sull’edge ampiamente distribuite di Akamai. In questo modo, gli agenti smart possono adattarsi istantaneamente alla posizione, al comportamento e all’intento degli utenti, agendo anche in modo autonomo per negoziare, acquistare e ottimizzare le transazioni in tempo reale.
- Favorire la diffusione di agenti e inference nello streaming per fornire informazioni finanziarie istantanee e prendere decisioni in tempo reale: gli agenti basati sull’intelligenza artificiale richiedono più inferenze sequenziale per completare attività complesse, creando ritardi che compromettono il coinvolgimento degli utenti. I workflow dell’agentic AI richiedono diverse chiamate di inferenza e, se ogni chiamata crea un ritardo di rete, l’esperienza risulta lenta per soddisfare i requisiti di latenza da un computer all’altro. L’architettura edge-native di Akamai Inference Cloud offre risposte virtualmente istantanee, consentendo agli agenti basati sull’intelligenza artificiale di operare con una reattività simile a quella umana in workflow multifase. Questo può risultare utile per rilevare le frodi, accelerare i pagamenti sicuri e prendere rapidamente le decisioni necessarie per l’industrial Edge.
- Consentire l’utilizzo della Physical AI in tempo reale oltre la reattività del livello umano: i sistemi basati sull’intelligenza artificiale fisica come veicoli a guida autonoma, robot industriali e infrastrutture di smart city richiedono un processo decisionale accuratissimo per interagire in modo sicuro con il mondo fisico. La piattaforma Akamai Inference Cloud è progettata per consentire all’intelligenza artificiale fisica di elaborare i dati dei sensori, prendere decisioni sulla sicurezza e coordinare le azioni in base alla velocità del mondo fisico, aiutando a trasformare tutto, dagli stabilimenti di produzione ai droni per le consegne fino ai robot chirurgici e alle reti di trasporto autonome, in sistemi reattivi e intelligenti in grado di funzionare in modo sicuro insieme all’uomo.
- Accelerare il time-to-value: il coordinamento di complessi workload basati sull’intelligenza artificiale e distribuiti in più aree geografiche coperte dai servizi cloud richiede competenze e team specializzati. Il livello di coordinamento intelligente offerto da Akamai Inference Cloud indirizza automaticamente le attività dell’intelligenza artificiale in posizioni ottimali: le consuete operazioni di inference vengono eseguite immediatamente sull’edge tramite i microservizi NIM di NVIDIA, mentre il ragionamento sofisticato sfrutta l’intelligenza artificiale prodotta a livello centralizzato, gestendo il tutto tramite una piattaforma unificata che elimina la complessità dell’infrastruttura.
Disponibilità
Akamai Inference Cloud è disponibile, inizialmente, in 20 sedi in tutto il mondo, ma si prevedono ulteriori implementazioni in futuro.
Dichiarazioni
“La prossima ondata di AI richiede la stessa vicinanza agli utenti che ha permesso a Internet di crescere fino a diventare la piattaforma globale che è oggi”, ha affermato Tom Leighton, CEO e Co-founder di Akamai. “Akamai ha già risolto questa sfida in passato e lo sta facendo di nuovo. Grazie all’infrastruttura di intelligenza artificiale di NVIDIA, Akamai Inference Cloud soddisferà la crescente domanda di espansione della capacità e delle prestazioni di inferenza dell’intelligenza artificiale, collocando il processo decisionale dell’AI in migliaia di sedi in tutto il mondo e consentendo risposte più rapide, intelligenti e sicure”.
“L’inferenza è diventata la fase più impegnativa dal punto di vista computazionale dell’AI, richiedendo un ragionamento in tempo reale su scala planetaria”, ha affermato Jensen Huang, Founder e CEO di NVIDIA. “Insieme, NVIDIA e Akamai stanno avvicinando l’inferenza agli utenti di tutto il mondo, fornendo un’AI generativa più veloce e scalabile e aprendo la strada alla prossima generazioni di applicazioni smart”.


