Red Hat, fornitore globale di soluzioni open source, ha presentato Red Hat AI Validated Models, una raccolta curata di modelli di intelligenza artificiale open source, convalidati per prestazioni e accuratezza sulle piattaforme Red Hat AI. Red Hat AI è il portfolio di prodotti e servizi dell’azienda progettato per accelerare lo sviluppo e l’implementazione di soluzioni AI nel cloud ibrido. I modelli convalidati offrono ai clienti maggiore scelta e sicurezza nelle implementazioni di AI generativa in produzione.
Secondo Forrester, l’AI continuerà ad alimentare piattaforme cloud-native, portando a sistemi più avanzati e autonomi, e il software open source sarà il catalizzatore per accelerare gli investimenti delle aziende nell’AI1. Tuttavia, con la crescente richiesta di soluzioni AI di livello enterprise, le organizzazioni si trovano di fronte a una grande varietà di opzioni e a costi in aumento, soprattutto per quanto riguarda modelli e piattaforme. È quindi fondamentale identificare e selezionare rapidamente i modelli che meglio rispondono alle esigenze specifiche di ciascuna organizzazione e che garantiscano prestazioni ottimali sulla piattaforma prescelta, in linea con l’infrastruttura e le risorse operative esistenti.
Red Hat AI si propone di superare queste sfide attraverso modelli convalidati e una serie di ulteriori miglioramenti alle sue piattaforme, come l’integrazione di Red Hat AI Inference Server.
Come afferma Joe Fernandes, vicepresidente e direttore generale della AI Business Unit di Red Hat: “L’inferenza rappresenta la prossima frontiera dell’AI, in cui i modelli prendono decisioni sulla base delle interazioni degli utenti. Un’inferenza più rapida ed efficiente rappresenta oggi un fattore chiave di differenziazione nel mercato dei servizi. Le funzionalità avanzate del portfolio Red Hat AI consentono alle organizzazioni di implementare strategie di inferenza AI a livello aziendale, sbloccando al contempo implementazioni AI innovative, ottimizzate per velocità, intelligenza ed efficienza, con la flessibilità di operare in ambienti e hardware eterogenei.”
Il modello ideale per ogni ambiente: Red Hat AI Validated Models
Red Hat AI Validated Models è una raccolta di modelli di terze parti convalidati, potenti e ottimizzati, progettati per offrire massima efficienza e prestazioni accurate all’interno dell’intero portfolio Red Hat AI. Questi modelli vengono testati in scenari reali per garantirne le prestazioni in un contesto aziendale e per valutare la loro accuratezza su diverse configurazioni hardware. Questo processo di capacity planning e benchmarking aiuta le organizzazioni a identificare la combinazione ideale di modelli, impostazioni di implementazione e acceleratori hardware per i loro specifici casi d’uso.
I Red Hat AI Validated Models sono accessibili tramite la pagina Red Hat AI su Hugging Face e sono forniti con informazioni dettagliate, pesi SafeTensor e comandi per una rapida implementazione all’interno del portfolio Red Hat AI. Inoltre, Red Hat AI offre versioni ottimizzate di modelli convalidati selezionati, progettate per ridurre l’utilizzo delle risorse e i costi di inferenza, pur mantenendo elevati livelli di velocità e accuratezza. Il processo di convalida è orientato anche all’innovazione futura, valutando costantemente nuovi modelli open source per offrire ai clienti l’accesso alle ultime evoluzioni dell’AI generativa.
Prestazioni AI generativa ottimizzate, in ogni contesto: Red Hat AI Inference Server Red Hat AI integra ora Red Hat AI Inference Server per offrire inferenza più rapida, coerente ed economicamente vantaggiosa su vasta scala. Red Hat AI Inference Server è incluso nelle versioni più recenti di Red Hat OpenShift AI e Red Hat Enterprise Linux (RHEL) AI, ed è disponibile anche come prodotto indipendente. Questa nuova integrazione consente alle organizzazioni di adottare l’AI generativa in qualsiasi luogo e con qualsiasi modalità, grazie a piattaforme coerenti e ottimizzate che operano in qualsiasi ambiente.
Potenziare le piattaforme AI per il cloud ibrido
Nell’ambito del portfolio Red Hat AI, Red Hat OpenShift AI fornisce una piattaforma AI completa per la creazione, l’addestramento, l’implementazione e il monitoraggio di modelli di AI generativa (gen AI) e predittiva su vasta scala in ambienti cloud ibridi. Basata su Red Hat OpenShift, questa soluzione accelera l’innovazione AI, promuove una maggiore coerenza operativa e ottimizza l’utilizzo delle risorse durante l’implementazione di soluzioni AI affidabili.
L’ultima versione di Red Hat OpenShift AI, la 2.20, introduce una serie di significativi miglioramenti, tra cui:
· Un catalogo di modelli ottimizzati che offre una selezione curata di modelli di terze parti ad alte prestazioni, pronti per la produzione e convalidati per Red Hat OpenShift AI. Disponibile come anteprima tecnologica, questo catalogo consente ai team IT di controllare l’accessibilità interna e la visibilità dei modelli, allineandosi a specifici requisiti di sicurezza e policy aziendali.
· L’addestramento distribuito, che utilizza KubeFlow Training Operator per pianificare ed eseguire carichi di lavoro di addestramento basati su PyTorch su più nodi OpenShift e GPU, inclusa la rete RDMA distribuita. Questa funzionalità contribuisce a ridurre i costi accelerando l’addestramento dei modelli e ottimizzando la gestione delle risorse del cluster, compreso l’utilizzo delle GPU.
· Un feature store, basato sul progetto upstream Feast, che funge da repository centralizzato per l’archiviazione, la gestione e la distribuzione dei dati sia per l’addestramento che per l’inferenza dei modelli. Questa anteprima tecnologica
semplifica la gestione dei dati per alimentare in modo più efficace i modelli, promuovendo funzionalità più coerenti, riutilizzabili e facilmente accessibili, migliorando l’accuratezza dei modelli e riducendo la duplicazione dei dati.
RHEL AI è una piattaforma di modelli fondazionali progettata per sviluppare, testare ed eseguire LLM in modo più coerente, alimentando le applicazioni aziendali. Integrata nel portfolio Red Hat AI, supporta modelli di terze parti, include LLM della famiglia Granite e strumenti di allineamento dei modelli InstructLab, ed è distribuita come immagine server RHEL avviabile, implementabile nel cloud ibrido. L’ultimo aggiornamento, RHEL AI 1.5, introduce:
· Disponibilità su Google Cloud Marketplace, dopo l’introduzione su AWS e Microsoft Azure. RHEL AI su Google Cloud Marketplace semplifica l’implementazione e la gestione dei carichi di lavoro AI su Google Cloud, beneficiando dell’innovazione e dell’affidabilità di RHEL AI.
· Funzionalità multilingue avanzate, tra cui supporto per spagnolo, tedesco, francese e italiano, fornite tramite InstructLab. Questo consente ai clienti di personalizzare i propri modelli utilizzando script nativi, aprendo nuove opportunità per applicazioni AI multilingue. Gli utenti di RHEL AI 1.5 possono inoltre integrare i propri modelli “insegnante” e “studente” nella piattaforma, ottenendo un controllo più preciso sulla personalizzazione e la libertà di testare i modelli per casi d’uso e lingue specifici. Il supporto futuro includerà giapponese, hindi e coreano.
In aggiunta, Red Hat AI InstructLab su IBM Cloud è ora disponibile come servizio cloud, semplificando il processo di personalizzazione dei modelli, migliorando la scalabilità e offrendo un’esperienza utente ottimizzata. Sviluppato in collaborazione con IBM Cloud, Red Hat AI InstructLab è progettato per semplificare, scalare e migliorare la personalizzazione dei modelli AI, consentendo alle aziende di sfruttare i propri dati unici e di mantenere la proprietà e il controllo su di essi.
Qualsiasi modello, qualsiasi acceleratore, qualsiasi cloud: il futuro dell’AI è open
Il futuro dell’AI deve essere definito da opportunità illimitate, non limitato da silos infrastrutturali. Red Hat immagina un futuro in cui le organizzazioni possano implementare qualsiasi modello, su qualsiasi acceleratore, attraverso qualsiasi cloud, offrendo un’esperienza utente eccezionale e più coerente, senza costi eccessivi. Per sbloccare il vero potenziale degli investimenti nell’AI generativa, le aziende necessitano di una piattaforma di inferenza universale: uno standard per un’innovazione AI più fluida e ad alte prestazioni, sia oggi che in futuro.