• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • L’intelligenza artificiale abbassa le barriere per i cybercriminali
    • Acronis: soluzioni disponibili su MEPA grazie alla collaborazione con Eurodigit in qualità di Gold Partner
    • Con Red Hat AI 3, l’inferenza AI è ora distribuita nei carichi di lavoro in produzione
    • Portolano Cavallo è il primo studio legale italiano ad adottare Legora, piattaforma di AI generativa per studi legali
    • Data center: come una pre-costruzione efficace garantisce qualità e conformità
    • Datapizza AI, il primo framework open-source Made in Italy per creare agenti AI
    • Agentforce 360: il punto di connessione tra operatori umani, agenti AI e dati
    • Il multi-cloud secondo Netalia: sovranità digitale e libertà dai vendor
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Tecnologia»Con Red Hat AI 3, l’inferenza AI è ora distribuita nei carichi di lavoro in produzione

    Con Red Hat AI 3, l’inferenza AI è ora distribuita nei carichi di lavoro in produzione

    By Redazione LineaEDP15/10/20257 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    La piattaforma AI ibrida e cloud-native di Red Hat semplifica i flussi di lavoro AI e offre nuove potenti funzionalità di inferenza, gettando le basi per un’AI agentica su larga scala e consentendo un’innovazione più rapida ed efficiente

    Red Hat AI 3-Red Hat_openshift-Red Hat AI Validated Models

    Red Hat, fornitore di soluzioni open source, ha introdotto Red Hat AI 3, un’importante evoluzione della sua piattaforma AI enterprise. Combinando la più recenti innovazioni di Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) e Red Hat OpenShift AI, la piattaforma contribuisce a semplificare le complessità dell’inferenza AI ad alte prestazioni su larga scala, consentendo alle aziende di trasferire più facilmente i carichi di lavoro dalla fase di test alla produzione e di migliorare la collaborazione sulle applicazioni basate sull’AI.

    Le aziende stanno passando sempre più velocemente oltre la fase di sperimentazione con l’AI, incontrando nuove sfide significativi legate a temi quali privacy dei dati, controllo dei costi e gestione di modelli diversi. “The GenAI Divide: State of AI in Business” del progetto NANDA del Massachusetts Institute of Technology delinea un quadro dell’intelligenza artificiale in produzione, rilevando che quasi il 95% delle aziende non riesce a ottenere rendimenti finanziari misurabili nonostante i circa 40 miliardi di dollari investiti.

    Red Hat AI 3 si concentra su queste sfide, fornendo un’esperienza più coerente e unificata con l’obiettivo di ottimizzare i propri investimenti nelle tecnologie di elaborazione accelerata. Red Hat AI 3 consente di scalare e distribuire rapidamente i carichi di lavoro AI in ambienti ibridi e multi-vendor, migliorando la collaborazione tra i team sui workload AI di nuova generazione come gli agenti, il tutto sulla stessa piattaforma. Con una base fondata su standard aperti, Red Hat AI 3 soddisfa le esigenze delle organizzazioni nel loro percorso verso l’AI, supportando qualsiasi modello su qualsiasi acceleratore hardware, dai data center al cloud pubblico e dagli ambienti AI sovrani fino all’edge.

    Dalla formazione all’azione: il passaggio all’inferenza AI aziendale

    Il passaggio delle iniziative di AI in produzione porta le imprese a spostare il proprio focus dalla formazione e messa a punto dei modelli all’inferenza, la fase “operativa” dell’AI aziendale. Basandosi sui progetti vLLM e llm-d portati avanti con successo dalle community open source e sulle capacità di ottimizzazione dei modelli Red Hat, la piattaforma Red Hat AI 3 pone l’accento su un’inferenza scalabile ed economica per i modelli linguistici di grandi dimensioni (LLM) in produzione.

    Per aiutare i CIO a ottenere il massimo dalla propria accelerazione hatrdware ad alto valore, Red Hat OpenShift AI 3.0 introduce la disponibilità generale di llm-d, reinventando il modo in cui gli LLM operano in modo nativo su Kubernetes. llm-d abilita infatti un’inferenza distribuita intelligente, sfruttando il valore comprovato dell’orchestrazione di Kubernetes e le prestazioni di vLLM, in combinazione con tecnologie open source chiave come Kubernetes Gateway API Inference Extension, la libreria di trasferimento dati a bassa latenza NVIDIA Dynamo (NIXL) e la libreria di comunicazione DeepEP Mixture of Experts (MoE), consentendo alle aziende di:

    · Ridurre i costi e migliorare l’efficienza sfruttando il servizio disaggregato per garantire prestazioni più elevate per ogni dollaro speso.

    · Offrire semplicità operativa e massima affidabilità con “Well-lit Paths” prescrittivi che semplificano l’implementazione e l’ottimizzazione di modelli su larga scala su Kubernetes.

    · Massimizzate la flessibilità con il supporto multipiattaforma per implementare l’inferenza LLM su diversi acceleratori hardware, tra cui NVIDIA e AMD.

    llm-d si basa su vLLM, facendolo evolvere da motore di inferenza a nodo singolo ad alte prestazioni a sistema di servizio distribuito, coerente e scalabile progettato per offrire prestazioni prevedibili, ROI misurabile e una pianificazione efficace dell’infrastruttura. Tutti i miglioramenti affrontano direttamente le sfide legate alla gestione di carichi di lavoro LLM altamente variabili e di modelli di grandi dimensioni come quelli Mixture-of-Experts (MoE).

    Una piattaforma unificata per l’AI collaborativa

    Red Hat AI 3 offre un’esperienza unificata e flessibile su misura per la creazione di soluzioni di AI generativa collaborative pronte per la produzione. La piattaforma è progettata per fornire un valore tangibile promuovendo la collaborazione e unificando i flussi di lavoro tra i team mettendo a disposizione dei team di engineering dedicati un’unica piattaforma per attuare la loro strategia di AI. Le nuove funzionalità, che hanno come obiettivo quello di fornire l’efficienza necessaria per passare dalla fase di test alla produzione, includono:

    · Funzionalità Model as a Service (MaaS) basate sull’inferenza distribuita che consentono ai team IT di agire come se fossero essi stessi fornitori MaaS, servendo modelli comuni a livello centrale e fornendo accesso su richiesta sia agli sviluppatori AI che alle applicazioni AI. Ciò consente una migliore gestione dei costi e supporta casi d’uso che non possono essere eseguiti su servizi AI pubblici per questioni legate a privacy o dati.Un hub AI che consente agli ingegneri della piattaforma di esplorare, implementare e gestire le risorse AI fondamentali. Si tratta di un hub centralizzato che contiene un catalogo curato di modelli, inclusi modelli di gen AI convalidati e ottimizzati, un registro per gestire il ciclo di vita dei modelli e un ambiente di implementazione per configurare e monitorare tutte le risorse AI in esecuzione su OpenShift AI.

    · Gen AI Studio, un ambiente pratico in cui gli ingegneri AI possono interagire con i modelli e prototipare rapidamente applicazioni gen AI di nuova generazione. Con la funzione endpoint delle risorse AI, gli ingegneri possono facilmente individuare e utilizzare i modelli disponibili e i server MCP, progettati per semplificare l’interazione dei modelli con strumenti esterni. Il playground integrato fornisce un ambiente interattivo e stateless per sperimentare modelli, testare prompt e ottimizzare parametri per casi d’uso come chat e retrieval-augmented generation (RAG).

    · Nuovi modelli convalidati e ottimizzati da Red Hat, inclusi modelli open source popolari come gpt-oss di OpenAI, DeepSeek-R1 e modelli specializzati, come Whisper per la conversione da voce a testo e Voxtral Mini per gli agenti vocali. L’inclusione di questi modelli è volta a semplificare ulteriormente lo sviluppo delle applicazioni.

    “Man mano che le aziende passano dalla sperimentazione alla produzione dell’AI, si trovano ad affrontare una nuova ondata di sfide in termini di complessità, costi e controllo”, commenta Joe Fernandes, Vice President e General Manager AI Business Unit, Red Hat. “Con Red Hat AI 3, forniamo una piattaforma open source di livello aziendale che riduce al minimo questi ostacoli. Grazie a nuove funzionalità come l’inferenza distribuita con llm-d e una base per l’AI agentica, consentiamo ai team IT di rendere operativa con maggiore sicurezza l’AI di nuova generazione, secondo le proprie esigenze, su qualsiasi infrastruttura”.

    Costruire le basi per gli agenti AI di nuova generazione

    Gli agenti AI sono destinati a trasformare il modo in cui le applicazioni vengono sviluppate, e i loro flussi di lavoro complessi e autonomi richiederanno capacità di inferenza molto elevate. Red Hat OpenShift AI 3.0 getta le basi per sistemi di AI agentica scalabili non solo attraverso le sue capacità di inferenza, ma anche con nuove funzionalità e miglioramenti incentrati sulla gestione degli agenti.

    Per accelerare la creazione e l’implementazione di questi ultimi, Red Hat ha introdotto un livello API unificato basato su Llama Stack che allinea lo sviluppo agli standard di settore come OpenAI. Inoltre, per promuovere un ecosistema più aperto e interoperabile, Red Hat è tra i primi ad adottare il Model Context Protocol (MCP), un potente standard emergente che semplifica il modo in cui i modelli di AI interagiscono con gli strumenti esterni, una caratteristica fondamentale per i moderni agenti di intelligenza artificiale.

    Red Hat AI 3 introduce un nuovo toolkit modulare ed estensibile per la personalizzazione dei modelli, basato sulle funzionalità esistenti di InstructLab. Questo toolkit fornisce librerie Python specializzate che offrono agli sviluppatori maggiore flessibilità e controllo ed è alimentato da progetti open source come Docling per l’elaborazione dei dati, al fine di semplificare l’acquisizione di documenti non strutturati in un formato leggibile dall’AI. Inoltre, il toolkit include anche un framework flessibile che può essere utilizzato per generare dati sintetici e come centro di addestramento per gli LLM. Infine, un hub di valutazione integrato aiuta gli ingegneri AI a monitorare e convalidare i risultati. In questo modo, potranno sfruttare con sicurezza i dati proprietari per ottenere risultati AI più accurati e pertinenti.

    Red Hat Red Hat AI 3
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Agentforce 360: il punto di connessione tra operatori umani, agenti AI e dati

    14/10/2025

    Agent Rewind di Rubrik corregge gli errori dell’Agentic AI

    13/10/2025

    Agentforce IT Service: la nuova frontiera del supporto IT

    13/10/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    L’AI è vietata in azienda?
    Il cloud introduce ulteriore complessità nella cybersecurity: focus sulle identità
    Synology CC400W: abbiamo testato la telecamera di sicurezza con AI integrata e connettività Wi-Fi
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Defence Tech

    L’intelligenza artificiale abbassa le barriere per i cybercriminali

    15/10/2025

    Acronis: soluzioni disponibili su MEPA grazie alla collaborazione con Eurodigit in qualità di Gold Partner

    15/10/2025

    Spyware Android: ProSpy e ToSpy minacciano gli Emirati Arabi Uniti

    14/10/2025

    Cyberassicurazione: una guida pratica per scegliere la polizza giusta

    13/10/2025
    Report

    Agentic AI: da McKinsey sei strategie per generare valore

    13/10/2025

    Intelligenza Artificiale e il ruolo dell’open source

    10/10/2025

    Business leader e AI: l’osservabilità diventa una priorità strategica

    09/10/2025

    AI e formazione: lavoratori chiedono di più, governi e aziende rallentano

    06/10/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.