• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Kyndryl Retail Readiness Report: le leve per il retail nel 2026
    • Protezione ransomware accessibile a tutti: come i modelli di abbonamento a consumo riducono gli ostacoli alla resilienza informatica
    • Horsa accelera nel 2026: acquisite Exemplar e Visioscientiae, rafforzate competenze in CAE, AI e Data Science
    • Osservabilità: sei previsioni per il 2026
    • Cloud: dalla sovranità digitale alla Private AI
    • Vertiv amplia il sistema di raffreddamento perimetrale flessibile ed efficiente dal punto di vista energetico per applicazioni small, medium ed edge in EMEA
    • CrowdStrike: nuovi cloud regionali per potenziare la sovranità dei dati sicura
    • Oracle Supply Chain Collaboration mitiga i rischi dei retailer
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Tecnologia»Red Hat fornirà inferenze AI potenziate su AWS

    Red Hat fornirà inferenze AI potenziate su AWS

    By Redazione LineaEDP10/12/20254 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Red Hat AI su AWS Trainium e chip AI Inferentia offrirà ai clienti maggiore scelta, flessibilità ed efficienza per i carichi di lavoro AI di produzione

    Red Hat AI su AWS-Red Hat Confirmed Sovereign Support-Red Hat AI 3-Red Hat_openshift-Red Hat AI Validated Models-virtualizzazione

    Red Hat, fornitore di soluzioni open source, estende la sua collaborazione  collaborazione con Amazon Web Services (AWS) con l’obiettivo di potenziare l’intelligenza artificiale generativa di livello aziendale (gen AI) su AWS con Red Hat AI e AWS AI silicon. In questo modo, Red Hat fornisce ai responsabili delle decisioni IT la flessibilità necessaria per eseguire inferenze AI efficienti e ad alte prestazioni su larga scala, indipendentemente dall’hardware sottostante.

    L’ascesa della gen AI e la conseguente necessità di un’inferenza scalabile stanno spingendo le organizzazioni a rivalutare la propria infrastruttura IT. A tal proposito IDC prevede che “entro il 2027, il 40% delle organizzazioni utilizzerà chip personalizzati, inclusi processori ARM o chip specifici per AI/ML, per soddisfare le crescenti esigenze di ottimizzazione delle prestazioni, efficienza dei costi e calcolo specializzato”.[1] Questa tendenza sottolinea la necessità di disporre di soluzioni ottimizzate in grado di migliorare la potenza di elaborazione, ridurre al minimo i costi e consentire cicli di innovazione più rapidi per applicazioni AI ad alte prestazioni.

    La collaborazione di Red Hat con AWS offre alle aziende una strategia gen AI a tutto tondo, combinando le funzionalità complete della piattaforma Red Hat con l’infrastruttura cloud AWS e i chipset AI AWS Inferentia2 e AWS Trainium3.

    Gli aspetti chiave della collaborazione tra Red Hat e ServiceNow includono:

    • Red Hat AI Inference Server su chip AWS AI: Red Hat AI Inference Server, basato su vLLM, potrà essere eseguito con i chip AWS AI, tra cui AWS Inferentia2 e AWS Trainium3, per fornire un livello di inferenza comune in grado di supportare qualsiasi modello di intelligenza artificiale generativa e consentire ai clienti di ottenere prestazioni più elevate, minore latenza e convenienza economica per il ridimensionamento delle implementazioni AI di produzione, con un rapporto prezzo/prestazioni fino al 30-40% inferiore rispetto alle attuali istanze comparabili Amazon EC2 basate su GPU.
    • Abilitazione dell’AI su Red Hat OpenShift: Red Hat ha collaborato con AWS per sviluppare un operatore AWS Neuron Operator per Red Hat OpenShift, Red Hat OpenShift AI e Red Hat OpenShift Service su AWS, una piattaforma applicativa completa e completamente gestita su AWS, che fornisce ai clienti un percorso più fluido e supportato per eseguire carichi di lavoro AI con gli acceleratori AWS.
    • Facilità di accesso e implementazione: grazie al supporto dei chip AI di AWS, Red Hat offrirà ai clienti Red Hat su AWS un accesso migliore e più semplice agli acceleratori ad alta capacità e high-demand. Inoltre, Red Hat ha recentemente rilasciato la collezione Ansible certificata amazon.ai per Red Hat Ansible Automation Platform per consentire l’orchestrazione dei servizi AI su AWS.
    • Contributo alla comunità upstream: Red Hat e AWS stanno collaborando per ottimizzare un plugin AWS AI chip in upstream su vLLM. Come principale contributore commerciale a vLLM, Red Hat si impegna ad abilitare vLLM su AWS per accelerare l’inferenza e l’addestramento dell’AI. vLLM è anche alla base di llm-d, un progetto open source incentrato sulla fornitura di inferenze su larga scala e ora disponibile come funzionalità supportata commercialmente in Red Hat OpenShift AI 3.

    Red Hat vanta una lunga storia di collaborazione con AWS volta a supportare i clienti dal data center fino all’edge. Questo più recente annuncio mira ora a rispondere alle esigenze in continua evoluzione delle organizzazioni che integrano l’AI nelle loro strategie di cloud ibrido per ottenere risultati gen AI ottimizzati ed efficienti.

    “Abilitando il nostro Red Hat AI Inference Server di livello enterprise basato sull’innovativo framework vLLM con i chip AWS AI, consentiamo alle aziende di implementare e scalare i carichi di lavoro AI con maggiore efficienza e flessibilità”, commenta Joe Fernandes, Vice President e General Manager, AI Business Unit, Red Hat. “Facendo tesoro della tradizione open source di Red Hat, questa collaborazione mira a rendere l’AI generativa più accessibile ed economica in tutti gli ambienti cloud ibridi”.

    “Le aziende richiedono soluzioni che offrano prestazioni eccezionali, efficienza dei costi e libertà di scelta operativa per i carichi di lavoro AI mission-critical”, aggiunge Colin Brace, Vice President, Annapurna Labs, AWS. “AWS ha progettato i chip Trainium e Inferentia per rendere l’inferenza e l’addestramento dell’AI ad alte prestazioni più accessibili ed economici. La nostra collaborazione con Red Hat fornisce ai clienti un percorso supportato per l’implementazione della gen AI su larga scala , combinando la flessibilità dell’open source con l’infrastruttura AWS e acceleratori AI appositamente progettati per accelerare il time-to-value dalla fase pilota alla produzione”.

    Disponibilità

    L’operatore comunitario AWS Neuron è ora disponibile in Red Hat OpenShift OperatorHub per i clienti che utilizzano Red Hat OpenShift o Red Hat OpenShift Service su AWS. Si prevede che il supporto di Red Hat AI Inference Server per i chip AI AWS sarà disponibile in anteprima per gli sviluppatori a gennaio 2026.

    [1] IDC FutureScape: Worldwide Cloud 2025 Predictions, October 28, 2024, Doc #US52640724

    AI Aws Red Hat
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Vertiv amplia il sistema di raffreddamento perimetrale flessibile ed efficiente dal punto di vista energetico per applicazioni small, medium ed edge in EMEA

    22/01/2026

    Oracle Supply Chain Collaboration mitiga i rischi dei retailer

    22/01/2026

    Motivair by Schneider Electric annuncia una nuova CDU che può scalare a 10 MW e oltre per la prossima generazione di AI Factory

    22/01/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Defence Tech

    Protezione ransomware accessibile a tutti: come i modelli di abbonamento a consumo riducono gli ostacoli alla resilienza informatica

    23/01/2026

    Microsoft Teams: attacchi phishing su larga scala

    21/01/2026

    Milano-Cortina 2026: oltre le medaglie, si prepara una battaglia cyber ad alto rischio

    21/01/2026

    Sophos Workspace Protection: lavoro ibrido e uso dell’IA in azienda al sicuro

    21/01/2026
    Report

    Kyndryl Retail Readiness Report: le leve per il retail nel 2026

    23/01/2026

    BCS: i data center IA posizionano l’Italia tra i primi mercati d’Europa, ma nodi energetici e insolvenze edili rischiano di frenare la corsa

    20/01/2026

    Data Center: come cresce l’ecosistema. I dati dell’Osservatorio POLIMI

    16/01/2026

    AI Diffusion Report: Microsoft presenta la nuova edizione

    13/01/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.