• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    • Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026
    • Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba
    • Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky
    • Cloud italiano: tra sovranità digitale e competitività
    • Storage intelligente: la chiave di volta per i data center moderni
    • TeamViewer ONE: la piattaforma unificata che rivoluziona il Digital Workplace
    • Design responsive: ecco perché è diventato un must in tutti i settori
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»L’AI open source descritta da Red Hat

    L’AI open source descritta da Red Hat

    By Redazione LineaEDP28/04/20256 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Chris Wright di Red Hat spiega cosa è l’AI open source e le potenzialità che essa offre nello sviluppo dei software

    ai-open-source

    Nell’articolo che condividiamo di seguito, Chris Wright, CTO di Red Hat, esplora le potenzialità dell’AI open source, evidenziando come i modelli linguistici di grandi dimensioni (LLM) e l’AI generativa possano beneficiare di un approccio trasparente e collaborativo. Attraverso progetti come InstructLab e Granite 3.0, Red Hat dimostra come l’AI open source possa essere accessibile e innovativa, promuovendo una maggiore trasparenza e allineamento con i principi di sviluppo open source.

    Buona lettura!

    AI open source: il punto di vista di Red Hat

    Oltre trenta anni fa, Red Hat ha compreso come l’open source avrebbe potuto favorire lo sviluppo di un software che avrebbe guidato l’innovazione informatica. Trenta milioni di linee di codice dopo, Linux si è trasformato nel software di maggior successo della storia. L’impegno nei confronti dei principi dell’open source continua ancora oggi, non solo nel modello di business, ma anche nella cultura aziendale. Riteniamo che, se portati avanti nel modo giusto, questi concetti possano impattare positivamente anche sull’intelligenza artificiale (AI).

    L’AI, e in particolare i modelli linguistici di grandi dimensioni (LLM) che alimentano l’AI generativa (gen AI), non può essere considerata allo stesso modo del software open source. Infatti, i modelli di AI sono costituiti principalmente da pesi (model weights), parametri numerici che ne determinano l’elaborazione degli input e le connessioni tra i vari punti di dati. I pesi di un modello addestrato sono il risultato di un ampio processo di istruzione che coinvolge grandi quantità di dati, accuratamente preparati, mescolati ed elaborati.

    Sebbene i pesi del modello non siano tecnicamente un software, sotto molti aspetti svolgono una funzione simile a quella del codice. È facile fare un paragone tra i dati e il codice sorgente del modello. Nell’open source, il codice sorgente è comunemente definito come la “forma preferita” per apportare modifiche al software. I dati di addestramento da soli non sono adatti a questo ruolo per via delle dimensioni tipicamente estese e il complicato processo di pre-addestramento che determina una connessione tenue e indiretta di ogni singolo dato con i pesi addestrati e il comportamento risultante del modello.

    La maggior parte dei miglioramenti apportati ai modelli di intelligenza artificiale non comporta accesso o manipolazione dei dati di addestramento originali. Piuttosto, sono il risultato di modifiche ai pesi del modello o di un processo di messa a punto che può anche servire a regolarne le prestazioni. La libertà di apportare questi miglioramenti richiede che i pesi siano rilasciati con tutte le autorizzazioni previste dalle licenze open source.

    L’AI open source secondo Red Hat

    Per Red Hat la soglia minima per l’AI open source è rappresentata da pesi del modello con licenza open source combinati a componenti software open source. Ma questo è il punto di partenza, non certo la destinazione finale: incoraggiamo la community, le autorità di regolamentazione e tutto il mercato a continuare a impegnarsi per una maggiore trasparenza e allineamento con i principi di sviluppo open source durante la formazione e la messa a punto dei modelli di AI.

    Non si tratta di un tentativo di definizione formale, come quello intrapreso dall’Open Source Initiative (OSI) con la sua Open Source AI Definition (OSAID), ma semplicemente della nostra opinione su ciò che rende l’AI open source realizzabile e accessibile al più ampio insieme di comunità, organizzazioni e vendor.

    Abbiamo cercato di tradurre in pratica questo punto di vista attraverso il nostro lavoro nelle comunità open source, evidenziato dal progetto InstructLab guidato da Red Hat e dal nostro lavoro sulla famiglia Granite di modelli con licenza open source con IBM Research. InstructLab limita significativamente la barriera dei contributi ai modelli di intelligenza artificiale da parte di chi non è un esperto di dati. Esperti di dominio di tutti i settori possono aggiungere le loro competenze e conoscenze a InstructLab, sia per uso interno che per contribuire alla creazione di un modello di AI open source condiviso e ampiamente accessibile per le comunità a monte.

    La famiglia di modelli Granite 3.0 affronta un’ampia gamma di casi d’uso dell’AI, dalla generazione di codice all’elaborazione del linguaggio naturale, fino all’estrazione di informazioni da vasti insiemi di dati, il tutto con licenza open source. Abbiamo aiutato IBM Research a portare una famiglia di modelli di codice Granite nel mondo open source e continuiamo a supportarla, sia dal punto di vista open source che come parte della nostra offerta Red Hat AI.

    Le ripercussioni causate dai recenti annunci di DeepSeek dimostrano come l’innovazione open source possa avere un forte impatto sull’AI, non solamente a livello di modello. L’approccio di DeepSeek suscita ovviamente delle perplessità, in particolare il fatto che la licenza del modello non chiarisca come sia stato prodotto, rafforzando ulteriormente la necessità di trasparenza. D’altra parte, il picco di interesse generato conferma la nostra visione del futuro dell’AI: aperto, incentrato su modelli più piccoli, ottimizzati e aperti che possono essere personalizzati per specifici casi d’uso sui dati aziendali, ovunque e nel cloud ibrido.

    Estendere l’AI open source oltre i modelli

    La tecnologia e i principi di sviluppo open source sono al centro delle nostre offerte AI, proprio come accade per il portfolio Red Hat AI. Red Hat OpenShift AI si basa su Kubernetes, KubeFlow e container conformi alla Open Container Initiative (OCI) oltre che su una serie di altre tecnologie cloud-native open source. Red Hat Enterprise Linux AI (RHEL AI) incorpora la famiglia Granite LLM di IBM con licenza open source e il progetto open source InstructLab.

    Ma l’opera di Red Hat in ambito AI open source si espande ben oltre; siamo attivi in un numero sempre crescente di progetti e comunità upstream e ne abbiamo avviati molti altri per conto nostro, tra cui:

    • RamaLama, un progetto AI open source che mira a rendere la gestione locale e l’erogazione dei modelli di AI molto meno complessi e difficoltosi;
    • TrustyAI, un toolkit open source per la creazione di flussi di lavoro AI più responsabili;
    • Climatik, un progetto che mira a rendere l’AI più sostenibile in termini di consumo energetico;
    • Podman AI Lab, un toolkit per sviluppatori che facilita la sperimentazione di LLM open source;

    Il recente annuncio relativo a Neural Magic amplia ulteriormente la nostra visione, consentendo alle aziende di allineare modelli di AI più piccoli e ottimizzati, compresi quelli con licenza open source, ai loro dati, ovunque essi si trovino nel cloud ibrido. Le organizzazioni IT possono quindi utilizzare server di inferenza vLLM per alimentare le decisioni e l’output di questi modelli, contribuendo a costruire uno stack AI basato su tecnologie trasparenti e supportate.

    Per Red Hat, l’AI open source vive e respira nel cloud ibrido, che offre la flessibilità necessaria per scegliere l’ambiente migliore per ogni carico di lavoro, ottimizzando prestazioni, costi, scalabilità e requisiti di sicurezza. Le nostre piattaforme, i nostri obiettivi e la nostra organizzazione supportano questo sforzo, che la collaborazione con i partner del settore, i nostri clienti e la più ampia comunità open source renderà ancor più efficace nella sua continua spinta all’innovazione dell’AI open source.

    di Chris Wright, CTO, Red Hat

    AI open source Chris Wright intelligenza artificiale (AI) open source Red Hat
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Elisabetta Franchi: A Convention of Fashion and Imagination in Mold

    20/05/2025

    Vertiv: soluzioni di alimentazione a 800 VDC pronte nel 2026

    20/05/2025

    Bando Consip: tra i fornitori cloud per la PA c’è anche Aruba

    20/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025

    Ransomware contro le PMI: le azioni preventive da adottare

    15/05/2025

    Commvault e CrowdStrike ampliano la partnership per la Cyber Recovery

    15/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.