• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Da Snowflake tante novità che facilitano workflow di AI e ML
    • Attacchi informatici: cosa è cambiato con l’AI?
    • Red Hat Enterprise Linux adesso implementabile sul cloud
    • È Mike Giresi il nuovo Chief Information Officer a livello globale di Vertiv
    • Allucinazioni AI: scongiurarle con lo Storage Enterprise
    • BladedFeline, il gruppo affiliato all’Iran scoperto da ESET
    • Dal software al pensiero predittivo: il futuro delle scommesse virtuali con l’AI
    • Gruppo MAIRE: un passo avanti verso l’innovazione con SAP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»Intelligenza artificiale? Non è una moda

    Intelligenza artificiale? Non è una moda

    By Redazione LineaEDP15/09/20235 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Per Jan Wildeboer di Red Hat (nella foto in alto), quando si parla di Intelligenza artificiale, la grandezza non è sinonimo di qualità

    AI

    Nel contributo che vi proponiamo qui di seguito, Jan Wildeboer, EMEA Open Source Evangelist, Red Hat, spiega perché nel momento in cui si parla di Intelligenza artificiale, la grandezza non è sinonimo di qualità.
    Buona lettura.

    Negli ultimi tempi, abbiamo assistito alla diffusione dell’IA, o intelligenza artificiale, in molti ambiti economici e culturali, e il suo utilizzo è sempre più pervasivo. L’AI non è nata con ChatGPT, ma il lancio della piattaforma dello scorso novembre su scala mondiale ha decisamente attirato l’attenzione. Nell’ambiente tech, solo la blockchain aveva avuto una diffusione così rapida e clamorosa. Un rapporto IDC pubblicato a inizio 2023 stima che la spesa globale per l’AI raggiungerà i 301 miliardi di dollari entro il 2026, il doppio rispetto a oggi.

    I benefici riguardano molteplici ambiti, dalla produttività dei dipendenti alla soddisfazione dei clienti, fino alla riduzione dei rischi. Per cavalcare l’onda dell’AI, si sta diffondendo l’abitudine tra i dipendenti di sperimentare con la tecnologia all’interno della propria azienda, al fine di diventare pionieri dell’AI e contribuire a costruire un vantaggio competitivo in maniera alternativa. Purtroppo, così facendo, potrebbero inavvertitamente mettere a rischio loro aziende.

    AI: una questione di controllo

    In genere si crede che, all’aumentare del numero di dati, cresca esponenzialmente anche il loro valore. Ma non è sempre così: più set di dati vengono inseriti nei sistemi aziendali, più si complicano le attività di controllo sulla loro provenienza e accuratezza. Senza contare le potenziali violazioni di copyright che l’AI potrebbe inavvertitamente generare.

    Prendiamo ad esempio ChatGPT. L’avvertenza riportata sul sito web di OpenAI è che può produrre informazioni inaccurate, e ci sono già molti casi che confermano le conseguenze di un uso sprovveduto della piattaforma. Ad esempio, come nel recente caso dell’avvocato newyorkese arrivato nelle pagine di cronaca di tutto il mondo.

    Quest’ultimo aspetto è significativo se lo si osserva all’interno di un’impresa. Uno strumento di intelligenza artificiale che gestisce automaticamente l’inventario, stabilisce gli stipendi in base alle prestazioni, prevede il flusso di cassa trimestrale, ottimizza le operazioni in valuta estera e così via, prende di fatto decisioni che hanno un impatto profondo sulla redditività aziendale. Questi processi possono essere facilmente controllati applicando una strategia di governance dei dati e di AI mature, fin tanto che il personale non inizia a utilizzare i propri strumenti di “shadow AI”.

    Quindi, il problema è duplice. Come garantire l’integrità degli strumenti di AI di cui si è a conoscenza e impedire al personale di utilizzare piattaforme di AI non autorizzate e verificate per agevolare il proprio lavoro?

    La risposta è più concettuale che specifica. I Large Language Model (LLM) e altre soluzioni generiche che cercano di servire una moltitudine di utenti non rappresentano il futuro dell’AI. Piuttosto, le aziende vorranno implementare funzionalità specifiche per settore, clienti e attività.

    Dati più precisi e pertinenti

    Questa nuova era di “domain-specific AI” sarà definita dalla capacità di costruire servizi unici e differenziati. Ciò richiede modelli fondanti costruiti su dati privati e personalizzati in base agli standard e alle pratiche di un’azienda o di un settore specifico. Alimentata da dati ben organizzati, concreti e verificati, l’intelligenza artificiale di base sarà in grado di offrire funzionalità avanzate e affidabili in grado di realizzare una vera collaborazione con l’intelligenza umana. Le decisioni frutto di questa collaborazione saranno quindi più pertinenti ed efficaci. Allo stesso tempo, si riduce la necessità dei dipendenti di ricorrere a piattaforme di “shadow AI” per trovare le informazioni di cui hanno bisogno. A tal proposito, coinvolgere i dipendenti nel percorso di progettazione dei processi aziendali contribuisce a rendere più efficace la loro adozione.

    Verso una strategia AI davvero efficace

    Chi è davvero informato sa che è in questo campo che si stanno verificando le innovazioni più interessanti per l’AI. I toolkit di un’intelligenza artificiale domain-specific sono in fase di sviluppo e superano già la potenza innovativa dei grandi attori dell’AI. Ridimensionare l’ambito di competenza dell’AI può dare maggiori risultati.

    Quest’ultimo aspetto però si può verificare solo se abbinato a trasparenza e integrità, di competenza dei team legali e di compliance. La loro collaborazione con i data scientist e i colleghi DevOps diventerà una caratteristica fondamentale di una strategia di intelligenza artificiale efficace.

    Tutti questi team, infatti, sono ugualmente coinvolti nella creazione di linee guida su come e quando utilizzare l’AI e nel monitoraggio della loro applicazione. Le questioni relative alla provenienza dei dati, infatti, interessano sia l’ambito più prettamente tecnologico sia le autorità di regolamentazione. Come dimostra l’elevata attenzione al tema posta da diversi enti regolatori in tutto il mondo:  l’UE con l’AI Act, gli Stati Uniti con l’AI Bill of Rights, il Regno Unito con l’AI Regulation Policy Paper e l’applicazione delle Algorithmic Recommendation Management Provvision in Cina.

    Infine, non bisogna farsi trascinare dalla moda dell’AI. Passando da un’intelligenza artificiale generica a una specifica per ogni settore, le aziende si dotano di competenze molto più efficaci e, con il giusto metodo, di dipendenti più istruiti e rispettosi delle procedure. Per prendere questa decisione sarà necessaria una forte leadership. Il fermento mediatico intorno all’AI ha creato attorno a sé un’urgenza di adozione. L’approccio più sensato, invece, è quello di fermarsi, ponderare e assicurarsi che gli investimenti in intelligenza artificiale, nei sistemi, nelle persone e nella cultura tengano conto sia delle opportunità che dei rischi.

    AI intelligenza artificiale Jan Wildeboer Red Hat shadow AI
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Red Hat Enterprise Linux adesso implementabile sul cloud

    11/06/2025

    È Mike Giresi il nuovo Chief Information Officer a livello globale di Vertiv

    11/06/2025

    Allucinazioni AI: scongiurarle con lo Storage Enterprise

    11/06/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    Defence Tech

    Attacchi informatici: cosa è cambiato con l’AI?

    11/06/2025

    BladedFeline, il gruppo affiliato all’Iran scoperto da ESET

    11/06/2025

    Cybersecurity: le opportunità offerte dal DPCM del 30 Aprile 2025

    10/06/2025

    Multi-cloud: come proteggerlo in modo adeguato?

    10/06/2025
    Report

    Cybersecurity: le previsioni di Deloitte

    10/06/2025

    Red Hat rivela il futuro della virtualizzazione: innovazione e agilità per le aziende

    06/06/2025

    Sviluppatori entusiasti e ottimisti sull’AI agentica

    04/06/2025

    Intelligenza Artificiale: non tutte le aziende sono pronte

    30/05/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.