• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Speciale Stampanti
  • Industry 4.0
  • Sanità Digitale
  • ReStart in Green
  • Redazione
  • Contattaci
LineaEDP
    Facebook Twitter Vimeo LinkedIn RSS
    Trending
    • Open Source Week 2023: valore e innovazione per le aziende
    • Joule, il nuovo assistente di AI generativa di SAP
    • Akito: il tuo alleato per la cybersecurity
    • Genya Studio di Wolters Kluwer gestisce gli studi commercialisti
    • Settore finanziario in evoluzione costante
    • Envizi ESG Suite: il software per la sostenibilità di IBM si arricchisce di nuove funzionalità
    • Q8 Hi Perform: il carburante per la riduzione dei consumi e prestazioni eccezionali, verso una mobilità più sostenibile
    • Identità digitale: qual è il ruolo dell’AI?
    Facebook Twitter Vimeo LinkedIn RSS
    LineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDP
    Sei qui:Home»Featured»Intelligenza artificiale? Non è una moda

    Intelligenza artificiale? Non è una moda

    Di Redazione LineaEDP15/09/2023Lettura 5 Min
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Per Jan Wildeboer di Red Hat (nella foto in alto), quando si parla di Intelligenza artificiale, la grandezza non è sinonimo di qualità

    AI

    Nel contributo che vi proponiamo qui di seguito, Jan Wildeboer, EMEA Open Source Evangelist, Red Hat, spiega perché nel momento in cui si parla di Intelligenza artificiale, la grandezza non è sinonimo di qualità.
    Buona lettura.

    Negli ultimi tempi, abbiamo assistito alla diffusione dell’IA, o intelligenza artificiale, in molti ambiti economici e culturali, e il suo utilizzo è sempre più pervasivo. L’AI non è nata con ChatGPT, ma il lancio della piattaforma dello scorso novembre su scala mondiale ha decisamente attirato l’attenzione. Nell’ambiente tech, solo la blockchain aveva avuto una diffusione così rapida e clamorosa. Un rapporto IDC pubblicato a inizio 2023 stima che la spesa globale per l’AI raggiungerà i 301 miliardi di dollari entro il 2026, il doppio rispetto a oggi.

    I benefici riguardano molteplici ambiti, dalla produttività dei dipendenti alla soddisfazione dei clienti, fino alla riduzione dei rischi. Per cavalcare l’onda dell’AI, si sta diffondendo l’abitudine tra i dipendenti di sperimentare con la tecnologia all’interno della propria azienda, al fine di diventare pionieri dell’AI e contribuire a costruire un vantaggio competitivo in maniera alternativa. Purtroppo, così facendo, potrebbero inavvertitamente mettere a rischio loro aziende.

    AI: una questione di controllo

    In genere si crede che, all’aumentare del numero di dati, cresca esponenzialmente anche il loro valore. Ma non è sempre così: più set di dati vengono inseriti nei sistemi aziendali, più si complicano le attività di controllo sulla loro provenienza e accuratezza. Senza contare le potenziali violazioni di copyright che l’AI potrebbe inavvertitamente generare.

    Prendiamo ad esempio ChatGPT. L’avvertenza riportata sul sito web di OpenAI è che può produrre informazioni inaccurate, e ci sono già molti casi che confermano le conseguenze di un uso sprovveduto della piattaforma. Ad esempio, come nel recente caso dell’avvocato newyorkese arrivato nelle pagine di cronaca di tutto il mondo.

    Quest’ultimo aspetto è significativo se lo si osserva all’interno di un’impresa. Uno strumento di intelligenza artificiale che gestisce automaticamente l’inventario, stabilisce gli stipendi in base alle prestazioni, prevede il flusso di cassa trimestrale, ottimizza le operazioni in valuta estera e così via, prende di fatto decisioni che hanno un impatto profondo sulla redditività aziendale. Questi processi possono essere facilmente controllati applicando una strategia di governance dei dati e di AI mature, fin tanto che il personale non inizia a utilizzare i propri strumenti di “shadow AI”.

    Quindi, il problema è duplice. Come garantire l’integrità degli strumenti di AI di cui si è a conoscenza e impedire al personale di utilizzare piattaforme di AI non autorizzate e verificate per agevolare il proprio lavoro?

    La risposta è più concettuale che specifica. I Large Language Model (LLM) e altre soluzioni generiche che cercano di servire una moltitudine di utenti non rappresentano il futuro dell’AI. Piuttosto, le aziende vorranno implementare funzionalità specifiche per settore, clienti e attività.

    Dati più precisi e pertinenti

    Questa nuova era di “domain-specific AI” sarà definita dalla capacità di costruire servizi unici e differenziati. Ciò richiede modelli fondanti costruiti su dati privati e personalizzati in base agli standard e alle pratiche di un’azienda o di un settore specifico. Alimentata da dati ben organizzati, concreti e verificati, l’intelligenza artificiale di base sarà in grado di offrire funzionalità avanzate e affidabili in grado di realizzare una vera collaborazione con l’intelligenza umana. Le decisioni frutto di questa collaborazione saranno quindi più pertinenti ed efficaci. Allo stesso tempo, si riduce la necessità dei dipendenti di ricorrere a piattaforme di “shadow AI” per trovare le informazioni di cui hanno bisogno. A tal proposito, coinvolgere i dipendenti nel percorso di progettazione dei processi aziendali contribuisce a rendere più efficace la loro adozione.

    Verso una strategia AI davvero efficace

    Chi è davvero informato sa che è in questo campo che si stanno verificando le innovazioni più interessanti per l’AI. I toolkit di un’intelligenza artificiale domain-specific sono in fase di sviluppo e superano già la potenza innovativa dei grandi attori dell’AI. Ridimensionare l’ambito di competenza dell’AI può dare maggiori risultati.

    Quest’ultimo aspetto però si può verificare solo se abbinato a trasparenza e integrità, di competenza dei team legali e di compliance. La loro collaborazione con i data scientist e i colleghi DevOps diventerà una caratteristica fondamentale di una strategia di intelligenza artificiale efficace.

    Tutti questi team, infatti, sono ugualmente coinvolti nella creazione di linee guida su come e quando utilizzare l’AI e nel monitoraggio della loro applicazione. Le questioni relative alla provenienza dei dati, infatti, interessano sia l’ambito più prettamente tecnologico sia le autorità di regolamentazione. Come dimostra l’elevata attenzione al tema posta da diversi enti regolatori in tutto il mondo:  l’UE con l’AI Act, gli Stati Uniti con l’AI Bill of Rights, il Regno Unito con l’AI Regulation Policy Paper e l’applicazione delle Algorithmic Recommendation Management Provvision in Cina.

    Infine, non bisogna farsi trascinare dalla moda dell’AI. Passando da un’intelligenza artificiale generica a una specifica per ogni settore, le aziende si dotano di competenze molto più efficaci e, con il giusto metodo, di dipendenti più istruiti e rispettosi delle procedure. Per prendere questa decisione sarà necessaria una forte leadership. Il fermento mediatico intorno all’AI ha creato attorno a sé un’urgenza di adozione. L’approccio più sensato, invece, è quello di fermarsi, ponderare e assicurarsi che gli investimenti in intelligenza artificiale, nei sistemi, nelle persone e nella cultura tengano conto sia delle opportunità che dei rischi.

    AI intelligenza artificiale Jan Wildeboer Red Hat shadow AI
    Condividi: Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • Twitter

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Open Source Week 2023: valore e innovazione per le aziende

    27/09/2023

    Joule, il nuovo assistente di AI generativa di SAP

    27/09/2023

    Akito: il tuo alleato per la cybersecurity

    27/09/2023
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    Italian Machine Vision Forum il 3 ottobre
    Guido Pellegata: “46 anni di lavoro… senza lavorare”
    Attacco hacker? Reagire in modo efficace con IBM Security QRadar Suite
    Exor aiuta gli OEM
    SPECIALE ITG: IL MEGLIO DI SPS 2023
    Defence Tech

    Akito: il tuo alleato per la cybersecurity

    27/09/2023

    Attacchi malware su dispositivi ICS: allarme in Italia

    26/09/2023

    Certificazione Common Criteria per Veeam

    22/09/2023

    App spia: ESET lancia l’allarme

    21/09/2023
    Report

    Banda Ultra Larga per una crescita inclusiva

    27/09/2023

    Software: perché sceglierlo di qualità

    19/09/2023

    Modernizzazione del mainframe, risparmio sicuro

    13/09/2023

    Intelligenza Artificiale Responsabile: istruzioni da Cefriel

    12/09/2023
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook Twitter Vimeo LinkedIn RSS
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Ultime

    Open Source Week 2023: valore e innovazione per le aziende

    27/09/2023

    Joule, il nuovo assistente di AI generativa di SAP

    27/09/2023

    Akito: il tuo alleato per la cybersecurity

    27/09/2023
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2023 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Scrivi nel campo e premi Invio per cercare. Premi Esc per annullare