SAS, realtà operante a livello globale nell’ambito dei dati e dell’IA, ha presentato una nuova ricerca che esplora l’uso, l’impatto e l’affidabilità dell’Intelligenza Artificiale. IDC Data and AI Impact Report: The Trust Imperative, commissionato da SAS, ha rilevato che business e IT leader hanno maggiore fiducia nell’IA generativa rispetto a qualsiasi altra forma di IA.
La ricerca globale sull’uso e l’adozione dell’IA ha rilevato anche che solo il 40% delle organizzazioni sta investendo per rendere i sistemi di intelligenza artificiale affidabili, attraverso governance, trasparenza e garanzie etiche, anche se le organizzazioni che danno priorità all’AI affidabile hanno il 60% di probabilità in più di raddoppiare il ritorno sull’investimento (ROI) dei progetti di intelligenza artificiale.
Paradossalmente, tra coloro che riportano il minor investimento in sistemi di IA affidabili, l’IA generativa (come ChatGPT) è considerata il 200% più affidabile rispetto all’Intelligenza Artificiale tradizionale (come il machine learning), nonostante quest’ultima sia la forma di IA più consolidata, affidabile e spiegabile.
La ricerca si basa su un sondaggio globale condotto su 2375 partecipanti in Nord America, America Latina, Europa, Medio Oriente e Africa, e Asia Pacifico. I partecipanti comprendevano un mix equilibrato di professionisti IT e business leader, offrendo così prospettive sia dal punto di vista tecnologico sia da quello aziendale.
Le tecnologie emergenti di Intelligenza Artificiale suscitano maggiore fiducia
Nel complesso, lo studio ha rilevato che le implementazioni di Intelligenza Artificiale più affidabili sono le tecnologie emergenti, come la GenAI e l’Agentic AI, rispetto alle forme di IA più consolidate. Quasi la metà dei rispondenti (48%) ha “completa fiducia” nell’IA generativa, mentre un terzo ha fiducia nell’IA agentica (33%). La forma di IA meno affidabile è l’IA tradizionale: meno di uno su cinque (18%) ha indicato completa fiducia.
Pur dichiarando un alto livello di fiducia nella GenAI e nell’Agentic AI, gli intervistati al sondaggio hanno espresso preoccupazioni legate alla privacy dei dati (62%), alla trasparenza e alla spiegabilità (57%) e all’utilizzo etico (56%).
Nel frattempo, l’IA quantistica sta acquisendo rapidamente fiducia, anche se la tecnologia necessaria per realizzare la maggior parte dei casi d’uso non è ancora stata pienamente sviluppata. Quasi un terzo degli executive afferma di essere familiare con l’IA quantistica e il 26% ha completa fiducia in questa tecnologia, nonostante le applicazioni nel mondo reale siano ancora nelle prime fasi.
Il ritardo nelle misure di sicurezza per l’IA indebolisce l’impatto dell’IA e il ROI
Lo studio ha mostrato un rapido aumento dell’utilizzo dell’Intelligenza Artificiale – in particolare dell’IA generativa, che ha rapidamente superato l’IA tradizionale, sia in visibilità che in applicazione (81% contro 66%). Questo porta a un nuovo livello di rischi e preoccupazioni etiche.
I ricercatori di IDC hanno identificato in tutte le regioni un disallineamento tra quanto le organizzazioni si fidano dell’IA e quanto la tecnologia sia realmente affidabile. Secondo lo studio, mentre quasi 8 organizzazioni su 10 (78%) affermano di fidarsi completamente dell’IA, solo il 40% ha investito per rendere i sistemi affidabili in modo dimostrabile attraverso governance, trasparenza e garanzie etiche.
La ricerca ha inoltre evidenziato come venga attribuita bassa priorità all’implementazione di misure per garantire un’Intelligenza Artificiale affidabile nella fase di messa in operatività dei progetti di intelligenza artificiale.
Tra le prime tre priorità organizzative, solo il 2% ha indicato lo sviluppo di un framework di governance dell’IA e meno del 10% ha indicato lo sviluppo di policy di IA responsabile. Tuttavia, dare bassa priorità alle misure di AI affidabile potrebbe impedire a queste organizzazioni di sfruttare appieno i loro investimenti in intelligenza artificiale.
I ricercatori hanno diviso i partecipanti del sondaggio in leader in IA affidabile e follower in IA affidabile. I leader in Intelligenza Artificiale affidabile hanno investito maggiormente in pratiche, tecnologie e framework di governance per rendere i loro sistemi di IA affidabili – e sembrano raccoglierne i frutti. Quegli stessi leader che hanno dato priorità a un’AI affidabile hanno 1,6 volte più probabilità di ottenere un ROI doppio o superiore dai loro progetti di AI.
La mancanza di solide basi di dati e governance ostacola l’Intelligenza Artificiale
Man mano che i sistemi di intelligenza artificiale diventano più autonomi e profondamente integrati nei processi critici, le basi dati assumono un’importanza sempre maggiore. La qualità, la diversità e la governance dei dati influenzano direttamente i risultati dell’IA, rendendo le strategie di gestione dei dati fondamentali sia per ottenere benefici (ad es. ROI, aumento di produttività) sia per mitigare i rischi.
Lo studio ha identificato tre principali ostacoli al successo delle implementazioni di IA: infrastruttura dati debole, scarsa governance e mancanza di competenze in IA. Quasi la metà (49%) delle organizzazioni indica basi di dati non centralizzate o ambienti di dati cloud non ottimizzati come una delle barriere principali. Questa preoccupazione è seguita da una mancanza di processi di governance dei dati (44%) e una carenza di specialisti qualificati all’interno della loro organizzazione (41%).
I partecipanti allo studio hanno riportato che il problema principale nella gestione dei dati utilizzati nelle implementazioni di Intelligenza Artificiale è la difficoltà di accesso alle fonti di dati rilevanti (58%). Altre preoccupazioni principali includono questioni di privacy e conformità dei dati (49%) e qualità dei dati (46%).
Dichiarazioni
“La nostra ricerca mostra una contraddizione: le forme di Intelligenza Artificiale con interattività umana e familiarità sembrano incoraggiare una maggiore fiducia, indipendentemente dall’affidabilità o accuratezza effettiva”, ha dichiarato Kathy Lange, Research Director of the AI and Automation Practice di IDC. “Come fornitori di AI, professionisti e utenti privati, dobbiamo chiederci: la GenAI è considerata affidabile, ma è sempre davvero degna di fiducia? I leader stanno applicando le necessarie misure di protezione e pratiche di governance dell’AI a questa tecnologia emergente?”.
“Per il bene della società, delle imprese e dei lavoratori, la fiducia nell’Intelligenza Artificiale è imprescindibile”, ha dichiarato Bryan Harris, Chief Technology Officer di SAS. “Per raggiungere questo obiettivo, l’industria dell’IA deve aumentare il tasso di successo delle implementazioni, le persone devono valutare in modo critico i risultati generati dall’AI e la leadership deve mettere i lavoratori nelle condizioni di valorizzare al meglio questa tecnologia”.