• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi
    • Attacchi informatici: Russia, UE e Asia nel mirino
    • Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory
    • Sicurezza: AI sempre più sfidante
    • Oracle EU Sovereign Cloud conquista le organizzazioni tedesche
    • Progettare il futuro con Red Hat Enterprise Linux 10
    • AI e Partnership pilastri della strategia di SAP
    • Elisabetta Franchi: A Convention of Fashion and Imagination in Mold
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»Tibco: una nuova intelligence vista attraverso una IA trasparente

    Tibco: una nuova intelligence vista attraverso una IA trasparente

    By Redazione LineaEDP22/03/20226 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Lori Witzel di TIBCO ci spiega come le soluzioni che si basano sull’IA sono sempre più diffuse e come la trasparenza è l’arma migliore per garantirne il successo

    Lori Witzel, TIBCO IA trasparente
    Lori Witzel, TIBCO

    L’Intelligenza Artificiale (IA) si è molto evoluta rispetto alle fantasiose esemplificazioni immaginate nei film e nella fantascienza, diventando una componente tangibile delle nostre vite attraverso elementi quali i chatbot e i suggerimenti per lo shopping. Tuttavia, come avviene con molte tecnologie nuove e ancora nascenti, gli uomini tendono ad attraversare un periodo di valutazione scettica, incredulità alimentata dalla società e adozione parziale esitante, prima di raggiungere un livello di accettazione ampio e convalidato.

    L’IA, se messa in opera, implementata e integrata in modo appropriato, può offrire un vero e proprio balzo in avanti nell’intelligence operativa, consentendo operazioni di business più profittevoli che forniscono esperienze migliori ai clienti a tutti i livelli. È possibile ottenere un nuovo livello di “intimità col cliente” (customer intimacy) dove i sistemi di business vengono reinventati e intere supply chain sono “aumentate” (augmented), fatte evolvere e potenziate. Com’è possibile, date le sfide che l’IA stessa deve fronteggiare in termini di diffusione del panico da “ribellione dei robot”, passare a un nuovo livello di adozione dell’IA, in cui l’intelligenza artificiale sia ritenuta affidabile, provata, consolidata e, soprattutto, trasparente?

    Un percorso chiaro verso una IA trasparente

    La responsabilità di abilitare questa nuova era dell’IA non poggia soltanto sulle spalle dei business leader, ma appartiene anche a tutti gli interessati e agli stakeholder che cerchino i numerosi benefici di sistemi più veloci e più smart. Il lavoro volto a ottenere un nuovo livello di fiducia e di trasparenza sta procedendo a livello internazionale, in un modo che tutti sperano si dimostri efficace e vigoroso.

    Attualmente ancora in bozza, la legge Europea sull’intelligenza artificiale EU AI Act (European Union Artificial Intelligence Act) avrà probabilmente un impatto sia sulle imprese esterne che interne all’Unione, a causa della natura del business internazionale.

    L’EU AI Act (AIA), nella sua essenza, insiste sul fatto che gli umani restino al centro dell’innovazione e della governance dell’IA. Mentre cominciamo ad applicare i vantaggi delle efficienze dell’IA e del Machine Learning (ML) a sistemi, servizi e prodotti, dobbiamo assicurarci che il processo di presa di decisione umana sia sempre alla base della logica e degli algoritmi utilizzati dall’IA. Questa IA umano-centrica è necessaria per governare in modo corretto la privacy personale, l’etica umana e la compliance aziendale.

    In termini di agire umano e di supervisione, il team AIA dell’Unione Europea ha dichiarato: “I sistemi IA dovrebbero responsabilizzare gli esseri umani, consentendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali. Allo stesso tempo, sono necessari meccanismi di controllo adeguati per gli approcci human-in-the-loop, human-on-the-loop e human-in-command (cioè umani coinvolti nel ciclo decisionale, umani che possono rifiutare il ciclo decisionale e umani in totale controllo, ndt)”.

    Proprio come nel caso della GDPR (General Data Protection Regulation) dell’Unione Europea, l’implementazione della legge EU AI potrebbe richiedere tempo, ma come la GDPR si rivelerà importante per le imprese. La legge EU AI Act assumerà probabilmente una posizione rigida riguardo al come e al dove applicare multe significative per punire la non-aderenza.

    La trasparenza comincia con la capacità di controllo

    Sappiamo che per acquisire i benefici della IA occorre fiducia. È chiaro perciò che i migliori sistemi di IA saranno quelli più trasparenti e più controllabili. Questi sono sistemi caratterizzati da tracciabilità e spiegabilità e consentono di stabilire canali di comunicazione chiari per illustrare, spiegare e convalidare i modelli di IA su cui sono costruiti.

    Se disponiamo di una visuale chiara sugli algoritmi e sui processi di ML (Machine Learning) che portano a far funzionare un modello di IA, allora avremo trasparenza nei processi, strumenti, dati e ‘attori’ (modelli matematici di calcolo) coinvolti nella produzione del processo stesso totale di IA.

    I processi di IA più controllabili (e perciò più trasparenti) sono quelli costruiti con un livello di documentazione chiaro e sufficientemente completo per consentire agli auditor di accedervi e utilizzarli. Un auditor IA dovrebbe essere in grado di utilizzare quella documentazione per produrre gli stessi risultati utilizzando lo stesso metodo di IA con un nuovo team di data science. In diversi modi, potremmo definire questa una forma di reverse engineering progettata per testare, validare e corroborare il livello di trasparenza richiesto e necessario.

    La genealogia dei modelli di IA

    Per poter ottenere una vera trasparenza e fiducia in un sistema di IA, occorre essere in grado di comprendere la sua genealogia. Si tratta dell’insieme di associazioni logiche tra qualsiasi modello di ML di partenza utilizzato da un’IA e tutti i componenti coinvolti nella sua creazione. Tracciare la genealogia di un modello è più difficile se non si dispone di operazioni di modellazione robuste e scalabili – cosa che tipicamente è legata al numero di componenti coinvolte, che può essere grande, dinamico e difficile da tracciare.

    Sia la fiducia che la trasparenza possono venire indirizzate con una gestione dei modelli robusta e scalabile. La Model Operation, che è lo sviluppo e la gestione dei modelli di ML che supportano le iniziative di IA, è fondamentale per rendere operativa la IA. Tuttavia, può essere ardua e problematica da scalare, perciò le organizzazioni devono pensare di lavorare in modo diligente con i propri team di data science e IT, per comprendere le proprie sfide operazionali individuali.

    In pratica, una trasparenza solida è una miscela di divulgazione, documentazione e tecnologia. Volendo spiegare le cose in termini tecnici più specifici, gli strumenti relativi alle data fabric e alla operatività dei modelli tracciano e rendono evidente la trasparenza dei dati attraverso i log delle modifiche e la cronologia. L’accesso a questi asset ci consente di tracciare e ripetere le azioni dei modelli di IA. Queste azioni, nello specifico, costituiscono i meccanismi dell’IA trasparente che si svolgono in condizioni operative.

    Questa tracciabilità di dati e modelli, unita a divulgazione e documentazione adeguate, contribuiscono a far sì che i dati vengano utilizzati, le decisioni prese e le implicazioni di queste decisioni rese più trasparenti in tutta l’organizzazione. Non ci possiamo ragionevolmente aspettare a nessun livello che i clienti e i partner (e in realtà gli impiegati interni di un’azienda in qualsiasi organizzazione) si cimentino con – per non parlare dell’affidarsi a – un qualsiasi sistema di business guidato dalle decisioni dell’Intelligenza Artificiale senza trasparenza a tale livello.

    Un mondo migliore (più trasparente)

    Oggi abbiamo una invidiabile, eccitante e arricchente opportunità di abbracciare l’IA e l’ML, utilizzandole per rendere le nostre vite migliori su tanti livelli.

    Se pensiamo all’incredibile velocità con cui sono stati prodotti vaccini in risposta alla pandemia a partire dall’inizio della decade attuale, questa azione (e molte altre collaterali) illustra come sia possibile sfruttare IA ed ML per fare molto di più, molto più velocemente e con molta più accuratezza che in qualsiasi altro momento delle nostre vite fino a questo punto.

    Quando facciamo avanzare queste azioni e lo facciamo all’interno dei vincoli posti dalla compliance e dalla governance che comunità, medici e legislatori decideranno e stabiliranno, allora possiamo abbracciare con fiducia l’IA e i suoi molti benefici – una customer experience assolutamente positiva, scoperte mediche rivoluzionarie ed eccellenza operativa – che sappiamo che è in grado di fornire.

    Di Lori Witzel, Director of Research for Analytics and Data Management, TIBCO

    IA intelligenza artificiale TIBCO Software
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi

    21/05/2025

    Dynatrace e NVIDIA a supporto delle implementazioni di AI Factory

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025

    TA406: cybercrime contro le entità governative ucraine

    19/05/2025
    Report

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.