• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Kyndryl Retail Readiness Report: le leve per il retail nel 2026
    • Protezione ransomware accessibile a tutti: come i modelli di abbonamento a consumo riducono gli ostacoli alla resilienza informatica
    • Horsa accelera nel 2026: acquisite Exemplar e Visioscientiae, rafforzate competenze in CAE, AI e Data Science
    • Osservabilità: sei previsioni per il 2026
    • Cloud: dalla sovranità digitale alla Private AI
    • Vertiv amplia il sistema di raffreddamento perimetrale flessibile ed efficiente dal punto di vista energetico per applicazioni small, medium ed edge in EMEA
    • CrowdStrike: nuovi cloud regionali per potenziare la sovranità dei dati sicura
    • Oracle Supply Chain Collaboration mitiga i rischi dei retailer
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»I pregiudizi sull’IA sono corretti?

    I pregiudizi sull’IA sono corretti?

    By Redazione LineaEDP03/03/20236 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    L’intelligenza artificiale continua ad essere guardata con sospetto, nonostante le sue enormi potenzialità. Couchbase ci spiega come è possibile ridurre i pregiudizi sull’IA

    IA
    Aaron Schneider, Couchbase

    Con il rilascio lo scorso anno di DALL-E 2 e ChatGPT da parte di OpenAI, anche i singoli individui hanno avuto modo di iniziare a interagire con l’Intelligenza Artificiale (IA), osservandone il potenziale in prima persona, anche se in misura ridotta.

    Si tratta di strumenti che possono sembrare magici, ricevono una richiesta testuale e forniscono una risposta. DALL-E trasforma il testo in un’immagine, ChatGPT avvia un’intera conversazione. Ad esempio, chiedete un gattino addormentato a DALL-E e otterrete una selezione di splendide immagini. Chiedete a ChatGPT di scrivere un saggio sulla Rivoluzione americana e otterrete un testo coerente.

    Tuttavia, questi strumenti (e altri simili) non sono assolutamente magici e certo non infallibili. Infatti, se li guardiamo più da vicino, inizieremo a vedere come. Avete chiesto a DALL-E qualcosa relativo a mani o testo? Probabilmente rimarrete delusi dalle “mani”, la tesi sulla Rivoluzione Americana? Beh, potrebbe avere qualche imprecisione o una formulazione non del tutto corretta.

    pregiudizi sull'AI-Couchbase

    La viralità di questi due strumenti ci ha portato a confrontarci con le complesse ramificazioni sociali e legali relative alla democratizzazione degli strumenti di IA.

    Ci si può fidare dell’Intelligenza Artificiale?

    Nel momento del rilascio di ChatGPT in molti hanno reagito affermando che Google fosse nei guai. Perché usare Google per una ricerca, quando si può chiedere a ChatGPT? In realtà, con i suoi significativi investimenti in intelligenza artificiale, Google ha già realizzato uno strumento simile. Infatti, ha anche mostrato pubblicamente delle demo del proprio motore di linguaggio naturale, chiamato LaMDA AI, in cui l’utente può parlare con il pianeta Plutone e porgli tutte le domande che desidera. Tuttavia, Google non lo ha mai reso disponibile. Perché?

    In una recente riunione, il CEO di Google, Sundar Pichai, ha risposto a questa domanda citando il rischio di reputazione di un tale prodotto, facendo notare che i clienti si fidano intrinsecamente dei risultati di ricerca di Google e che “per le applicazioni di ricerca, i problemi di fattualità sono molto importanti, mentre per altre applicazioni sono fondamentali i problemi di parzialità, tossicità e sicurezza.”

    Sì, risultati di ricerca imprecisi danneggerebbero l’immagine di Google, ma la seconda affermazione rivela il vero rischio. Formulando la domanda in un determinato modo, si potrebbero ottenere da ChatGPT contenuti apertamente falsi o decisamente offensivi.

    Mentre Google sta lentamente e metodicamente tracciando il suo futuro nell’IA, altri stanno cogliendo l’opportunità di sconvolgere lo status quo. Con il recente annuncio dell’intenzione di Microsoft di arricchire alcuni dei suoi prodotti principali (Office e Bing) con la tecnologia di OpenAI, dobbiamo guardare più da vicino per capire perché i motori di IA hanno il potenziale per essere disprezzati. Purtroppo, non è colpa dell’IA. Per capire perché, dobbiamo sbirciare dietro le quinte.

    All’interno del cervello dell’IA

    DALL-E e ChatGPT sono entrambi modelli di machine learning, utilizzano tecniche di modellazione ben studiate per creare sistemi predittivi che ricevono un input e restituiscono un output. DALL-E è stato alimentato con miliardi di coppie di immagini e didascalie provenienti da Internet e ha imparato come si relazionano, in modo tale che quando viene fornita una nuova didascalia possa generare un’immagine corrispondente. ChatGPT si basa sul modello linguistico GPT3, che ha ingerito testo da Internet e, quando gli viene chiesto di pronunciare una parola, può prevedere quale debba seguire. Il modello è stato poi implementato in un framework conversazionale.

    Il motivo per cui modelli come ChatGPT possono produrre risultati offensivi, razzisti o sessisti è che sono stati addestrati su un set di dati che conteneva milioni di esempi di contenuti negativi. Internet è pieno di persone che dicono cose terribili, usarlo come fonte di dati per addestrare un modello insegnerà senza dubbio a dire quelle stesse cose.

    Questo spiega perché aziende come Google approcciano con timore il rilascio di modelli di IA così complessi. Una volta terminato il complicato addestramento, non si può essere certi che, dato un particolare input, l’output prodotto sia accettabile.

    Il problema non è nuovo. Si parla di pregiudizi dell’IA quando un modello riflette i pregiudizi intrinseci del suo autore umano, impliciti nel set di dati. Cosa fare per ridurre questo rischio?

    Shift Right: l’approccio ChatGPT

    OpenAI era perfettamente consapevole di questo problema ben prima di rilasciare ChatGPT, tanto da aver previsto delle barriere per evitarlo. Il loro approccio era semplice: non permettete a ChatGPT di rispondere a domande che potrebbero suscitare risposte inappropriate. Il tool ha un elenco di parole chiave e frasi proibite alle quali non risponderà o risponderà in modo specifico.

    Si tratta di una strategia corretta, ma è chiaro che non sia infallibile.

    Shift Left: l’approccio sicuro dal punto di vista della reputazione

    Una strategia di più lungo termine consiste nel prendere in considerazione l’inizio del processo: se si eliminano i pregiudizi dal set di dati prima che il modello abbia la possibilità di apprenderli, si annulla di fatto la possibilità di creare un’intelligenza artificiale distorta.

    Sebbene OpenAI abbia cercato di limitare l’esposizione di GPT3 e DALL-E a testi e immagini inadeguati, non è stato efficace al 100%. La possibile soluzione? Realizzare prodotti di IA da applicare a casi d’uso più contenuti dove l’insieme di dati in ingresso è limitato.’’

    Rimozione automatica dei pregiudizi, l’approccio di Couchbase

    In qualità di custode dei dati, l’obiettivo di Couchbase è quello di mettere gli utenti in condizione di realizzare modelli di IA imparziali, consentendo ai ricercatori di rimuovere automaticamente le informazioni “rischiose” da un set di dati AI.

    Questo è possibile grazie al servizio Eventing, che consente di attivare in tempo reale sul server la logica di business definita dall’utente quando le interazioni dell’applicazione creano cambiamenti nei dati. In questo modo, è possibile verificare ed eventualmente rimuovere ogni contenuto potenzialmente controverso prima ancora che venga reso disponibile dal modello IA utilizzato, realizzando un incrocio virtuoso tra processi algoritmici e revisione umana e garantendo che il responso fornito dall’IA non vada contro i modelli di etica generalmente accettati, e promossi dalle aziende.

    L’intelligenza artificiale è ormai onnipresente nella vita quotidiana di tutti e in futuro, dopo aver attraversato una fase di maturazione che ci permetterà di farvi sempre più affidamento, lo sarà ancora di più. Per questo è importante non sottovalutarla.

     

    A cura di Aaron Schneider, Associate Solutions Engineer, Couchbase

    Couchbase
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Osservabilità: sei previsioni per il 2026

    23/01/2026

    Cloud: dalla sovranità digitale alla Private AI

    23/01/2026

    L’Infrastruttura al centro: cinque tendenze che plasmeranno AI, resilienza e sovranità nel 2026

    22/01/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Defence Tech

    Protezione ransomware accessibile a tutti: come i modelli di abbonamento a consumo riducono gli ostacoli alla resilienza informatica

    23/01/2026

    Microsoft Teams: attacchi phishing su larga scala

    21/01/2026

    Milano-Cortina 2026: oltre le medaglie, si prepara una battaglia cyber ad alto rischio

    21/01/2026

    Sophos Workspace Protection: lavoro ibrido e uso dell’IA in azienda al sicuro

    21/01/2026
    Report

    Kyndryl Retail Readiness Report: le leve per il retail nel 2026

    23/01/2026

    BCS: i data center IA posizionano l’Italia tra i primi mercati d’Europa, ma nodi energetici e insolvenze edili rischiano di frenare la corsa

    20/01/2026

    Data Center: come cresce l’ecosistema. I dati dell’Osservatorio POLIMI

    16/01/2026

    AI Diffusion Report: Microsoft presenta la nuova edizione

    13/01/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.