• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Rubrik Agent Cloud consente un’implementazione sicura dell’AI
    • Sanzioni del Garante: considerarle una bussola strategica è la chiave
    • Red Hat Developer Lightspeed arriva e porta nuovi assistenti virtuali
    • Le PMI europee non sanno proteggersi: è allarme cybersecurity
    • Palantir e Snowflake insieme per ottimizzare la gestione dei dati
    • CIO e CEO diventano partner. Un’evoluzione guidata dall’AI
    • Data Management nell’era del Quantum Computing: cosa cambierà?
    • SAP NOW AI Tour Milan 2025: un’edizione da record!
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»LLM: ecco perché è più giusto parlare di “comunicazione artificiale”

    LLM: ecco perché è più giusto parlare di “comunicazione artificiale”

    By Redazione LineaEDP04/09/2025Updated:04/09/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Nell’articolo Mirko Gubian di Axiante chiarisce il funzionamento dei LLM e spiega perché è un errore definirli “intelligenti”

    LLM

    Mentre l’intelligenza artificiale continua a suscitare entusiasmo per le sue straordinarie potenzialità, il dibattito sta evolvendo verso analisi più mature e approfondite.
    In questo contesto, Mirko Gubian, Global Demand Senior Manager & Partner di Axiante, affronta una questione fondamentale: quando parliamo di Large Language Model (LLM), stiamo realmente parlando di una tecnologia intelligente? Una riflessione con implicazioni non puramente terminologiche ma anche pratiche.

    Buona lettura!

    Large Language Model, siamo sicuri che siano intelligenti?

    L’intelligenza artificiale continua a raccogliere adesioni entusiastiche, ma emergono in maniera crescente anche analisi più critiche e ponderate. Se inizialmente l’attenzione si concentrava principalmente sulle potenzialità rivoluzionarie di queste tecnologie, a ciò oggi si affiancano riflessioni più mature. In questo contesto ci si pone sempre più una domanda fondamentale: quello che chiamiamo “intelligenza artificiale” è davvero intelligente?

    Questo quesito si fa strada soprattutto quando parliamo di Large Language Model (LLM), una delle soluzioni che sta maggiormente alimentando il dibattito sulla differenza tra “comunicazione artificiale” e “intelligenza artificiale”.

    Ben poco artificiali, non intelligenti

    Iniziamo con il dire che i LLM non sono completamente “artificiali”, almeno nel senso tradizionale del termine. La loro “conoscenza” ha infatti origini non artificiali dal momento che proviene dalla mole di dati con cui sono stati addestrati; dati raccolti dal web e altre fonti create da esseri umani. Pertanto in senso stretto si tratta più di una forma sofisticata di riciclaggio informativo, non di creazioni originali.

    Ma soprattutto sono essenzialmente sistemi per creare risposte, frasi, testi combinando le parole che statisticamente è più probabile che si presentino insieme, che si combinino fra loro. Gli analisti più critici definiscono queste soluzioni “pappagalli stocastici” perché, osservando le parole presenti per esempio in una domanda, aggiungono quelle successive in quanto le più probabili, non perché frutto di un ragionamento, di un pensiero vero e proprio.

    Modelli statistici e illusione percettiva

    Indubbiamente i LLM sono straordinari nella loro capacità di generare testi coerenti e “apparentemente” sensati, capacità, peraltro, in continua evoluzione. Ma questa abilità nasce da un processo puramente statistico. In altre parole sono tecnologie per generare testi basati su asset statistici, non su vera comprensione.

    Per questo motivo sarebbe più opportuno parlare di “comunicazione artificiale”, indubbiamente molto efficace ma comunque non “intelligente”. Un Large Language Model non ha conoscenza e consapevolezza del contenuto e del contesto a cui si riferisce. Siamo noi a interpretare come coerenti, significative e soprattutto pensate le risposte dei LLM, ma si tratta di un’illusione percettiva.

    Emily Menon Bender – nota linguista americana, professoressa e direttrice del Laboratorio di Linguistica Computazionale presso l’Università di Washinton – sottolinea come i LLM non sono altro che “modelli statistici per la distribuzione delle forme delle parole in un testo, impostati per produrre sequenze dal suono plausibile, la cui percezione è condizionata dalla nostra competenza linguistica”, ovvero proiettiamo un significato e una intenzione dove in realtà esistono solo pattern statistici.

    Mancanza di caratteristiche cognitive fondamentali

    I LLM mancano completamente di intenzioni e di una vera comprensione. Non hanno quella capacità di perseguire obiettivi che caratterizza l’intelligenza umana. Se, per esempio, diciamo a qualsiasi chatbot o software di AI Generativa che ha sbagliato, lo ammette immediatamente e cambia strada senza ribattere. Al contrario l’essere umano, invece, è naturalmente portato a voler perseguire ciò in cui crede e ha dichiarato, anche di fronte a repliche e contraddizioni.

    Questa mancanza di quella che potremmo definire “testardaggine” o “resistenza” alle critiche non è un difetto tecnico, ma la conferma delle assenze fondamentali. In primo luogo non hanno obiettivi intrinseci, anche se possono essere stimolati a produrre testi che sembrino convincentemente motivati da essi.

    Inoltre non sono dotati di una vera comprensione. Un recente sondaggio ha esaminato le prestazioni dei modelli su un’ampia gamma, confermandone le crescenti e indiscusse capacità, tra cui comprensione e ragionamento, ma evidenziando anche che i LLM continuano a presentare capacità limitate nel ragionamento astratto e a essere inclini a confusione o errori in contesti complessi, oltre a presentare la forte tendenza a ripetere gli schemi osservati nei dati di addestramento.

    Un LLM, anche se avanzato, manca anche di interazione fisica e sensoriale diretta con il mondo; una incapacità che ne inficia ulteriormente le capacità di comprensione.

    Inoltre nessun LLM potrà mai essere davvero empatico come l’essere umano. È possibile simulare l’empatia, ma senza coscienza e vera contestualizzazione rimane qualcosa di superficiale, poco utile perché poco autentico. Senza sottovalutare che mentre un essere umano con esperienza in un campo specifico può “leggere tra le righe” e quindi cogliere sfumature e contraddizioni implicite, un LLM si limita a produrre risposte statisticamente plausibili basate sui pattern che ha memorizzato.

    Verso una terminologia più precisa (e utile)

    In questa direzione, i Large Language Model sono quindi certamente acceleratori di produttività in grado di fornire un prezioso supporto in termini di velocità, meno (o molto meno in alcuni casi) di qualità o accuratezza dal momento che, senza la supervisione critica umana, possono produrre contenuti plausibili ma errati, perpetuando bias e disinformazione anche su ampia scala.

    È quindi importante che quello che oggi chiamiamo ormai indistintamente “intelligenza artificiale” sia più accuratamente definita come “comunicazione artificiale”: sistemi molto efficaci di generazione di testi e risposte coerenti, linguisticamente pertinenti ma privi di intelligenza, almeno nel senso tradizionale del termine.

    Va infine aggiunto che questa precisazione terminologica non sminuisce il valore di questa tecnologia bensì aiuta a valutarli e approcciarli in modo più consapevole. Riconoscere questa distinzione è il primo passo per un suo utilizzo maggiormente maturo ed efficace, evitando sia l’entusiasmo acritico che la critica semplicistica.

    di Mirko Gubian, Global Demand Senior Manager & Partner di Axiante

    Axiante intelligenza arificiale (AI) LLM Mirko Gubian
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Sanzioni del Garante: considerarle una bussola strategica è la chiave

    24/10/2025

    Le PMI europee non sanno proteggersi: è allarme cybersecurity

    24/10/2025

    Palantir e Snowflake insieme per ottimizzare la gestione dei dati

    24/10/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Modula: l’automazione che rivoluziona la logistica industriale
    La cybersecurity spinge il business
    L’AI è vietata in azienda?
    Il cloud introduce ulteriore complessità nella cybersecurity: focus sulle identità
    Synology CC400W: abbiamo testato la telecamera di sicurezza con AI integrata e connettività Wi-Fi
    Defence Tech

    Le PMI europee non sanno proteggersi: è allarme cybersecurity

    24/10/2025

    Cybersecurity: è tempo di revisionare le strategie di difesa

    23/10/2025

    Infrastrutture critiche: è tempo di prepararsi alle nuove sfide per la sicurezza

    22/10/2025

    Storage Enterprise: 5 “mission impossible” superate da Infinidat

    22/10/2025
    Report

    Il settore tecnologico è davvero inclusivo?

    23/10/2025

    Digital Defense Report 2025: attacchi ed attaccanti si evolvono

    20/10/2025

    Il Rapporto OAD 2025 di AIPSI è online

    20/10/2025

    Wolters Kluwer anticipa il futuro della professione contabile e fiscale

    17/10/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.