• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • CrowdStrike Falcon Adversary Intelligence: la threat intelligence operativa diventa personalizzata
    • Il settore energy e il grande potenziale dell’Intelligenza Artificiale
    • Resilienza delle reti OT/IoT: Nozomi Networks analizza i trend del 2025
    • LLM: ecco perché è più giusto parlare di “comunicazione artificiale”
    • La Cyber Immunity guida la trasformazione della cybersecurity
    • Digital Realty costruirà a Roma un nuovo data center
    • L’osservabilità è il fondamento della resilienza digitale
    • Vibe coding: democratizzazione del DevOps o rischio di nuove minacce?
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Featured»LLM: ecco perché è più giusto parlare di “comunicazione artificiale”

    LLM: ecco perché è più giusto parlare di “comunicazione artificiale”

    By Redazione LineaEDP04/09/20255 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Nell’articolo di Mirko Gubian di Axiante chiarisce il funzionamento dei LLM e spiega perché è un errore definirli “intelligenti”

    LLM

    Mentre l’intelligenza artificiale continua a suscitare entusiasmo per le sue straordinarie potenzialità, il dibattito sta evolvendo verso analisi più mature e approfondite.
    In questo contesto, Mirko Gubian, Global Demand Senior Manager & Partner di Axiante, affronta una questione fondamentale: quando parliamo di Large Language Model (LLM), stiamo realmente parlando di una tecnologia intelligente? Una riflessione con implicazioni non puramente terminologiche ma anche pratiche.

    Buona lettura!

    Large Language Model, siamo sicuri che siano intelligenti?

    L’intelligenza artificiale continua a raccogliere adesioni entusiastiche, ma emergono in maniera crescente anche analisi più critiche e ponderate. Se inizialmente l’attenzione si concentrava principalmente sulle potenzialità rivoluzionarie di queste tecnologie, a ciò oggi si affiancano riflessioni più mature. In questo contesto ci si pone sempre più una domanda fondamentale: quello che chiamiamo “intelligenza artificiale” è davvero intelligente?

    Questo quesito si fa strada soprattutto quando parliamo di Large Language Model (LLM), una delle soluzioni che sta maggiormente alimentando il dibattito sulla differenza tra “comunicazione artificiale” e “intelligenza artificiale”.

    Ben poco artificiali, non intelligenti

    Iniziamo con il dire che i LLM non sono completamente “artificiali”, almeno nel senso tradizionale del termine. La loro “conoscenza” ha infatti origini non artificiali dal momento che proviene dalla mole di dati con cui sono stati addestrati; dati raccolti dal web e altre fonti create da esseri umani. Pertanto in senso stretto si tratta più di una forma sofisticata di riciclaggio informativo, non di creazioni originali.

    Ma soprattutto sono essenzialmente sistemi per creare risposte, frasi, testi combinando le parole che statisticamente è più probabile che si presentino insieme, che si combinino fra loro. Gli analisti più critici definiscono queste soluzioni “pappagalli stocastici” perché, osservando le parole presenti per esempio in una domanda, aggiungono quelle successive in quanto le più probabili, non perché frutto di un ragionamento, di un pensiero vero e proprio.

    Modelli statistici e illusione percettiva

    Indubbiamente i LLM sono straordinari nella loro capacità di generare testi coerenti e “apparentemente” sensati, capacità, peraltro, in continua evoluzione. Ma questa abilità nasce da un processo puramente statistico. In altre parole sono tecnologie per generare testi basati su asset statistici, non su vera comprensione.

    Per questo motivo sarebbe più opportuno parlare di “comunicazione artificiale”, indubbiamente molto efficace ma comunque non “intelligente”. Un Large Language Model non ha conoscenza e consapevolezza del contenuto e del contesto a cui si riferisce. Siamo noi a interpretare come coerenti, significative e soprattutto pensate le risposte dei LLM, ma si tratta di un’illusione percettiva.

    Emily Menon Bender – nota linguista americana, professoressa e direttrice del Laboratorio di Linguistica Computazionale presso l’Università di Washinton – sottolinea come i LLM non sono altro che “modelli statistici per la distribuzione delle forme delle parole in un testo, impostati per produrre sequenze dal suono plausibile, la cui percezione è condizionata dalla nostra competenza linguistica”, ovvero proiettiamo un significato e una intenzione dove in realtà esistono solo pattern statistici.

    Mancanza di caratteristiche cognitive fondamentali

    I LLM mancano completamente di intenzioni e di una vera comprensione. Non hanno quella capacità di perseguire obiettivi che caratterizza l’intelligenza umana. Se, per esempio, diciamo a qualsiasi chatbot o software di AI Generativa che ha sbagliato, lo ammette immediatamente e cambia strada senza ribattere. Al contrario l’essere umano, invece, è naturalmente portato a voler perseguire ciò in cui crede e ha dichiarato, anche di fronte a repliche e contraddizioni.

    Questa mancanza di quella che potremmo definire “testardaggine” o “resistenza” alle critiche non è un difetto tecnico, ma la conferma delle assenze fondamentali. In primo luogo non hanno obiettivi intrinseci, anche se possono essere stimolati a produrre testi che sembrino convincentemente motivati da essi.

    Inoltre non sono dotati di una vera comprensione. Un recente sondaggio ha esaminato le prestazioni dei modelli su un’ampia gamma, confermandone le crescenti e indiscusse capacità, tra cui comprensione e ragionamento, ma evidenziando anche che i LLM continuano a presentare capacità limitate nel ragionamento astratto e a essere inclini a confusione o errori in contesti complessi, oltre a presentare la forte tendenza a ripetere gli schemi osservati nei dati di addestramento.

    Un LLM, anche se avanzato, manca anche di interazione fisica e sensoriale diretta con il mondo; una incapacità che ne inficia ulteriormente le capacità di comprensione.

    Inoltre nessun LLM potrà mai essere davvero empatico come l’essere umano. È possibile simulare l’empatia, ma senza coscienza e vera contestualizzazione rimane qualcosa di superficiale, poco utile perché poco autentico. Senza sottovalutare che mentre un essere umano con esperienza in un campo specifico può “leggere tra le righe” e quindi cogliere sfumature e contraddizioni implicite, un LLM si limita a produrre risposte statisticamente plausibili basate sui pattern che ha memorizzato.

    Verso una terminologia più precisa (e utile)

    In questa direzione, i Large Language Model sono quindi certamente acceleratori di produttività in grado di fornire un prezioso supporto in termini di velocità, meno (o molto meno in alcuni casi) di qualità o accuratezza dal momento che, senza la supervisione critica umana, possono produrre contenuti plausibili ma errati, perpetuando bias e disinformazione anche su ampia scala.

    È quindi importante che quello che oggi chiamiamo ormai indistintamente “intelligenza artificiale” sia più accuratamente definita come “comunicazione artificiale”: sistemi molto efficaci di generazione di testi e risposte coerenti, linguisticamente pertinenti ma privi di intelligenza, almeno nel senso tradizionale del termine.

    Va infine aggiunto che questa precisazione terminologica non sminuisce il valore di questa tecnologia bensì aiuta a valutarli e approcciarli in modo più consapevole. Riconoscere questa distinzione è il primo passo per un suo utilizzo maggiormente maturo ed efficace, evitando sia l’entusiasmo acritico che la critica semplicistica.

    di Mirko Gubian, Global Demand Senior Manager & Partner di Axiante

    Axiante intelligenza arificiale (AI) LLM Mirko Gubian
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    La Cyber Immunity guida la trasformazione della cybersecurity

    04/09/2025

    Digital Realty costruirà a Roma un nuovo data center

    04/09/2025

    L’osservabilità è il fondamento della resilienza digitale

    03/09/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Defence Tech

    CrowdStrike Falcon Adversary Intelligence: la threat intelligence operativa diventa personalizzata

    04/09/2025

    Resilienza delle reti OT/IoT: Nozomi Networks analizza i trend del 2025

    04/09/2025

    La Cyber Immunity guida la trasformazione della cybersecurity

    04/09/2025

    ASPM: Palo Alto annuncia un nuovo modulo di sicurezza orientato alla prevenzione

    03/09/2025
    Report

    Il settore energy e il grande potenziale dell’Intelligenza Artificiale

    04/09/2025

    AI sempre più presente nelle aziende italiane

    03/09/2025

    IA Generativa sempre più presente nel settore finanziario

    02/09/2025

    L’innovazione premia: +2,4% di rendimento annuo per le aziende più avanzate

    27/08/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.