• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Stranger Things & cybersecurity: lezioni dagli anni ’80 alla realtà attuale
    • Nutanix supporta Microsoft Azure Virtual Desktop
    • NATO e Google Cloud siglano un accordo multimilionario per un cloud sovrano abilitato dall’AI
    • Attacchi cyber in crescita, normative in evoluzione: lo scenario italiano, europeo e globale
    • NIS2 e il test delle 24 ore: andare oltre la conformità per costruire un business resiliente
    • I Chief Data Officer (CDO) protagonisti della trasformazione
    • Prisma AIRS si arricchisce con Factory, Glean, IBM e ServiceNow
    • Cloudera potenzia l’accesso ai dati con l’AI
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Gli Agenti AI sviluppano convenzioni linguistiche spontanee. La conferma da uno studio rivoluzionario

    Gli Agenti AI sviluppano convenzioni linguistiche spontanee. La conferma da uno studio rivoluzionario

    By Redazione LineaEDP16/05/2025Updated:16/05/20254 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    I risultati di uno studio dimostrano che gli agenti AI sono in grado di definire spontaneamente le proprie regole sociali senza l’aiuto dell’uomo

    Agenti-AI

    Uno studio innovativo, realizzato da City St George University, University of London e IT University of Copenhagen, dimostra che quando agenti AI, basati su modelli linguistici di grandi dimensioni (LLM), comunicano tra loro, non si limitano a seguire script o ripetere schemi, ma si organizzano spontaneamente per raggiungere il consenso sulle norme linguistiche in modo molto simile alle comunità umane. Gli LLM sono algoritmi di apprendimento molto potenti, in grado di comprendere e generare il linguaggio umano: il più famoso è ChatGPT.

    “Fino a oggi la maggior parte delle ricerche ha esaminato gli LLM in modo isolato“, ha affermato Ariel Flint Ashery della City St George University, “ma nel mondo reale i sistemi di IA coinvolgeranno sempre più spesso agenti che interagiscono tra loro. Noi volevamo sapere se questi agenti AI riescono a coordinare il loro comportamento per formare delle convenzioni sociali, gli elementi costitutivi di una società: la risposta è positiva, e quello che fanno in gruppo non può essere paragonato a quello che fanno da soli“.

    Le fasi dello studio sugli Agenti AI

    Per raggiungere l’obiettivo, i ricercatori hanno adattato un classico quadro di riferimento per lo studio delle convenzioni sociali negli esseri umani, chiamato “naming game” o gioco dei nomi. Nei test, due agenti LLM – all’interno di gruppi da 24 a 200 individui – venivano accoppiati in modo casuale, e invitati a selezionare un “nome” (ad esempio, una lettera dell’alfabeto o una stringa casuale di caratteri) da una lista condivisa. Se entrambi sceglievano lo stesso nome venivano ricompensati, mentre in caso contrario venivano penalizzati e gli venivano mostrate le scelte dell’altro agente.
    Gli agenti AI avevano accesso solo a una memoria limitata delle loro interazioni recenti e non a quella dell’intera popolazione, e non sapevano di appartenere a un gruppo. Nel corso di diverse interazioni di questo tipo, è emersa spontaneamente una convenzione di denominazione condivisa tra la popolazione, senza nessun coordinamento centrale o soluzione predefinita, secondo lo stesso meccanismo con cui le norme si sviluppano dal basso nelle culture umane. Ancora più sorprendente è il fatto che il team abbia rilevato tendenze collettive che non possono essere attribuite a dei singoli agenti.

    Agenti-AI“I pregiudizi di scelta (o “bias”, in inglese) non sempre provengono dall’interno“, ha spiegato Andrea Baronchelli, professore di Scienze della Complessità presso la City St George University. “Siamo rimasti sorpresi nel vedere che possono emergere dalle interazioni tra gli agenti. Questo è un punto ignorato dalla maggior parte dei lavori attuali sulla sicurezza dell’IA, che si concentrano sui singoli modelli“.

    Nel test finale, lo studio ha dimostrato la fragilità di queste norme emergenti, dato che piccoli gruppi di agenti di IA ben motivati possono spingere tutto il gruppo verso una nuova convenzione di denominazione, riproducendo i ben noti effetti di punto di svolta o di “massa critica” delle società umane.

    I risultati dello studio sono stati confermati dall’uso di quattro diversi tipi di LLM: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct e Claude-3.5-Sonnet.

    Si aprono nuovi orizzonti sulla sicurezza dell’AI

    Con la crescente diffusione degli LLM negli ambienti online, dai social media ai veicoli autonomi, lo studio è un punto di partenza per esplorare ulteriormente le convergenze e le divergenze tra il ragionamento umano e quello dell’IA, con l’obiettivo di combattere alcuni dei pericoli etici più urgenti legati alla diffusione di pregiudizi radicati nella società da parte degli LLM, con conseguenze negative sui gruppi emarginati.

    Il professor Andrea Baronchelli ha concluso: “Lo studio apre nuovi orizzonti per la ricerca sulla sicurezza dell’IA, e dimostra la complessità delle implicazioni di questa nuova generazione di agenti AI che interagiscono con gli esseri umani e contribuiranno a plasmare il nostro futuro. La comprensione del loro funzionamento è fondamentale per guidare la nostra convivenza con l’IA, e per impedire di esserne soggetti. Stiamo entrando in un mondo in cui l’IA non si limita a parlare ma negozia, e condivide o discute dei comportamenti condivisi, proprio come fanno gli umani“.

    Lo studio peer-reviewed, intitolato “Emergent Social Conventions and Collective Bias in LLM Populations“, è stato pubblicato sulla rivista Science Advances.
    Il professor Andrea Baronchelli è un esperto di livello mondiale nel campo delle convenzioni sociali, che studia da vent’anni. Il suo lavoro innovativo include l’ormai standard naming game framework, ed esperimenti di laboratorio che dimostrano come gli esseri umani creino spontaneamente delle convenzioni senza la presenza di un’autorità centrale, e come tali convenzioni possano essere ribaltate da piccoli gruppi molto determinati.

    Agenti AI intelligenza artificiale (AI) LLM ricerche
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    NATO e Google Cloud siglano un accordo multimilionario per un cloud sovrano abilitato dall’AI

    25/11/2025

    Prisma AIRS si arricchisce con Factory, Glean, IBM e ServiceNow

    24/11/2025

    Cloudera potenzia l’accesso ai dati con l’AI

    24/11/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Aikom Technology presenta la sicurezza del futuro a SICUREZZA 2025
    Non c’è produzione senza pianificazione
    Cybersecurity, tra nuove minacce e intelligenza artificiale: la visione di GCI System Integrator
    Jabra: innovazione audio e video per la collaborazione del futuro
    Dynatrace Innovate Roadshow 2025: l’intelligenza artificiale che anticipa il futuro del software
    Defence Tech

    Stranger Things & cybersecurity: lezioni dagli anni ’80 alla realtà attuale

    25/11/2025

    Attacchi cyber in crescita, normative in evoluzione: lo scenario italiano, europeo e globale

    25/11/2025

    NIS2 e il test delle 24 ore: andare oltre la conformità per costruire un business resiliente

    25/11/2025

    Prisma AIRS si arricchisce con Factory, Glean, IBM e ServiceNow

    24/11/2025
    Report

    I Chief Data Officer (CDO) protagonisti della trasformazione

    25/11/2025

    5G Standalone: l’acceleratore della connettività su misura

    21/11/2025

    L’AI nei servizi professionali secondo Compendium

    20/11/2025

    Intelligenza Artificiale: nuova alleata degli operatori del customer service

    14/11/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.