• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • I Data Steward hanno sempre più un ruolo cruciale
    • Answear.com ottimizza la pianificazione con Oracle Cloud
    • Intelligenza Artificiale: progetti di successo con l’approccio bimodale
    • Sicurezza Digitale: una priorità che non può e non deve essere ignorata
    • Nxtra sceglie Vertiv per il primo data center in Nigeria
    • Mezzogiorno e data center: un potenziale di investimento inespresso
    • Dynatrace e ServiceNow rafforzano la collaborazione strategica per sostenere operazioni IT autonome
    • Endpoint Privilege Security: non più un lusso, ma una necessità
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Gli Agenti AI sviluppano convenzioni linguistiche spontanee. La conferma da uno studio rivoluzionario

    Gli Agenti AI sviluppano convenzioni linguistiche spontanee. La conferma da uno studio rivoluzionario

    By Redazione LineaEDP16/05/2025Updated:16/05/20254 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    I risultati di uno studio dimostrano che gli agenti AI sono in grado di definire spontaneamente le proprie regole sociali senza l’aiuto dell’uomo

    Agenti-AI

    Uno studio innovativo, realizzato da City St George University, University of London e IT University of Copenhagen, dimostra che quando agenti AI, basati su modelli linguistici di grandi dimensioni (LLM), comunicano tra loro, non si limitano a seguire script o ripetere schemi, ma si organizzano spontaneamente per raggiungere il consenso sulle norme linguistiche in modo molto simile alle comunità umane. Gli LLM sono algoritmi di apprendimento molto potenti, in grado di comprendere e generare il linguaggio umano: il più famoso è ChatGPT.

    “Fino a oggi la maggior parte delle ricerche ha esaminato gli LLM in modo isolato“, ha affermato Ariel Flint Ashery della City St George University, “ma nel mondo reale i sistemi di IA coinvolgeranno sempre più spesso agenti che interagiscono tra loro. Noi volevamo sapere se questi agenti AI riescono a coordinare il loro comportamento per formare delle convenzioni sociali, gli elementi costitutivi di una società: la risposta è positiva, e quello che fanno in gruppo non può essere paragonato a quello che fanno da soli“.

    Le fasi dello studio sugli Agenti AI

    Per raggiungere l’obiettivo, i ricercatori hanno adattato un classico quadro di riferimento per lo studio delle convenzioni sociali negli esseri umani, chiamato “naming game” o gioco dei nomi. Nei test, due agenti LLM – all’interno di gruppi da 24 a 200 individui – venivano accoppiati in modo casuale, e invitati a selezionare un “nome” (ad esempio, una lettera dell’alfabeto o una stringa casuale di caratteri) da una lista condivisa. Se entrambi sceglievano lo stesso nome venivano ricompensati, mentre in caso contrario venivano penalizzati e gli venivano mostrate le scelte dell’altro agente.
    Gli agenti AI avevano accesso solo a una memoria limitata delle loro interazioni recenti e non a quella dell’intera popolazione, e non sapevano di appartenere a un gruppo. Nel corso di diverse interazioni di questo tipo, è emersa spontaneamente una convenzione di denominazione condivisa tra la popolazione, senza nessun coordinamento centrale o soluzione predefinita, secondo lo stesso meccanismo con cui le norme si sviluppano dal basso nelle culture umane. Ancora più sorprendente è il fatto che il team abbia rilevato tendenze collettive che non possono essere attribuite a dei singoli agenti.

    Agenti-AI“I pregiudizi di scelta (o “bias”, in inglese) non sempre provengono dall’interno“, ha spiegato Andrea Baronchelli, professore di Scienze della Complessità presso la City St George University. “Siamo rimasti sorpresi nel vedere che possono emergere dalle interazioni tra gli agenti. Questo è un punto ignorato dalla maggior parte dei lavori attuali sulla sicurezza dell’IA, che si concentrano sui singoli modelli“.

    Nel test finale, lo studio ha dimostrato la fragilità di queste norme emergenti, dato che piccoli gruppi di agenti di IA ben motivati possono spingere tutto il gruppo verso una nuova convenzione di denominazione, riproducendo i ben noti effetti di punto di svolta o di “massa critica” delle società umane.

    I risultati dello studio sono stati confermati dall’uso di quattro diversi tipi di LLM: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct e Claude-3.5-Sonnet.

    Si aprono nuovi orizzonti sulla sicurezza dell’AI

    Con la crescente diffusione degli LLM negli ambienti online, dai social media ai veicoli autonomi, lo studio è un punto di partenza per esplorare ulteriormente le convergenze e le divergenze tra il ragionamento umano e quello dell’IA, con l’obiettivo di combattere alcuni dei pericoli etici più urgenti legati alla diffusione di pregiudizi radicati nella società da parte degli LLM, con conseguenze negative sui gruppi emarginati.

    Il professor Andrea Baronchelli ha concluso: “Lo studio apre nuovi orizzonti per la ricerca sulla sicurezza dell’IA, e dimostra la complessità delle implicazioni di questa nuova generazione di agenti AI che interagiscono con gli esseri umani e contribuiranno a plasmare il nostro futuro. La comprensione del loro funzionamento è fondamentale per guidare la nostra convivenza con l’IA, e per impedire di esserne soggetti. Stiamo entrando in un mondo in cui l’IA non si limita a parlare ma negozia, e condivide o discute dei comportamenti condivisi, proprio come fanno gli umani“.

    Lo studio peer-reviewed, intitolato “Emergent Social Conventions and Collective Bias in LLM Populations“, è stato pubblicato sulla rivista Science Advances.
    Il professor Andrea Baronchelli è un esperto di livello mondiale nel campo delle convenzioni sociali, che studia da vent’anni. Il suo lavoro innovativo include l’ormai standard naming game framework, ed esperimenti di laboratorio che dimostrano come gli esseri umani creino spontaneamente delle convenzioni senza la presenza di un’autorità centrale, e come tali convenzioni possano essere ribaltate da piccoli gruppi molto determinati.

    Agenti AI intelligenza artificiale (AI) LLM ricerche
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    I Data Steward hanno sempre più un ruolo cruciale

    29/10/2025

    Answear.com ottimizza la pianificazione con Oracle Cloud

    29/10/2025

    Intelligenza Artificiale: progetti di successo con l’approccio bimodale

    29/10/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Networking: il software al centro
    Modula: l’automazione che rivoluziona la logistica industriale
    La cybersecurity spinge il business
    L’AI è vietata in azienda?
    Il cloud introduce ulteriore complessità nella cybersecurity: focus sulle identità
    Defence Tech

    Sicurezza Digitale: una priorità che non può e non deve essere ignorata

    29/10/2025

    Endpoint Privilege Security: non più un lusso, ma una necessità

    28/10/2025

    Attacchi potenziati dall’IA: le difese aziendali arrancano

    28/10/2025

    Cybersecurity industriale: criticità strutturali che espongono ad attacchi informatici

    27/10/2025
    Report

    Il settore tecnologico è davvero inclusivo?

    23/10/2025

    Digital Defense Report 2025: attacchi ed attaccanti si evolvono

    20/10/2025

    Il Rapporto OAD 2025 di AIPSI è online

    20/10/2025

    Wolters Kluwer anticipa il futuro della professione contabile e fiscale

    17/10/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.