• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Imprese italiane e l’evoluzione delle minacce informatiche
    • L’Iran e le operazioni cyber che minacciano il mondo
    • Frodi AI: una nuova minaccia per i sistemi finanziari
    • Wealth Management: è l’AI la chiave per il futuro
    • Zero Trust: l’approccio che riduce le perdite da incidenti cyber
    • Data Center in Italia: il commento di Intred
    • Efficienza nei processi di vendita: migliorare le performance senza aumentare il budget
    • Oracle Red Bull Racing adotta la suite Oracle Fusion Cloud
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Rubriche»Sicurezza»Deepfake nuove armi di inganno di massa

    Deepfake nuove armi di inganno di massa

    By Redazione LineaEDP14/09/20234 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Paolo Cecchi, Regional Sales Director di SentinelOne, spiega come i deepfake possono influenzare le comunicazioni politico-istituzionali

    deepfake

    Nel contributo che vi proponiamo qui di seguito, Paolo Cecchi, Regional Sales Director di SentinelOne, spiega come i deepfake possono influenzare le comunicazioni di taglio istituzionale-politico.
    Buona lettura.

    Salvidor Dalì è morto il 23 gennaio 1989, molti anni prima dell’avvento dei social media, molto prima che la parola “deepfake” entrasse nei vocabolari e prima ancora che la Russia imparasse a manipolare i contenuti online di un’elezione presidenziale piuttosto dibattuta.

    Ma Salvator Dali è tuttora presente. Chi non conoscesse il contesto o gli aspetti della sua vita e la sua storia, potrebbe concludere, dopo aver visto questo video, che è molto più vivo e reale di alcune delle sue opere artistiche.

    Questo è il punto.
    Lo scorso maggio Public Citizen, un gruppo di attivisti apartitici, ha presentato alla Commissione elettorale federale degli Stati Uniti una petizione per bloccare gli annunci elettorali deliberatamente ingannevoli.

    Tutto questo perché gli straordinari progressi degli strumenti di ‘Artificial Intelligence’ (AI) oggi forniscono agli esponenti politici i mezzi per produrre annunci elettorali con immagini false di candidati generate al computer incredibilmente realistiche al fine di rappresentare negativamente i candidati stessi.

    In questo caso non si parla dell’uso dell’Artificial Intelligence che ne fa il cinema per creare effetti speciali, ambientazioni futuristiche o scenari disastrosi, ma l’approccio con cui viene sfruttata l’AI in politica è del tutto diverso.

    Cosa c’entra tutto questo con le questioni politiche e i deepfake? Tutto

    Una narrazione necessita di ingredienti avvincenti che la ancori nella mente del pubblico di riferimento. Nei film si tratta di intrattenimento e proiezione della realtà. In politica… anche. Un’immagine, un clip audio o un video sono espedienti utilizzati per essere credibili e rimanere impressi nella memoria delle persone. In questo contesto, il progresso dell’AI ha fatto passi da gigante, sfruttando la natura positiva del suo utilizzo, purtroppo, anche per scopi negativi.

    Per essere efficace, l’AI ha bisogno di contenuti su cui essere istruita tramite machine learning. Maggiori sono i contenuti, migliore è la capacità dell’AI di raggiungere i risultati previsti. Supponendo che l’obiettivo sia la manipolazione del comportamento umano e il cambiamento di convinzioni precedentemente sostenute, l’enorme quantità di audio, video e immagini che sono disponibili nella sfera politica rappresentano un ottimo punto di partenza.

    La storia insegna che le bugie si diffondono molto più facilmente della verità e sono molto più difficili da rettificare. Nella mente umana, ciò che viene percepito corrisponde al reale ed è molto più difficile cambiare la percezione iniziale una volta che questa si è insediata.

    È un concetto molto attinente a quello della deception

    Questo fenomeno ha generato un importante dilemma legale e tecnico. Come si riesce a sapere con certezza se il video visualizzato è un deepfake? Come si fa a dimostrare che un fatto non è avvenuto? Ma la domanda più spinosa è: come è possibile provare definitivamente che qualcosa è falso?

    Durante le elezioni del 2016, la campagna di disinformazione della Russia è stata condotta tramite la Internet Research Agency – IRA – e ha prodotto uno dei migliori ritorni dell’investimento per l’interferenza politica. Poco più di 100.000 dollari hanno fornito una costante manipolazione dei social media che ha prodotto un risultato almeno cento volte superiore.

    Nel 2023, l’AI si è spinta ben oltre la capacità umana di identificare rapidamente un output ingannevole (un’immagine, un video o una voce), creando una condizione in cui la facoltà di ancorare nelle menti degli elettori una percezione intenzionalmente falsa e di ignorare la verità, potrà essere considerata come la migliore arma politica.

    I deepfake sono le nuove armi di inganno di massa. L’impatto più significativo dei video deepfake non è il fatto che sono falsi, ma, piuttosto, che l’inganno creato continua ad esistere anche dopo che la verità è stata scoperta: un potente strumento nelle mani dei nostri avversari.

    Come scrisse Jonathan Swift, autore di “I viaggi di Gulliver”: “La falsità vola e la verità la segue zoppicando, cosicché, quando gli uomini vogliono essere disingannati, è troppo tardi; lo scherzo si è concluso e la messinscena ha avuto il suo effetto“.

    Spazio alla AI buona, fatta per creare

    Un modo per sconfiggere l’AI che è stata istruita per fare del male è attraverso l’utilizzo di un’AI addestrata a produrre del bene. Non si può cedere il campo di battaglia digitale agli avversari limitando la capacità delle persone buone di creare e innovare.

    Le elezioni hanno le loro conseguenze. Tuttavia, le conseguenze devono essere scelte e create dai singoli elettori, non dovrebbero mai essere il risultato dell’interferenza degli avversari politici.

    Le circostanze attuali sono ottimali per dichiarazioni e affermazioni politiche ingannevoli che utilizzeranno l’AI e i deepfake durante le prossime elezioni in tutto il mondo. L’AI come “forza del bene” è uno dei migliori alleati che abbiamo per fidarci di ciò che vediamo e sentiamo.

    AI Deepfake ML Paolo Cecchi Salvidor Dalì Lives SentinelOne
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Imprese italiane e l’evoluzione delle minacce informatiche

    30/06/2025

    L’Iran e le operazioni cyber che minacciano il mondo

    30/06/2025

    Frodi AI: una nuova minaccia per i sistemi finanziari

    30/06/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    ExpertBook P5, il notebook con l’AI integrata
    La tua fabbrica è resiliente?
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Defence Tech

    Imprese italiane e l’evoluzione delle minacce informatiche

    30/06/2025

    L’Iran e le operazioni cyber che minacciano il mondo

    30/06/2025

    Frodi AI: una nuova minaccia per i sistemi finanziari

    30/06/2025

    Zero Trust: l’approccio che riduce le perdite da incidenti cyber

    30/06/2025
    Report

    Intelligenza Artificiale al centro delle operazioni IT

    27/06/2025

    Data Center in Italia in espansione, ma non sottovalutiamo le sfide

    24/06/2025

    IA quantistica: la nuova rivoluzione dell’Intelligenza Artificiale

    19/06/2025

    PMI: l’adozione dell’IA è “work in progress”

    19/06/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.