• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Customer Data Platform: crescita record nel 2024 (+13%)
    • Il settore automotive è e sarà sempre più AI-oriented
    • Protect AI farà presto parte di Palo Alto Network
    • Attacchi informatici: sicurezza nazionale compromessa dagli APT
    • Il Print Management secondo Brother
    • SAS Viya si aggiorna per una produttività senza precedenti
    • Infrastrutture e workload: come riconfigurarli a causa dell’impatto dell’AI?
    • Nutanix e Pure Storage creano una nuova soluzione integrata
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Rubriche»Sicurezza»Deepfake nuove armi di inganno di massa

    Deepfake nuove armi di inganno di massa

    By Redazione LineaEDP14/09/20234 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Paolo Cecchi, Regional Sales Director di SentinelOne, spiega come i deepfake possono influenzare le comunicazioni politico-istituzionali

    deepfake

    Nel contributo che vi proponiamo qui di seguito, Paolo Cecchi, Regional Sales Director di SentinelOne, spiega come i deepfake possono influenzare le comunicazioni di taglio istituzionale-politico.
    Buona lettura.

    Salvidor Dalì è morto il 23 gennaio 1989, molti anni prima dell’avvento dei social media, molto prima che la parola “deepfake” entrasse nei vocabolari e prima ancora che la Russia imparasse a manipolare i contenuti online di un’elezione presidenziale piuttosto dibattuta.

    Ma Salvator Dali è tuttora presente. Chi non conoscesse il contesto o gli aspetti della sua vita e la sua storia, potrebbe concludere, dopo aver visto questo video, che è molto più vivo e reale di alcune delle sue opere artistiche.

    Questo è il punto.
    Lo scorso maggio Public Citizen, un gruppo di attivisti apartitici, ha presentato alla Commissione elettorale federale degli Stati Uniti una petizione per bloccare gli annunci elettorali deliberatamente ingannevoli.

    Tutto questo perché gli straordinari progressi degli strumenti di ‘Artificial Intelligence’ (AI) oggi forniscono agli esponenti politici i mezzi per produrre annunci elettorali con immagini false di candidati generate al computer incredibilmente realistiche al fine di rappresentare negativamente i candidati stessi.

    In questo caso non si parla dell’uso dell’Artificial Intelligence che ne fa il cinema per creare effetti speciali, ambientazioni futuristiche o scenari disastrosi, ma l’approccio con cui viene sfruttata l’AI in politica è del tutto diverso.

    Cosa c’entra tutto questo con le questioni politiche e i deepfake? Tutto

    Una narrazione necessita di ingredienti avvincenti che la ancori nella mente del pubblico di riferimento. Nei film si tratta di intrattenimento e proiezione della realtà. In politica… anche. Un’immagine, un clip audio o un video sono espedienti utilizzati per essere credibili e rimanere impressi nella memoria delle persone. In questo contesto, il progresso dell’AI ha fatto passi da gigante, sfruttando la natura positiva del suo utilizzo, purtroppo, anche per scopi negativi.

    Per essere efficace, l’AI ha bisogno di contenuti su cui essere istruita tramite machine learning. Maggiori sono i contenuti, migliore è la capacità dell’AI di raggiungere i risultati previsti. Supponendo che l’obiettivo sia la manipolazione del comportamento umano e il cambiamento di convinzioni precedentemente sostenute, l’enorme quantità di audio, video e immagini che sono disponibili nella sfera politica rappresentano un ottimo punto di partenza.

    La storia insegna che le bugie si diffondono molto più facilmente della verità e sono molto più difficili da rettificare. Nella mente umana, ciò che viene percepito corrisponde al reale ed è molto più difficile cambiare la percezione iniziale una volta che questa si è insediata.

    È un concetto molto attinente a quello della deception

    Questo fenomeno ha generato un importante dilemma legale e tecnico. Come si riesce a sapere con certezza se il video visualizzato è un deepfake? Come si fa a dimostrare che un fatto non è avvenuto? Ma la domanda più spinosa è: come è possibile provare definitivamente che qualcosa è falso?

    Durante le elezioni del 2016, la campagna di disinformazione della Russia è stata condotta tramite la Internet Research Agency – IRA – e ha prodotto uno dei migliori ritorni dell’investimento per l’interferenza politica. Poco più di 100.000 dollari hanno fornito una costante manipolazione dei social media che ha prodotto un risultato almeno cento volte superiore.

    Nel 2023, l’AI si è spinta ben oltre la capacità umana di identificare rapidamente un output ingannevole (un’immagine, un video o una voce), creando una condizione in cui la facoltà di ancorare nelle menti degli elettori una percezione intenzionalmente falsa e di ignorare la verità, potrà essere considerata come la migliore arma politica.

    I deepfake sono le nuove armi di inganno di massa. L’impatto più significativo dei video deepfake non è il fatto che sono falsi, ma, piuttosto, che l’inganno creato continua ad esistere anche dopo che la verità è stata scoperta: un potente strumento nelle mani dei nostri avversari.

    Come scrisse Jonathan Swift, autore di “I viaggi di Gulliver”: “La falsità vola e la verità la segue zoppicando, cosicché, quando gli uomini vogliono essere disingannati, è troppo tardi; lo scherzo si è concluso e la messinscena ha avuto il suo effetto“.

    Spazio alla AI buona, fatta per creare

    Un modo per sconfiggere l’AI che è stata istruita per fare del male è attraverso l’utilizzo di un’AI addestrata a produrre del bene. Non si può cedere il campo di battaglia digitale agli avversari limitando la capacità delle persone buone di creare e innovare.

    Le elezioni hanno le loro conseguenze. Tuttavia, le conseguenze devono essere scelte e create dai singoli elettori, non dovrebbero mai essere il risultato dell’interferenza degli avversari politici.

    Le circostanze attuali sono ottimali per dichiarazioni e affermazioni politiche ingannevoli che utilizzeranno l’AI e i deepfake durante le prossime elezioni in tutto il mondo. L’AI come “forza del bene” è uno dei migliori alleati che abbiamo per fidarci di ciò che vediamo e sentiamo.

    AI Deepfake ML Paolo Cecchi Salvidor Dalì Lives SentinelOne
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Attacchi informatici: sicurezza nazionale compromessa dagli APT

    09/05/2025

    TheWizards: il gruppo APT che colpisce Asia e Medio Oriente

    08/05/2025

    Resilienza Produttiva: come rafforzarla?

    07/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Attacchi informatici: sicurezza nazionale compromessa dagli APT

    09/05/2025

    TheWizards: il gruppo APT che colpisce Asia e Medio Oriente

    08/05/2025

    Resilienza Produttiva: come rafforzarla?

    07/05/2025

    IA e rischi cyber: gli attacchi si fanno più mirati e sofisticati

    07/05/2025
    Report

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025

    IBM X-Force Threat Index 2025: vecchi e nuovi trend delle minacce cyber

    18/04/2025

    Intelligenza Artificiale e GenAI: adozione in crescita nel 2024

    10/04/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.