• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Sangfor pronta con un nuovo brand per l’International Roadshow 2025
    • DORA: il settore finanziario è davvero pronto alla compliance?
    • Data Center: una gestione più sostenibile è possibile
    • Cybersecurity aziendale minacciata dagli asset non gestiti
    • Google Cloud: tante novità per la trasformazione digitale delle aziende
    • Retelit e Microsoft: connessione ridondata e più resilienza su Azure
    • Sicurezza digitale in Italia: crescono attacchi DDoS e Ransomaware
    • Okta: progetti ambiziosi per emergere nel mercato italiano
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»News»Un’intelligenza artificiale, perché?

    Un’intelligenza artificiale, perché?

    By Redazione LineaEDP13/12/20224 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    La discussione etica sull’intelligenza artificiale è più che mai necessaria oggi che siamo alle porte della prima legge europea in materia

    intelligenza-artificiale AI

    La discussione etica sull’intelligenza artificiale è più che mai necessaria oggi che siamo alle porte della prima legge europea in materia. Interrogarsi criticamente sull’IA, sulle sue potenzialità e sulle sue sfide, significa indagare il funzionamento, le sfumature, i limiti, le complessità e le contraddizioni del pensiero umano. Significa discutere della tecnologia che sta influenzando maggiormente il nostro presente e il nostro futuro. E significa, in fin dei conti, discutere del futuro che vogliamo costruire.

    Il futuro regolamento europeo, l’AI Act, attualmente in discussione a Bruxelles, è stato preceduto da numerosi codici di autoregolamentazione, linee guida di buone pratiche, libri bianchi, ecc. Già nel 2020, l’AI Ethics Guidelines Global Index ha identificato 160 proposte di principi etici. Anche l’Italia ha compiuto progressi significativi con il Programma strategico per l’intelligenza artificiale, che prevede 24 politiche da attuare nei prossimi tre anni per rafforzare il sistema nel Paese.

    Tutte queste linee guida, raccomandazioni e codici di autoregolamentazione sono necessarie e utili, anche se un’eccessiva proliferazione può portare a problemi di ridondanza e confusione. Luciano Floridi ha riassunto le diverse proposte in cinque principi: (i) la beneficenza, intesa come orientamento dei sistemi a promuovere il benessere, preservare la dignità e preservare il pianeta; (ii) la non-maleficenza, attraverso il rispetto della privacy e della sicurezza; (iii) l’autonomia decisionale (senza dimenticare, in ogni caso, che la nostra IA “debole” avrebbe solo un’autonomia programmata o delegata nelle sue decisioni; e non godrebbe, quindi, di una piena agency morale); (iv) l’equità, articolata su prosperità, solidarietà e non iniquità, che comprende l’imparzialità o l’assenza di pregiudizi e preconcetti che possano portare l’algoritmo a prendere decisioni ingiuste; e (v) l’”esplicabilità”, intesa come trasparenza del processo interno che gli algoritmi seguono per l’elaborazione dei dati, l’identificazione dei modelli e il processo decisionale.

    Floridi traccia così un quadro sintetico di principi che sono attraversati da due domande chiave, la prima delle quali è “un’intelligenza artificiale, perché?”; “a quale scopo?”. La questione della finalità dei sistemi è spesso trascurata, poiché si presuppongono vantaggi economici e politici che offuscano qualsiasi altra considerazione, distogliendo l’attenzione da altri usi orientati al bene comune che vanno oltre l’interesse commerciale, la riduzione dei costi o il miglioramento della sicurezza.

    La questione dello scopo sarebbe seguita da un’altra domanda, non meno importante: si tratta di un sistema il cui uso è per il bene comune? Non mancano esempi di sistemi progettati per uno scopo lodevole, ma utilizzati in modo iniquo o potenzialmente pericoloso. Microsoft, ad esempio, ha appena annunciato limitazioni all’uso del suo strumento Custom Neural Voice, che è in grado di imitare una voce da un discorso registrato. Lo strumento ha un grande potenziale, ma ci sono anche evidenti rischi di uso fraudolento.

    I cinque principi riassunti da Floridi costituiscono senza dubbio una solida base per la regolamentazione della materia. Tuttavia, ci si potrebbe chiedere se questi principi – tutti nati nelle istituzioni occidentali, tra l’altro – siano validi in tutti i tempi e in tutti i luoghi; e se l’analisi etica dei sistemi di IA non possa essere arricchita guardando all’esterno dei sistemi, tenendo conto anche del contesto in cui i sistemi vengono progettati, implementati e valutati. E questo nella misura in cui la nostra intelligenza artificiale costruisce l’ordine sociale, ma è anche, allo stesso tempo, una conseguenza dell’ordine sociale in cui nasce: è madre e figlia del quadro materiale e ideologico in cui è concepita e opera.

    Infatti, per alcuni autori come la ricercatrice ed esperta di IA etica Lorena Jaume-Palasí, la creazione di principi orizzontali, validi per tutti i settori e senza tenere conto dei contesti particolari dei sistemi, non sono altro che iniziative di facciata. Come se dovessimo creare, spiega Jaume-Palasí, delle regole per le statistiche che siano utili a un ginecologo come a un militare… solo che non ci basiamo sulle statistiche della nostra cartella clinica e diciamo al nostro banchiere di interpretarle per noi.

    Non si tratta di cadere nel relativismo, ma di arricchire la valutazione dell’“esplicabilità”, dell’autonomia o dell’imparzialità dei nostri sistemi con uno sguardo al contesto in cui gli algoritmi sono stati progettati e che hanno contribuito a plasmare. Un’interrogazione critica proiettata verso l’interno e verso l’esterno dell’algoritmo per cementare la base etica che sostiene la necessaria regolamentazione della materia e guida la governance della sua applicazione.

     

    di Pedro Garcia, Amministratore Delegato di Minsait in Italia

    intelligenza artificiale Minsait
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Sangfor pronta con un nuovo brand per l’International Roadshow 2025

    13/06/2025

    DORA: il settore finanziario è davvero pronto alla compliance?

    13/06/2025

    Data Center: una gestione più sostenibile è possibile

    13/06/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Legrand Data Center al Data Center Nation per parlare del data center del futuro!
    Snom: focus su tecnologia e partner
    Cumulabilità Transizione 5.0 e ZES: i vantaggi del Litio
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    Defence Tech

    Cybersecurity aziendale minacciata dagli asset non gestiti

    13/06/2025

    Sicurezza digitale in Italia: crescono attacchi DDoS e Ransomaware

    13/06/2025

    Okta: progetti ambiziosi per emergere nel mercato italiano

    12/06/2025

    Infostealer: Kaspersky e INTERPOL collaborano alla Secure Operation

    12/06/2025
    Report

    Cybersecurity: le previsioni di Deloitte

    10/06/2025

    Red Hat rivela il futuro della virtualizzazione: innovazione e agilità per le aziende

    06/06/2025

    Sviluppatori entusiasti e ottimisti sull’AI agentica

    04/06/2025

    Intelligenza Artificiale: non tutte le aziende sono pronte

    30/05/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.