• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • NIS2: obbligatorio un esperto per gestire gli incidenti
    • Rubrik Agent Cloud consente un’implementazione sicura dell’AI
    • Sanzioni del Garante: considerarle una bussola strategica è la chiave
    • Red Hat Developer Lightspeed arriva e porta nuovi assistenti virtuali
    • Le PMI europee non sanno proteggersi: è allarme cybersecurity
    • Palantir e Snowflake insieme per ottimizzare la gestione dei dati
    • CIO e CEO diventano partner. Un’evoluzione guidata dall’AI
    • Data Management nell’era del Quantum Computing: cosa cambierà?
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Deep learning: quello di Fujitsu per l’AI ottimizza gli investimenti

    Deep learning: quello di Fujitsu per l’AI ottimizza gli investimenti

    By Redazione LineaEDP16/06/20173 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Sviluppata nei laboratori europei, la tecnologia di Fujitsu per l’Intelligenza Artificiale evita ulteriori investimenti in infrastrutture. Ecco come

    AI

    È una tecnologia di deep learning per le applicazioni di Intelligenza Artificiale in grado di superare le attuali restrizioni di memoria della GPU quella messa a punto dai laboratori europei di Fujitsu all’interno dell’iniziativa tecnologica denominata Zinrai e dedicata all’AI.

    Si tratta di un nuovo e molto efficiente meccanismo di distribuzione della memoria per i Deep Neural Networks, il cui utilizzo richiede enormi risorse computazionali, che incidono pesantemente sulle infrastrutture informatiche esistenti.

    Con la nuova soluzione il parallelismo del modello impiegato viene utilizzato per distribuire i requisiti di memoria DNN in modo automatizzato, trasparente e facilmente gestibile. Di conseguenza, la capacità delle infrastrutture esistenti nell’affrontare applicazioni AI su larga scala è notevolmente migliorata senza la necessità di ulteriori investimenti.

    L’aumento continuo dei costi di calcolo legati ai DNN è, infatti, una sfida importante per rispondere alla quale sono necessarie reti neurali più ampie e profonde, insieme a una più raffinata classificazione delle categorie, per affrontare le sfide emergenti di AI. La soluzione Fujitsu agisce proprio distribuendo i requisiti di memoria DNN su più macchine, così da ampliare le dimensioni delle reti neurali che possono essere elaborate da più macchine, consentendo lo sviluppo di modelli DNN più accurati e su larga scala.

    La nuova soluzione riesce ad ottenere questa distribuzione ottimizzata della memoria perché trasforma gli strati di reti neurali, arbitrariamente progettate, in reti equivalenti in cui alcuni o tutti i suoi strati sono sostituiti da una serie di sotto-strati più piccoli. Queste ultime sono progettate per essere funzionalmente equivalenti agli strati originali, ma sono molto più efficienti da eseguire dal punto di vista computazionale. Importante notare che, poiché gli strati originali e quelli nuovi derivano dal medesimo profilo, il processo di formazione del DNN “trasformato” converge a quello del DNN originale senza alcun costo aggiunto.

    Un nuovo meccanismo di calcolo parallelo

    I laboratori europei di Fujitsu hanno testato a lungo la nuova tecnologia, inclusa l’applicazione del nuovo meccanismo in «Caffe», un framework open source di deep learning ampiamente utilizzato dalle comunità di ricerca e sviluppo in tutto il mondo. La soluzione ha raggiunto un’efficienza di oltre il 90 per cento nella distribuzione della memoria nel momento in cui vengono trasformati gli strati completamente collegati di AlexNet su più GPU NVIDIA. Come tecnologia indipendente da hardware, ha la capacità di sfruttare la potenza computazionale di entrambe le unità di elaborazione convenzionali e di acceleratori hardware in fase di sviluppo, inclusi NVIDIA GPU, Intel Xeon Phi, FPGA, ASIC e altri, o qualsiasi altro hardware alternativo specificamente adattati per aumentare l’efficienza computazionale nel Deep Learning.

    DeeapLearning
    Figura: Utilizzando il parallelismo del modello, i requisiti aggiunti per la riallocazione della memoria DNN sono ridotti e distribuiti secondo un approccio automatizzato, trasparente e facilmente gestibile (Fonte: Fujitsu)

    Progressi che influenzano la nostra vita quotidiana

    Esempi di applicazioni per la nuova soluzione comprendono l’analisi nel settore healthcare, ad esempio la rilevazione della retinopatia diabetica, la classificazione e l’analisi delle immagini satellitari, l’elaborazione linguistica naturale dove sono necessari modelli di deep learning su larga scala per modellare e apprendere la completa complessità del linguaggio umano, dati su larga scala relativi a dispositivi IoT, transazioni finanziarie, servizi di social network e molto altro.

     

     

     

     

    AI deep learning Deep Neural Networks Fujitsu intelligenza artificiale
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Rubrik Agent Cloud consente un’implementazione sicura dell’AI

    24/10/2025

    Sanzioni del Garante: considerarle una bussola strategica è la chiave

    24/10/2025

    Red Hat Developer Lightspeed arriva e porta nuovi assistenti virtuali

    24/10/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Modula: l’automazione che rivoluziona la logistica industriale
    La cybersecurity spinge il business
    L’AI è vietata in azienda?
    Il cloud introduce ulteriore complessità nella cybersecurity: focus sulle identità
    Synology CC400W: abbiamo testato la telecamera di sicurezza con AI integrata e connettività Wi-Fi
    Defence Tech

    NIS2: obbligatorio un esperto per gestire gli incidenti

    25/10/2025

    Le PMI europee non sanno proteggersi: è allarme cybersecurity

    24/10/2025

    Cybersecurity: è tempo di revisionare le strategie di difesa

    23/10/2025

    Infrastrutture critiche: è tempo di prepararsi alle nuove sfide per la sicurezza

    22/10/2025
    Report

    Il settore tecnologico è davvero inclusivo?

    23/10/2025

    Digital Defense Report 2025: attacchi ed attaccanti si evolvono

    20/10/2025

    Il Rapporto OAD 2025 di AIPSI è online

    20/10/2025

    Wolters Kluwer anticipa il futuro della professione contabile e fiscale

    17/10/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.