• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Sicurezza informatica: come costruire la resilienza nei settori critici
    • Una vera sovranità digitale non può fare a meno dell’open source
    • Stormshield classificata TEMPEST: massimo livello di sicurezza perimetrale per Difesa e PA
    • DataCore Puls8: storage persistente di classe enterprise per Kubernetes
    • Hybrid Identity Protection (HIP) arriva in Europa: appuntamento a Francoforte il 10 febbraio
    • Fatturazione elettronica: come la tecnologia può essere d’aiuto
    • AI: se non si gestisce si possono creare rischi di business, alla reputazione e normativi
    • TrueScreen e Tinexta Infocert insieme per la Digital Trust e la validazione dei dati digitali
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Deep learning: quello di Fujitsu per l’AI ottimizza gli investimenti

    Deep learning: quello di Fujitsu per l’AI ottimizza gli investimenti

    By Redazione LineaEDP16/06/20173 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Sviluppata nei laboratori europei, la tecnologia di Fujitsu per l’Intelligenza Artificiale evita ulteriori investimenti in infrastrutture. Ecco come

    AI

    È una tecnologia di deep learning per le applicazioni di Intelligenza Artificiale in grado di superare le attuali restrizioni di memoria della GPU quella messa a punto dai laboratori europei di Fujitsu all’interno dell’iniziativa tecnologica denominata Zinrai e dedicata all’AI.

    Si tratta di un nuovo e molto efficiente meccanismo di distribuzione della memoria per i Deep Neural Networks, il cui utilizzo richiede enormi risorse computazionali, che incidono pesantemente sulle infrastrutture informatiche esistenti.

    Con la nuova soluzione il parallelismo del modello impiegato viene utilizzato per distribuire i requisiti di memoria DNN in modo automatizzato, trasparente e facilmente gestibile. Di conseguenza, la capacità delle infrastrutture esistenti nell’affrontare applicazioni AI su larga scala è notevolmente migliorata senza la necessità di ulteriori investimenti.

    L’aumento continuo dei costi di calcolo legati ai DNN è, infatti, una sfida importante per rispondere alla quale sono necessarie reti neurali più ampie e profonde, insieme a una più raffinata classificazione delle categorie, per affrontare le sfide emergenti di AI. La soluzione Fujitsu agisce proprio distribuendo i requisiti di memoria DNN su più macchine, così da ampliare le dimensioni delle reti neurali che possono essere elaborate da più macchine, consentendo lo sviluppo di modelli DNN più accurati e su larga scala.

    La nuova soluzione riesce ad ottenere questa distribuzione ottimizzata della memoria perché trasforma gli strati di reti neurali, arbitrariamente progettate, in reti equivalenti in cui alcuni o tutti i suoi strati sono sostituiti da una serie di sotto-strati più piccoli. Queste ultime sono progettate per essere funzionalmente equivalenti agli strati originali, ma sono molto più efficienti da eseguire dal punto di vista computazionale. Importante notare che, poiché gli strati originali e quelli nuovi derivano dal medesimo profilo, il processo di formazione del DNN “trasformato” converge a quello del DNN originale senza alcun costo aggiunto.

    Un nuovo meccanismo di calcolo parallelo

    I laboratori europei di Fujitsu hanno testato a lungo la nuova tecnologia, inclusa l’applicazione del nuovo meccanismo in «Caffe», un framework open source di deep learning ampiamente utilizzato dalle comunità di ricerca e sviluppo in tutto il mondo. La soluzione ha raggiunto un’efficienza di oltre il 90 per cento nella distribuzione della memoria nel momento in cui vengono trasformati gli strati completamente collegati di AlexNet su più GPU NVIDIA. Come tecnologia indipendente da hardware, ha la capacità di sfruttare la potenza computazionale di entrambe le unità di elaborazione convenzionali e di acceleratori hardware in fase di sviluppo, inclusi NVIDIA GPU, Intel Xeon Phi, FPGA, ASIC e altri, o qualsiasi altro hardware alternativo specificamente adattati per aumentare l’efficienza computazionale nel Deep Learning.

    DeeapLearning
    Figura: Utilizzando il parallelismo del modello, i requisiti aggiunti per la riallocazione della memoria DNN sono ridotti e distribuiti secondo un approccio automatizzato, trasparente e facilmente gestibile (Fonte: Fujitsu)

    Progressi che influenzano la nostra vita quotidiana

    Esempi di applicazioni per la nuova soluzione comprendono l’analisi nel settore healthcare, ad esempio la rilevazione della retinopatia diabetica, la classificazione e l’analisi delle immagini satellitari, l’elaborazione linguistica naturale dove sono necessari modelli di deep learning su larga scala per modellare e apprendere la completa complessità del linguaggio umano, dati su larga scala relativi a dispositivi IoT, transazioni finanziarie, servizi di social network e molto altro.

     

     

     

     

    AI deep learning Deep Neural Networks Fujitsu intelligenza artificiale
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Una vera sovranità digitale non può fare a meno dell’open source

    27/01/2026

    DataCore Puls8: storage persistente di classe enterprise per Kubernetes

    27/01/2026

    Hybrid Identity Protection (HIP) arriva in Europa: appuntamento a Francoforte il 10 febbraio

    27/01/2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Dal Forum Fiscale di Wolters Kluwer Italia le voci e le idee che stanno cambiando la professione
    Defence Tech

    Sicurezza informatica: come costruire la resilienza nei settori critici

    27/01/2026

    Stormshield classificata TEMPEST: massimo livello di sicurezza perimetrale per Difesa e PA

    27/01/2026

    AI: se non si gestisce si possono creare rischi di business, alla reputazione e normativi

    27/01/2026

    Kaspersky SIEM si aggiorna con il rilevamento delle minacce basato su AI e personalizzazione avanzata

    26/01/2026
    Report

    Kyndryl Retail Readiness Report: le leve per il retail nel 2026

    23/01/2026

    BCS: i data center IA posizionano l’Italia tra i primi mercati d’Europa, ma nodi energetici e insolvenze edili rischiano di frenare la corsa

    20/01/2026

    Data Center: come cresce l’ecosistema. I dati dell’Osservatorio POLIMI

    16/01/2026

    AI Diffusion Report: Microsoft presenta la nuova edizione

    13/01/2026
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    LineaEDP è una testata giornalistica appartenente al gruppo BitMAT Edizioni, una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.