• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Sicurezza
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • L’AI nei servizi professionali secondo Compendium
    • Sovranità digitale – Le dinamiche chiave da comprendere
    • Microsoft Ignite 2025: gli annunci più impotanti
    • Dynatrace si integra con l’AI di Microsoft Azure SRE Agent
    • Oracle inaugura a Torino la seconda Cloud Region italiana
    • Active Directory: Commvault annuncia nuove funzionalità
    • Ransomware 2025: analisi Nozomi Networks sui dati di marzo-agosto
    • Sostenibilità: come EUDR e Plastic Tax ridisegnano la supply chain
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Posizione Primo Piano»The Machine: il computer a misura di Big Data

    The Machine: il computer a misura di Big Data

    By Redazione LineaEDP24/05/20173 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Il prototipo rimette in discussione 60 anni di innovazioni dimostrando le potenzialità del Memory-Driven Computing

    Il più grande computer single-memory del mondo è firmato Hpe e rientra nel progetto di ricerca The Machine, un’iniziativa di ricerca e sviluppo che punta a realizzare un nuovo paradigma denominato Memory-Driven Computing, un’architettura appositamente creata per l’era dei Big Data.

    “I segreti della prossima grande scoperta scientifica, innovazioni rivoluzionarie o tecnologie capaci di cambiarci la vita, si nascondono in piena vista dietro le montagne di dati che creiamo ogni giorno – ha dichiarato Meg Whitman, CEO di Hewlett Packard Enterprise -. Per concretizzare questa promessa non possiamo affidarci alle tecnologie del passato, bensì abbiamo bisogno di un computer costruito per l’era dei Big Data”.

    Il prototipo presentato di recente dispone di 160 terabyte (TB) di memoria, sufficienti per lavorare simultaneamente con otto volte i dati contenuti in tutti i volumi conservati presso la Libreria del Congresso statunitense, ovvero circa 160 milioni di libri. Finora non era mai stato possibile memorizzare e manipolare data set di queste dimensioni all’interno di un sistema single-memory.

    Scalabilità e implicazioni sociali

    Sulla base del prototipo attuale, HPE prevede che l’architettura possa facilmente scalare fino a sistemi single-memory di scala exabyte e, andando oltre, fino a un pool di memoria pressoché infinito – 4.096 yottabyte. Per dare un riferimento, si tratta di 1.000 volte l’intero universo digitale odierno.

    Con una tale quantità di memoria sarà possibile lavorare simultaneamente con tutte le cartelle cliniche digitali di ogni persona sulla Terra; ogni dato presente all’interno di Facebook; ogni spostamento dei veicoli a guida autonoma di Google; e ogni data set prodotto dalle esplorazioni spaziali – e tutto nello stesso momento, ottenendo risposte e scoprendo nuove opportunità a velocità finora impensate.

    “Siamo convinti che il Memory-Driven Computing sia la soluzione per far progredire il settore in modo da consentire passi avanti in tutti gli aspetti della società – ha commentato Mark Potter, CTO di HPE e Director, Hewlett Packard Labs -. L’architettura che abbiamo presentato può essere applicata a qualsiasi categoria informatica, dai dispositivi edge intelligenti fino ai supercomputer”.

    Il Memory-Driven Computing mette al centro dell’architettura informatica la memoria, non il processore. Eliminando le inefficienze dell’attuale modo in cui memoria, storage e processori interagiscono oggi tra loro, il Memory-Driven Computing riduce il tempo necessario a risolvere problemi complessi da giorni a ore, da ore a minuti, da minuti a secondi, per produrre intelligence in tempo reale.

    Specifiche tecniche

    Il nuovo prototipo fa leva sui risultati ottenuti dal progetto di ricerca The Machine come:

    • 160 TB di memoria condivisa distribuita tra 40 nodi fisici interconnessi mediante protocollo in fibra ad alte prestazioni

    • Un sistema operativo ottimizzato basato su Linux che gira su ThunderX2, un dual socket di seconda generazione prodotto da Cavium, in grado di gestire System on a Chip (SoC) ottimizzati per carichi di lavoro ARMv8-A

    • Link di comunicazione ottici/fotonici, compreso il nuovo modulo fotonico X1, online e operativi;

    • Tool di programmazione software progettati per sfruttare l’abbondante memoria persistente disponibile.

    big data Hewlett Packard Enterprise HPE The Machine
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Sovranità digitale – Le dinamiche chiave da comprendere

    20/11/2025

    Microsoft Ignite 2025: gli annunci più impotanti

    20/11/2025

    Dynatrace si integra con l’AI di Microsoft Azure SRE Agent

    20/11/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Non c’è produzione senza pianificazione
    Cybersecurity, tra nuove minacce e intelligenza artificiale: la visione di GCI System Integrator
    Jabra: innovazione audio e video per la collaborazione del futuro
    Dynatrace Innovate Roadshow 2025: l’intelligenza artificiale che anticipa il futuro del software
    Networking: il software al centro
    Defence Tech

    Active Directory: Commvault annuncia nuove funzionalità

    20/11/2025

    Ransomware 2025: analisi Nozomi Networks sui dati di marzo-agosto

    19/11/2025

    Cloud Unity: da Commvault protezione AI-driven per i dati cloud-native

    18/11/2025

    Cybersecurity e patching: cosa ci insegna il furto al Louvre?

    18/11/2025
    Report

    L’AI nei servizi professionali secondo Compendium

    20/11/2025

    Intelligenza Artificiale: nuova alleata degli operatori del customer service

    14/11/2025

    Digital Friction: il rischio nascosto della produttività aziendale

    14/11/2025

    IA generativa: 5 giorni di formazione per conoscerla e gestirla

    13/11/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.