• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Contattaci
Close Menu
LineaEDPLineaEDP
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Lo streaming dei dati abilita l’innovazione dei prodotti AI
    • StarWind Software acquisita da DataCore
    • Dell Technologies per progettare data center più moderni
    • OVHcloud lancia il nuovo data center a Milano, con il Public Cloud disponibile nella multizona 3-AZ
    • Portworx e Red Hat per promuovere risparmi e semplicità operativa
    • Cyber attacchi: l’Italia è maglia nera mondiale
    • Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi
    • Attacchi informatici: Russia, UE e Asia nel mirino
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    LineaEDPLineaEDP
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    LineaEDPLineaEDP
    Sei qui:Home»Categorie Funzionali»Posizione Home-Page»Posizione Primo Piano»The Machine: il computer a misura di Big Data

    The Machine: il computer a misura di Big Data

    By Redazione LineaEDP24/05/20173 Mins Read
    Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email

    Il prototipo rimette in discussione 60 anni di innovazioni dimostrando le potenzialità del Memory-Driven Computing

    Il più grande computer single-memory del mondo è firmato Hpe e rientra nel progetto di ricerca The Machine, un’iniziativa di ricerca e sviluppo che punta a realizzare un nuovo paradigma denominato Memory-Driven Computing, un’architettura appositamente creata per l’era dei Big Data.

    “I segreti della prossima grande scoperta scientifica, innovazioni rivoluzionarie o tecnologie capaci di cambiarci la vita, si nascondono in piena vista dietro le montagne di dati che creiamo ogni giorno – ha dichiarato Meg Whitman, CEO di Hewlett Packard Enterprise -. Per concretizzare questa promessa non possiamo affidarci alle tecnologie del passato, bensì abbiamo bisogno di un computer costruito per l’era dei Big Data”.

    Il prototipo presentato di recente dispone di 160 terabyte (TB) di memoria, sufficienti per lavorare simultaneamente con otto volte i dati contenuti in tutti i volumi conservati presso la Libreria del Congresso statunitense, ovvero circa 160 milioni di libri. Finora non era mai stato possibile memorizzare e manipolare data set di queste dimensioni all’interno di un sistema single-memory.

    Scalabilità e implicazioni sociali

    Sulla base del prototipo attuale, HPE prevede che l’architettura possa facilmente scalare fino a sistemi single-memory di scala exabyte e, andando oltre, fino a un pool di memoria pressoché infinito – 4.096 yottabyte. Per dare un riferimento, si tratta di 1.000 volte l’intero universo digitale odierno.

    Con una tale quantità di memoria sarà possibile lavorare simultaneamente con tutte le cartelle cliniche digitali di ogni persona sulla Terra; ogni dato presente all’interno di Facebook; ogni spostamento dei veicoli a guida autonoma di Google; e ogni data set prodotto dalle esplorazioni spaziali – e tutto nello stesso momento, ottenendo risposte e scoprendo nuove opportunità a velocità finora impensate.

    “Siamo convinti che il Memory-Driven Computing sia la soluzione per far progredire il settore in modo da consentire passi avanti in tutti gli aspetti della società – ha commentato Mark Potter, CTO di HPE e Director, Hewlett Packard Labs -. L’architettura che abbiamo presentato può essere applicata a qualsiasi categoria informatica, dai dispositivi edge intelligenti fino ai supercomputer”.

    Il Memory-Driven Computing mette al centro dell’architettura informatica la memoria, non il processore. Eliminando le inefficienze dell’attuale modo in cui memoria, storage e processori interagiscono oggi tra loro, il Memory-Driven Computing riduce il tempo necessario a risolvere problemi complessi da giorni a ore, da ore a minuti, da minuti a secondi, per produrre intelligence in tempo reale.

    Specifiche tecniche

    Il nuovo prototipo fa leva sui risultati ottenuti dal progetto di ricerca The Machine come:

    • 160 TB di memoria condivisa distribuita tra 40 nodi fisici interconnessi mediante protocollo in fibra ad alte prestazioni

    • Un sistema operativo ottimizzato basato su Linux che gira su ThunderX2, un dual socket di seconda generazione prodotto da Cavium, in grado di gestire System on a Chip (SoC) ottimizzati per carichi di lavoro ARMv8-A

    • Link di comunicazione ottici/fotonici, compreso il nuovo modulo fotonico X1, online e operativi;

    • Tool di programmazione software progettati per sfruttare l’abbondante memoria persistente disponibile.

    big data Hewlett Packard Enterprise HPE The Machine
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione LineaEDP
    • Facebook
    • X (Twitter)

    LineaEDP è parte di BitMAT Edizioni, una casa editrice che ha sede a Milano con copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Dell Technologies per progettare data center più moderni

    22/05/2025

    Portworx e Red Hat per promuovere risparmi e semplicità operativa

    22/05/2025

    Navigare in rete in modo sicuro: consigli pratici ed accorgimenti per non correre rischi

    21/05/2025
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    Security Words

    INFRASTRUTTURA APPLICATIVA: PROTEGGIAMOLA

    29/01/2024

    PASSWORD E STRATEGIA

    29/01/2024
    BitMATv – I video di BitMAT
    Transizione 5.0: vuoi il 45% sui software?
    Stormshield: Zero Trust pilastro della security aziendale
    RENTRI: regole pratiche per uscirne vivi
    Vertiv: come evolve il mondo dei data center
    2VS1 incontra GCI: focus sulle competenze
    Defence Tech

    Cyber attacchi: l’Italia è maglia nera mondiale

    22/05/2025

    Attacchi informatici: Russia, UE e Asia nel mirino

    21/05/2025

    Sicurezza: AI sempre più sfidante

    21/05/2025

    Computer ICS sempre sotto minaccia cyber: l’analisi di Kaspersky

    20/05/2025
    Report

    Lo streaming dei dati abilita l’innovazione dei prodotti AI

    22/05/2025

    Aziende italiane e Intelligenza Artificiale: a che punto siamo?

    12/05/2025

    L’AI irrompe nel manufacturing

    02/05/2025

    L’AI è il futuro, ma senza dati rimane solo una promessa

    02/05/2025
    Rete BitMAT
    • Bitmat
    • BitMATv
    • Top Trade
    • LineaEdp
    • ItisMagazine
    • Speciale Sicurezza
    • Industry 4.0
    • Sanità Digitale
    • Redazione
    • Contattaci
    NAVIGAZIONE
    • Cio
    • Cloud
    • Mercato
    • News
    • Tecnologia
    • Case History
    • Report
    • Sicurezza
    • IOT
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione online ed offline rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2025 BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 293 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.