November 24, 2024

PAPERS

A volte la vita ti colpirà alla testa con un mattone

Nvidia punta al collo di bottiglia della memoria del centro dati

Nvidia spera di prendere unità di elaborazione grafica (GPU) nei data center al livello successivo, affrontando quello che vede come un collo di bottiglia che limita l’elaborazione dei dati nelle architetture tradizionali.

In generale, l’unità di elaborazione centrale (CPU) in un server di data center passerebbe alcuni calcoli di elaborazione dei dati a una GPU, che è ottimizzata per eseguire tali carichi di lavoro.

Ma, secondo Nvidia, la larghezza di banda della memoria limita il livello di ottimizzazione. Una GPU sarà di solito configurata con una quantità relativamente minore di memoria veloce rispetto alla CPU, che ha una quantità maggiore di memoria più lenta.

Lo spostamento dei dati tra la CPU e la GPU per eseguire un carico di lavoro di elaborazione dati richiede la copia dalla memoria più lenta della CPU alla memoria della GPU.

Nel tentativo di rimuovere questo collo di bottiglia della memoria, Nvidia ha presentato il suo primo processore per data center, Grace, basato su una microarchitettura Arm. Secondo Nvidia, Grace fornirà 10 volte le prestazioni dei server più veloci di oggi sui più complessi carichi di lavoro di AI e di calcolo ad alte prestazioni. Supporta la prossima generazione della tecnologia di interconnessione coerente NVLink di Nvidia, che secondo l’azienda permette ai dati di muoversi più rapidamente tra la memoria di sistema, le CPU e le GPU.

Nvidia ha descritto Grace come un processore altamente specializzato rivolto alle più grandi applicazioni HPC e AI ad alta intensità di dati come l’addestramento di modelli di elaborazione del linguaggio naturale di nuova generazione che hanno più di un trilione di parametri.

Il Centro Nazionale Svizzero di Supercalcolo (CSCS) è la prima organizzazione ad annunciare pubblicamente che userà il chip Grace di Nvidia in un supercomputer chiamato Alps, che dovrebbe andare online nel 2023.

CSCS progetta e gestisce un sistema dedicato alle previsioni meteorologiche numeriche (NWP) per conto di MeteoSwiss, il servizio meteorologico svizzero. Questo sistema è in esecuzione su GPU dal 2016.

Il supercomputer Alps sarà costruito da Hewlett Packard Enterprise utilizzando la nuova linea di supercomputer HPE Cray EX e la piattaforma di supercomputing Nvidia HGX, che include le GPU Nvidia, il suo kit per sviluppatori di software di calcolo ad alte prestazioni e la nuova CPU Grace. Il sistema Alps sostituirà l’attuale supercomputer Piz Daint del CSCS.

Secondo Nvidia, sfruttando lo stretto accoppiamento tra le CPU e le GPU Nvidia, Alps dovrebbe essere in grado di addestrare GPT-3, il più grande modello di elaborazione del linguaggio naturale al mondo, in soli due giorni – 7 volte più veloce del supercomputer Selene di Nvidia da 2,8 exaflops, attualmente riconosciuto come il principale supercomputer al mondo per l’AI da MLPerf.

Ha detto che gli utenti del CSCS saranno in grado di applicare queste prestazioni AI a una vasta gamma di ricerche scientifiche emergenti che possono beneficiare della comprensione del linguaggio naturale. Questo include, per esempio, l’analisi e la comprensione delle massicce quantità di conoscenza disponibili nei documenti scientifici e la generazione di nuove molecole per la scoperta di farmaci.

“Gli scienziati non saranno solo in grado di effettuare simulazioni, ma anche di pre-elaborare o post-elaborare i loro dati. Questo rende l’intero flusso di lavoro più efficiente per loro”, ha detto il direttore del CSCS Thomas Schulthess.