mercoledì, Aprile 24, 2024
HomeAZIENDEAttualitàNVIDIA presenta Grace, la CPU per data center basata su Arm

NVIDIA presenta Grace, la CPU per data center basata su Arm

Decine di annunci alla GTC 2021 di NVIDIA, dalla CPU Grace all’SDK per simulazioni quantistiche. Ma anche anticipazioni sulle vendite, che hanno superato nel primo trimestre le previsioni più ottimistiche. E il titolo vola in borsa mentre i competitor Intel e AMD affondano.

Nvidia è ora una società a tre chip“, ha detto un raggiante Jensen Huang, CEO di NVIDIA riferendosi alla nuova CPU Grace per data center durante l’evento GTC 2021. “Insieme alla GPU e alla DPU, Grace ci offre la terza tecnologia di base per il computing e la capacità di riprogettare i data center e far progredire l’AI.

Sicuramente è stato questo l’annuncio più importante della prima giornata della Graphics Technology Conference (GTC) 2021 di NVIDIA. Insieme a Grace, la società ha annunciato un’unità di elaborazione dati di nuova generazione, nuove GPU aziendali, un nuovo SOC per sistemi a guida autonoma, un framework applicativo per la sicurezza informatica, un nuovo SDK per accelerare le simulazioni di circuiti quantistici e molto altro ancora.

Quest’anno la GTC si sta svolgendo in modalità virtuale, e durerà fino a venerdì, dando a NVIDIA tutto il tempo per evidenziare i suoi nuovi prodotti, servizi e partnership.

Con i suoi prodotti, in particolare con le GPU, in questi anni NVIDIA ha svolto un ruolo chiave nel far progredire l’Intelligenza Artificiale e il computing, spostando il focus tecnologico sulla collaborazione con Arm, al punto che NVIDIA ha annunciato recentemente l’intenzione di acquistare la società inglese per 40 miliardi di dollari, un tentativo ostacolato da molti. Ed oggi si è capito il perché. La sempre più stretta collaborazione con Arm potrebbe portare ad una vera e propria rivoluzione nelle tecnologie per data center e nell’HPC, basate finora sui sistemi x86 di Intel e AMD. Una rivoluzione che sta investendo anche i desktop con il lancio da parte di Apple dei primi PC basati sul processore Silicon M1 con tecnologia Arm e che ha dimostrato tutta la sua potenza col supercomputer Fugaku basato su SoC Fujitsu con 48 core Arm ciascuno. Questo supercomputer ha raggiunto, fin dalla sua prima versione, una capacità di calcolo di 415,53 Pflop, sbaragliando la concorrenza.

L’intelligenza artificiale e la data science stanno spingendo l’architettura informatica di oggi oltre i suoi limiti, elaborando quantità di dati impensabili“, ha dichiarato Jensen Huang “Utilizzando le IP di Arm, NVIDIA ha realizzato Grace, una CPU progettata per AI e HPC estremo. Insieme alle GPU e alle DPU, Grace ci offre la terza tecnologia di base per il computing, per riconsiderare i data center e fare progredire l’AI. NVIDIA è ora un’azienda a tre chip“.

Grace, il processore basato su ARM di NVIDIA, è stato progettato per supportare applicazioni avanzate che attingono a set di dati di grandi dimensioni e si basano su calcolo ultraveloce supportato da una memoria altrettanto veloce e di grandi dimensioni.

Secondo NVIDIA, un sistema basato su Grace sarà in grado di addestrare un modello di elaborazione del linguaggio naturale (NLP) di un trilione di parametri dieci volte più velocemente dei sistemi all’avanguardia basati su Nvidia DGX che funzionano su CPU x86.

La tecnologia di interconnessione NVLink di quarta generazione di NVIDIA fornisce una connessione da 900 GB/s tra la CPU Grace e le GPU Nvidia, consentendo una larghezza di banda aggregata 30 volte superiore rispetto ai server più performanti di oggi.

Grace utilizzerà anche un innovativo sottosistema di memoria LPDDR5x che fornirà il doppio della larghezza di banda e un’efficienza energetica 10 volte superiore rispetto alla memoria DDR4. Inoltre, la nuova architettura fornisce coerenza cache unificata con un singolo spazio di indirizzi di memoria, combinando il sistema e la memoria GPU HBM per semplificare la programmabilità.

Grace sarà supportata dal kit di sviluppo software NVIDIA HPC e dalla suite completa di librerie CUDA e CUDA-X, che accelerano più di 2.000 applicazioni GPU.

I primi clienti ad annunciare l’intenzione di implementare Grace sono lo Swiss National Supercomputing Center (CSCS) e il Los Alamos National Laboratory del Dipartimento dell’Energia degli Stati Uniti. Entrambi i laboratori prevedono di lanciare i supercomputer basati su Grace nel 2023.

Guarda tutti gli annunci di NVIDIA al GTC 2021 e la keynote di Jensen Huang:

Tra i numerosi annunci di NVIDIA di ieri, segnaliamo:

  • Omniverse Enterprise, la prima piattaforma tecnologica al mondo che consente ai team di progettazione 3D globali che lavorano su più suite software di collaborare in tempo reale in uno spazio virtuale condiviso.
  • BlueField-3, la prossima generazione della sua unità di elaborazione dati (DPU), un acceleratore progettato per isolare i servizi di infrastruttura dalle applicazioni in esecuzione su CPU x86. In tal modo, accelera il networking, l’archiviazione e la sicurezza informatica definiti dal software.
  • Prossima generazione DGX SuperPOD, un sistema che comprende 20 o più DGX A100 insieme alla rete InfiniBand HDR di Nvidia. SuperPOD è cloud-native e multi-tenant ed utilizza le DPU BlueField-2 di Nvidia per scaricare, accelerare e isolare i dati degli utenti.
  • SDK cuQuantum per accelerare le simulazioni di circuiti quantistici in esecuzione su GPU. I computer classici stanno già trovando modi per ospitare simulazioni quantistiche e la libreria cuQuantum è progettata per far avanzare questa ricerca.
  • Piattaforma Nvidia EGX, che consente alle aziende di eseguire per la prima volta carichi di lavoro AI sull’infrastruttura utilizzata per le applicazioni aziendali tradizionali. Tra i primi a offrire server mainstream certificati da Nvidia che supportano EGX: Atos, Dell Technologies, GIGABYTE, H3C, Inspur , Lenovo, QCT e Supermicro. Lockheed Martin e Mass General Brigham sono tra i primi a incorporare questi sistemi nei loro data center.
  • Framework di sicurezza Morpheus, per l’ispezione in tempo reale di tutti i pacchetti che fluiscono attraverso il data center. La distribuzione di Morpheus con applicazioni di sicurezza sfrutta i vantaggi del computing AI di Nvidia e delle DPU BlueField-3. Poiché BlueField è effettivamente un server in esecuzione ai margini di ogni server del data center, funge da sensore per monitorare tutto il traffico tra tutti i container e le VM in un data center. Invia i dati di telemetria al server EGX per un’analisi più approfondita.
  • Framework AI Jarvis, ora disponibile sulla piattaforma NGC. Gli sviluppatori possono accedere a modelli di apprendimento profondo pre-addestrati e strumenti software per creare servizi di intelligenza artificiale conversazionali interattivi. I modelli Jarvis offrono riconoscimento vocale automatico estremamente accurato, comprensione della lingua, traduzioni in tempo reale per più lingue e nuove funzionalità di sintesi vocale per agenti di intelligenza artificiale conversazionale. Utilizzando l’accelerazione GPU, la pipeline vocale end-to-end (ascolto, comprensione e generazione di una risposta) può essere eseguita in meno di 100 millisecondi.
  • Piattaforma automobilistica Atlan, il primo processore automobilistico da 1000 TOPS, che offre un aumento delle prestazioni 4x rispetto alla generazione precedente Orin.
    Il SOC Atlan presenta anche un’architettura GPU di nuova generazione, nuovi core CPU Arm, nuovi acceleratori di deep learning e visione artificiale. È dotato di BlueField, con la piena programmabilità necessaria per prevenire violazioni dei dati e attacchi informatici.
    Nvidia ha anche affermato che Volvo Cars sta espandendo la sua collaborazione con l’azienda per utilizzare Orin SoC per alimentare il computer a guida autonoma nei modelli Volvo di prossima generazione. La prima auto con questo SOC dovrebbe essere la Volvo XC90 di nuova generazione.
    Nel frattempo, DRIVE Sim di Nvidia è ora alimentato dalla simulazione di veicoli autonomi Omniverse. Può generare set di dati per addestrare il sistema di percezione del veicolo e fornire un banco di prova virtuale per testare il processo decisionale del veicolo. La piattaforma può essere collegata allo stack AV in configurazioni software-in-the-loop o hardware-in-the-loop per testare l’esperienza di guida completa.