lunedì, Maggio 6, 2024
HomeIN EVIDENZALe spedizioni globali di server AI aumenteranno del 40% nel 2023 a...

Le spedizioni globali di server AI aumenteranno del 40% nel 2023 a causa della forte domanda di AI

La società taiwanese di consulenza e ricerche di mercato TrendForce prevede quest’anno un notevole aumento delle spedizioni di server AI, con circa 1,2 milioni di unità, dotate di GPU, FPGA e ASIC, destinate ai mercati di tutto il mondo, segnando una robusta crescita su base annua del 38,4%.

Questo aumento evidenzia la crescente domanda di server e chip AI, con il risultato che i server AI rappresenteranno quasi il 9% delle spedizioni totali di server, una cifra che dovrebbe aumentare fino al 15% entro il 2026. TrendForce ha rivisto le sue previsioni CAGR per le spedizioni di server AI tra il 2022 e il 2026 fino a un ambizioso 22%. Inoltre, le spedizioni di chip AI nel 2023 dovrebbero aumentare di un impressionante 46%.

L’analisi di TrendForce indica che le GPU di NVIDIA attualmente dominano il mercato dei server AI, detenendo una quota di mercato del 60÷70%. Alle sue spalle ci sono i chip ASIC, sviluppati indipendentemente dai CSP (Content Services Platform), che conquistano oltre il 20% del mercato. Tre fattori cruciali alimentano il dominio di mercato di NVIDIA: in primo luogo, i modelli A100 e A800 di NVIDIA sono ricercati sia dai CSP americani che da quelli cinesi. È interessante notare che la curva della domanda per il 2H23 dovrebbe spostarsi gradualmente verso i nuovi modelli H100 e H800. Questi modelli costano oltre 2÷2,5 volte in più rispetto alle precedenti versioni, amplificando i ricavi e le dimensioni del mercato dei server AI.

Inoltre, NVIDIA sta rafforzando in modo proattivo l’appeal di questi modelli attraverso le sue soluzioni di macchine sviluppate internamente, come DGX e HGX.

Anche la redditività delle GPU di fascia alta, in particolare i modelli A100 e H100, gioca un ruolo fondamentale. La ricerca di TrendForce suggerisce che la supremazia quasi assoluta di NVIDIA nel mercato delle GPU consentirà un significativo aumento di prezzo dell’H100, che potrebbe salire di altri 5.000 dollari, a seconda dei volumi di acquisto, passando da 35 mila a 40 mila dollari.

Infine, TrendForce prevede che l’influenza pervasiva dei ChatBOT e dei calcoli dell’intelligenza artificiale persisterà, espandendo la sua impronta in vari campi professionali come servizi cloud ed e-commerce, produzione intelligente, assicurazioni finanziarie, assistenza sanitaria intelligente e sistemi avanzati di assistenza alla guida con applicazioni in forte crescita a partire dalla seconda metà dell’anno. Allo stesso tempo, c’è stato un notevole aumento della domanda di server AI, in particolare quelli basati su cloud dotati di 4÷8 GPU e server AI edge con 2÷4 GPU. TrendForce prevede un incredibile tasso di crescita annuale del 50% nella spedizione di server AI dotati dei modelli di punta A100 e H100 di NVIDIA.

TrendForce riferisce anche che HBM, un’interfaccia RAM ad alta velocità implementata in GPU avanzate, è pronta per un significativo aumento della domanda. L’imminente GPU H100 di NVIDIA, prevista per il rilascio quest’anno, è dotata della tecnologia HBM3 ancora più veloce. Questo miglioramento rispetto al precedente standard HBM2 amplifica le prestazioni di calcolo dei sistemi server AI. Poiché la necessità di GPU avanzate, tra cui A100 e H100 di NVIDIA, MI200 e MI300 di AMD e TPU di Google, continua a crescere, TrendForce prevede un sorprendente aumento del 58% su base annua della domanda di HBM per il 2023, con un ulteriore incremento stimato del 30% nel 2024. 




La strategia di NVIDIA per rafforzare la sua leadership

Secondo alcuni analisti, la posizione di leadership nell’hardware per intelligenza artificiale di NVIDIA potrebbe essere minacciata dal tentativo dei fornitori di servizi cloud, tra cui Microsoft, Google e Amazon di realizzare propri chip AI per ridurre la loro dipendenza da NVIDIA.

Consapevole di questo pericolo, NVIDIA sta supportando due startup che intendono offrire servizi cloud AI utilizzando esclusivamente le GPU NVIDIA, senza alcuna velleità di realizzare proprio hardware. NVIDIA, oltre a supportarle finanziariamente, ha dato alle startup CoreWeave e Lambda Labs l’accesso alle sue ultime GPU H100 in un momento in cui Microsoft, Google e Amazon hanno un accesso limitato a questi chip.
NVIDIA ci affida il compito di portare sul mercato una delle risorse tecnologiche più scarse del pianeta“, ha dichiarato Brannin McBee, co-fondatore di CoreWeave. Per soddisfare la domanda di GPU, CoreWeave prevede di triplicare il numero di data center negli Stati Uniti portandoli a nove entro la fine dell’anno. NVIDIA ha recentemente preso parte ad un round di finanziamento di CoreWeave da 221 milioni.
Includendo CoreWeave e Lambda nel lancio iniziale dell’H100, NVIDIA sta essenzialmente limitando il numero di chip che AWS, Google e Microsoft possono acquistare.

La strategia sta già raggiungendo l’effetto voluto con Microsoft che si è riservata l’accesso ai server di CoreWeave per i prossimi anni. In questo modo NVIDIA non solo riuscirà a salvaguardare il proprio business nell’hardware ma inizierà anche a fare, indirettamente, concorrenza ai giganti del settore nel loro core business, ovvero nei servizi cloud.