
Colette Kress, CFO di NVIDIA, ha respinto l’ipotesi di una bolla nel campo dell’intelligenza artificiale, definendo l’attuale fase come una “profonda trasformazione”. L’azienda prevede che il mercato globale delle infrastrutture per data center, trainato dalla domanda di elaborazione accelerata, potrebbe raggiungere un valore compreso tra 3.000 e 4.000 miliardi di dollari entro il 2030. Questo scenario è supportato da una pipeline di ordini storici per le nuove GPU.
Durante la sua partecipazione al recente evento UBS Global Technology and AI Conference, Colette Kress CFO di NVIDIA, ha fermamente negato l’esistenza di una bolla speculativa nel settore dell’Intelligenza Artificiale. Al contrario, ha descritto l’attuale dinamica di mercato come l’inizio di una trasformazione fondamentale dell’intera infrastruttura informatica globale.
Kress ha sottolineato che la stragrande maggioranza dei chip AI di NVIDIA attualmente in vendita viene utilizzata per costruire data center completamente nuovi (inclusi i programmi di AI sovrana), piuttosto che per sostituire semplicemente apparecchiature più vecchie (tradizionali CPU-based). Questo dettaglio è cruciale perché indica una crescita cumulativa della potenza di calcolo AI anziché un mero ciclo di sostituzione, confermando che il mercato è ancora nelle prime fasi di rapida espansione.
La previsione: infrastruttura per data center da 4 trilioni di dollari
A sostegno della tesi di trasformazione, la CFO ha ribadito la previsione di NVIDIA: si stima che gli investimenti globali nelle infrastrutture per data center raggiungeranno un valore tra i 3.000 e i 4.000 miliardi di dollari entro il 2030.
Questa cifra monstre non riguarda solo l’AI, ma l’intero ecosistema data center. Kress ha specificato che circa la metà di questo ammontare sarà direttamente correlata al passaggio dalla tradizionale potenza di calcolo basata su CPU all’elaborazione accelerata fornita dalle GPU e dalle piattaforme di NVIDIA.
GPU Blackwell e Rubin: la pipeline degli ordini storici
Per dimostrare la solidità della domanda, Kress e il CEO Jensen Huang hanno rivelato cifre sorprendenti durante la conferenza GTC. NVIDIA ha visibilità su ordini (o bookings cumulative) per un totale di circa 500 miliardi di dollari per le sue future architetture di GPU: la Blackwell (attuale) e la Rubin (successiva, prevista per il prossimo anno).
Questo valore di 500 miliardi di dollari rappresenta il ricavo potenziale cumulativo previsto fino alla fine del calendario 2026 per le piattaforme Blackwell e Rubin, e, secondo la CFO, è un dato che potrebbe crescere ulteriormente grazie a nuovi accordi.
La sfida logistica: 20 milioni di chip in 5 trimestri
Per soddisfare questa gigantesca domanda, il CEO Jensen Huang ha rivelato che l’azienda dovrà consegnare circa 20 milioni di GPU Blackwell e Rubin nei prossimi cinque trimestri. Questo dato è impressionante se confrontato con la generazione precedente, Hopper (H100), che ha venduto circa 4 milioni di unità nel suo intero ciclo di vita. La necessità di una consegna così accelerata evidenzia non solo l’enorme domanda ma anche la quasi totale carenza di potenza di calcolo AI a livello globale, costringendo NVIDIA ad accelerare il suo ciclo di rilascio di architetture a un ritmo annuale.
Il modello simbiotico con OpenAI e i giganti del Cloud
Kress ha anche fatto luce sul rapporto con i partner principali, citando la stretta relazione simbiotica con OpenAI.
“Abbiamo raggiunto un accordo definitivo con OpenAI, che sta proseguendo per la sua strada e crediamo che la nostra collaborazione con loro non si fermerà mai,” ha dichiarato Kress.
Questa partnership non si basa solo su vendite, ma su un modello reciprocamente vantaggioso. NVIDIA ha investito in OpenAI, mentre quest’ultima ha effettuato acquisti su larga scala delle sue GPU AI. Questo ciclo di investimento e approvvigionamento è stato descritto dagli analisti come una “macchina a moto perpetuo AI”, alimentando una spirale di crescita e valutazione per entrambe le aziende. Modelli di collaborazione e deal simili, sebbene con diverse sfumature, si sono verificati anche nelle relazioni tra NVIDIA e i giganti del cloud come Oracle e Amazon.
L’impegno di NVIDIA nell’assicurarsi i componenti a lunga scadenza (come le memorie HBM e il packaging avanzato) dimostra la sua determinazione a soddisfare questa pipeline di ordini da mezzo trilione di dollari e a capitalizzare la profonda trasformazione dei data center.



