sabato, Aprile 18, 2026
spot_imgspot_imgspot_imgspot_img
HomeAcquisizioniNVIDIA si fa un regalo di Natale da 20 miliardi: il core...

NVIDIA si fa un regalo di Natale da 20 miliardi: il core business e i manager di Groq

NVIDIA acquisisce il core business e i manager di Groq

Ieri NVIDIA ha annunciato di aver acquistato la tecnologia proprietaria di Groq, società che ha messo a punto capacità di inferenza uniche. Anche i principali manager dell’azienda, a partire dal fondatore Jonathan Ross, entreranno a fare parte di NVIDIA per integrare l’architettura LPU nell’ecosistema del colosso di Santa Clara.

Proprio nei giorni festivi, NVIDIA ha finalizzato quello che si preannuncia come il più grande investimento della sua storia: un accordo da 20 miliardi di dollari in contanti per assicurarsi la tecnologia di Groq, la startup californiana che ha impressionato il mercato dei semiconduttori con i suoi processori ultra-veloci.

L’operazione non è una acquisizione totale in senso classico, ma un accordo strategico di licenza non esclusiva unito a un massiccio trasferimento di talenti (“acquihire”). Questo modello, già visto in recenti manovre di Microsoft e Amazon, permette a NVIDIA di bypassare i lunghi tempi dell’antitrust globale, garantendosi però l’accesso immediato alla proprietà intellettuale e alle menti più brillanti della concorrenza.



Perché Groq? Il segreto tecnologico della LPU

Il cuore dell’acquisizione risiede nella Language Processing Unit (LPU) di Groq. Mentre le GPU di NVIDIA dominano la fase di addestramento (training) dei modelli, Groq ha progettato da zero un hardware ottimizzato esclusivamente per l’inferenza, ovvero la fase in cui l’IA risponde agli utenti in tempo reale.

Le caratteristiche uniche della tecnologia Groq includono:

  • Design Deterministico: A differenza delle GPU, l’LPU di Groq elimina le incertezze nei tempi di calcolo, garantendo latenze bassissime e costanti.
  • Memoria SRAM on-chip: Groq utilizza centinaia di megabyte di memoria SRAM ultra-veloce integrata direttamente sul chip, superando i colli di bottiglia della memoria HBM tradizionale.
  • Efficienza Energetica: La startup dichiara prestazioni fino a 10 volte superiori rispetto alle GPU tradizionali per carichi di lavoro LLM (Large Language Models), con consumi sensibilmente ridotti.

Il fattore umano: Jonathan Ross e il dream team di Google

Oltre alla tecnologia, NVIDIA porta a casa un capitale umano inestimabile. Jonathan Ross, fondatore di Groq e già mente dietro il progetto TPU (Tensor Processing Unit) di Google, entrerà ufficialmente in NVIDIA insieme al presidente Sunny Madra e gran parte del team ingegneristico.

Il CEO di NVIDIA, Jensen Huang, ha già comunicato internamente l’intenzione di integrare i processori a bassa latenza di Groq nell’architettura NVIDIA AI Factory. Questa mossa è un chiaro segnale di difesa contro l’avanzata delle TPU di Google, che negli ultimi mesi stavano guadagnando terreno proprio nel segmento dell’inferenza ad alte prestazioni.



Groq rimane indipendente (in parte)

Nonostante il trasferimento del core tecnologico e dei vertici, Groq continuerà a operare come entità indipendente sotto la guida del nuovo CEO Simon Edwards (già CFO dell’azienda). La divisione GroqCloud, che offre accesso ai chip tramite API a milioni di sviluppatori, rimarrà attiva, garantendo la continuità dei servizi esistenti.

Questa mossa natalizia di NVIDIA trasforma radicalmente il panorama dei semiconduttori: con 60 miliardi di dollari in cassa, Jensen Huang ha deciso di eliminare preventivamente la minaccia più credibile alla sua egemonia, assicurando che il futuro dell’IA “real-time” parli esclusivamente la lingua dell’azienda di Santa Clara.

SRAM contro HBM: il duello tecnologico dietro l’affare Groq

Per capire il valore dell’operazione, bisogna guardare a come i chip “parlano” con i dati.

NVIDIA H200 e l’approccio HBM3e:

Le attuali GPU di punta, come la H200, si affidano alle memorie HBM (High Bandwidth Memory). Questa tecnologia impila verticalmente chip di memoria DRAM per ottenere una larghezza di banda enorme (fino a 4,8 TB/s). Tuttavia, la HBM è posizionata accanto al processore, non al suo interno. Questo crea una latenza fisica: ogni volta che l’IA deve generare una parola (token), deve “viaggiare” fino alla memoria esterna, attendere il dato e tornare indietro.

Groq e l’approccio SRAM On-Chip:

Groq utilizza la SRAM (Static Random Access Memory), lo stesso tipo di memoria ultra-veloce usata per le cache dei processori, ma distribuita su tutta la superficie del chip.

  • Velocità: La SRAM è ordini di grandezza più veloce della DRAM/HBM.
  • Latenza: Essendo integrata direttamente nei circuiti logici, la latenza è quasi nulla.
  • Determinismo: Groq non usa “predizioni” hardware; il compilatore sa esattamente dove si trova ogni dato in ogni millisecondo. Questo permette di generare testo a una velocità tale (fino a 500-800 token al secondo) che l’occhio umano non riesce nemmeno a seguire.

Il limite della SRAM è la densità: occupa molto spazio fisico. Acquisendo Groq, NVIDIA non vuole sostituire l’HBM, ma creare sistemi ibridi dove l’H200 gestisce la memoria di massa del modello e la tecnologia Groq accelera la “volata finale” della generazione del testo.



Reazioni dal mercato: AMD e Intel in stato di allerta

La mossa di Natale di NVIDIA ha colto di sorpresa i competitor, che stavano appena iniziando a colmare il gap sul fronte del puro calcolo.

Lisa Su, CEO di AMD, ha recentemente presentato la serie Instinct MI325X, puntando tutto sulla capacità record di memoria (256GB di HBM3e). La strategia di AMD finora è stata: “offriamo più memoria di NVIDIA allo stesso prezzo”. Tuttavia, l’acquisizione di Groq sposta l’asticella dalla capacità alla velocità di risposta.

Gli analisti prevedono che AMD debba ora accelerare l’acquisizione di startup specializzate in interconnessioni chiplet o soluzioni di inferenza custom (come Silvaco o Tenstorrent) per non restare esclusa dal mercato delle applicazioni AI “real-time”, come gli assistenti vocali istantanei e il trading algoritmico.

Intel: Il focus su Gaudi e l’ecosistema aperto

Per Intel, la mossa di NVIDIA è un duro colpo alla narrativa di Gaudi 3. Intel ha promosso Gaudi come l’alternativa più efficiente e dal miglior rapporto prezzo/prestazioni rispetto a NVIDIA. Ma con l’ingresso dei manager di Groq (molti dei quali ex-Intel ed ex-Google) in NVIDIA, il colosso di Santa Clara guadagna un vantaggio ingegneristico nel design dei sistemi che Intel difficilmente potrà pareggiare nel breve termine.

La risposta di Intel si sta concentrando su oneAPI, cercando di creare uno standard software aperto che permetta agli sviluppatori di fuggire dall’ecosistema chiuso di NVIDIA (CUDA). Tuttavia, se NVIDIA diventa anche il leader indiscusso delle prestazioni di inferenza, l’incentivo a restare in CUDA diventerà ancora più forte.



Verso il monopolio dell’inferenza?

L’industria dei semiconduttori guarda ora con apprensione all’Antitrust. Se NVIDIA riuscirà a integrare con successo l’architettura LPU di Groq nei suoi futuri chip Rubin (previsti per il 2026), potrebbe di fatto rendere obsoleta qualsiasi altra soluzione per il mercato dei chatbot e degli agenti autonomi.

La “Guerra dei Chip” del 2026 non si vincerà più su chi ha più Teraflops, ma su chi riuscirà a far parlare l’intelligenza artificiale senza il minimo accenno di esitazione. E in questo momento, NVIDIA ha appena comprato il silenzio dei suoi critici con un assegno da 20 miliardi.

L’impatto sui Cloud Provider: prezzi al ribasso o margini sotto assedio?

L’acquisizione di Groq da parte di NVIDIA mette i grandi Cloud Service Providers (CSP) come AWS, Microsoft Azure e Google Cloud in una posizione ambivalente.

  1. Il “costo per token”:

Il parametro fondamentale per chi vende servizi di IA (come ChatGPT o Claude) è il costo di generazione di ogni singola parola (token). La tecnologia LPU di Groq è estremamente più efficiente dal punto di vista energetico rispetto alle GPU tradizionali per i carichi di lavoro di inferenza.

  • Scenario ottimista: Se NVIDIA integra questa efficienza nei suoi futuri chip, il costo operativo per i CSP diminuirà. Questo potrebbe portare a una riduzione dei prezzi delle API per gli sviluppatori e le aziende.
  • Scenario pessimista: NVIDIA detiene un potere di mercato quasi monopolistico. Potrebbe decidere di mantenere alti i prezzi dell’hardware “ibridato” con tecnologia Groq, assorbendo lei stessa i margini di guadagno che altrimenti andrebbero ai fornitori cloud.
  1. La sfida ai chip “fatti in casa”:

AWS (con Inferentia) e Google (con le TPU) hanno investito miliardi per creare chip propri e sfuggire alla “tassa NVIDIA”. Tuttavia, se i nuovi sistemi NVIDIA-Groq offriranno prestazioni 10 volte superiori, la convenienza di usare chip proprietari meno potenti svanirà, costringendo i CSP a continuare ad acquistare da NVIDIA per restare competitivi.



Il Software di compilazione: il vero “Santo Graal” di Groq

Molti osservatori si concentrano sul chip fisico, ma la vera rivoluzione di Groq è il suo compilatore deterministico.

Nelle GPU tradizionali, la gestione della memoria e del calcolo avviene in modo dinamico durante l’esecuzione (runtime). È un processo caotico che richiede hardware complesso per gestire gli imprevisti. Groq ha ribaltato il paradigma: è il software a decidere tutto prima ancora che il chip inizi a lavorare.

Come cambierà l’ecosistema NVIDIA

  • Semplificazione di CUDA: Integrare il compilatore di Groq in CUDA permetterà agli sviluppatori di mappare i modelli IA sull’hardware con una precisione millimetrica. Questo elimina il bisogno di complessi sistemi di gestione dei carichi di lavoro.
  • Latenza “Zero”: Grazie al software che orchestra ogni movimento di dati sulla SRAM, NVIDIA potrà offrire garanzie di tempo di risposta che oggi sono impossibili. Per applicazioni critiche (chirurgia robotica a distanza, guida autonoma, trading ad alta frequenza), questo software è l’unico modo per garantire che non ci siano “scatti” o ritardi improvvisi.
  • Lock-in totale: Una volta che un’azienda ottimizza i suoi modelli usando il compilatore avanzato di Groq/NVIDIA, spostarsi su un’altra architettura (come AMD o Intel) diventa quasi impossibile, perché richiederebbe di riscrivere l’intera logica di orchestrazione del modello.

Una mossa da scacco matto

NVIDIA non ha solo comprato dei chip veloci; ha comprato il modo per renderli prevedibili.

Se le GPU sono state i “motori a scoppio” che hanno alimentato la prima fase dell’esplosione AI, la tecnologia software e hardware di Groq rappresenta il passaggio al “motore elettrico”: più semplice, immensamente più rapido e totalmente controllato elettronicamente. Per AWS, Azure e i competitor come AMD, la sfida ora non è più solo produrre chip altrettanto potenti, ma sviluppare un software capace di competere con la precisione chirurgica del nuovo arsenale di Jensen Huang.



L’acquisizione di Groq è il nuovo “muro” contro l’avanzata di Pechino

L’acquisizione di Groq da parte di NVIDIA non è solo una importante mossa nel contesto della “Guerra dei Chip” con la Cina.

Mentre i campioni nazionali cinesi (come Huawei, Moore Threads, Biren Technology e Enflame) stanno lottando per colmare il divario tecnologico sulle GPU tradizionali, NVIDIA ha appena cambiato le regole del gioco, spostando il campo di battaglia su un terreno dove Pechino è più vulnerabile.

Uno dei principali ostacoli per le aziende cinesi oggi non è solo la potenza di calcolo, ma l’accesso alle memorie HBM3 e HBM3e. Le sanzioni statunitensi limitano pesantemente la capacità di aziende come Huawei di acquistare queste memorie da SK Hynix o Samsung, costringendole a usare alternative domestiche più lente o meno dense.

L’architettura LPU di Groq, come abbiamo visto, si basa massicciamente sulla SRAM integrata nel chip invece che sulla HBM esterna.

  • Il paradosso: La SRAM è tecnicamente più facile da produrre rispetto alle HBM3e stratificate.
  • La mossa di NVIDIA: Acquisendo i brevetti e i talenti di Groq, NVIDIA impedisce che questa architettura “HBM-less” diventi lo standard per i chip cinesi che cercano di aggirare le sanzioni. Se NVIDIA blinda il software e l’hardware dell’inferenza basata su SRAM, la Cina resta “incastrata” nel tentativo di produrre HBM complesse che l’Occidente ha già deciso di superare per i carichi di lavoro real-time.

Software e standard: La Cina rischia l’isolamento tecnologico

Il vero timore di Pechino è il consolidamento di CUDA come standard universale per l’inferenza AI. Le aziende cinesi stanno cercando di creare i propri linguaggi (come l’ecosistema CANN di Huawei) per essere indipendenti.

Tuttavia, se NVIDIA integra il rivoluzionario compilatore di Groq dentro CUDA, offrirà una velocità di sviluppo e una facilità di ottimizzazione che renderanno i chip cinesi “obsoleti al lancio”. Uno sviluppatore AI preferirà sempre un sistema che permette di passare dal codice al risultato in millisecondi (grazie a Groq) piuttosto che combattere con un software cinese ancora immaturo e privo di strumenti di orchestrazione deterministica.



La risposta cinese: verso l’inferenza “specifica per dominio”

Nonostante il colpo, la Cina non resterà a guardare. Gli analisti prevedono che, in risposta a questa mossa di NVIDIA, Pechino accelererà i finanziamenti verso le aziende che sviluppano ASIC (Application-Specific Integrated Circuits) dedicati esclusivamente a singoli modelli di IA.

Se non possono competere con la flessibilità della nuova NVIDIA “ibridata” Groq, i cinesi cercheranno di costruire chip che fanno una sola cosa (ad esempio, far girare solo il modello Llama di Meta o i modelli nazionali come quelli di Alibaba) ma con un’efficienza estrema. Sarà una sfida tra la “Forza Bruta Universale” di NVIDIA e la “Specializzazione Estrema” della Cina.

Con 70 miliardi di dollari di sussidi appena annunciati, la Cina ha il capitale, ma NVIDIA ha appena comprato il tempo e l’ingegno. Acquisire Groq significa, per NVIDIA, aver alzato il ponte levatoio prima che i concorrenti cinesi potessero anche solo avvicinarsi alle mura della fortezza dell’inferenza AI.