martedì, Marzo 17, 2026
spot_imgspot_imgspot_imgspot_img
HomeAZIENDEAMD presenta nuovi prodotti hardware per soddisfare la crescente domanda di infrastrutture...

AMD presenta nuovi prodotti hardware per soddisfare la crescente domanda di infrastrutture per l’intelligenza artificiale

AMD EPYC MI325X Ryzen

Lisa Su, CEO e Presidente di AMD, prevede un mercato di ben 500 miliardi di dollari per gli acceleratori AI entro il2028.

AMD ha presentato una nuova serie di soluzioni per l’intelligenza artificiale durante l’evento Advancing AI 2024, tra cui la quinta generazione di processori AMD EPYC, acceleratori Instinct MI325X e processori Ryzen AI PRO. Queste tecnologie migliorano le prestazioni nei data center, AI aziendale e infrastrutture cloud. AMD ha inoltre mostrato i progressi del software open-source ROCm per AI e ha collaborato con aziende come Google, Meta, Microsoft e Oracle per implementare queste soluzioni su larga scala. AMD prevede una crescita significativa del mercato degli acceleratori AI fino al 2028.

“Il data center e l’intelligenza artificiale rappresentano significative opportunità di crescita per AMD e stiamo creando un forte slancio per i nostri processori EPYC e AMD Instinct in un crescente gruppo di clienti“, ha affermato la presidente e CEO di AMD, la dott. ssa Lisa Su. “Con le nostre nuove CPU EPYC, le GPU AMD Instinct e le DPU Pensando, stiamo offrendo un’elaborazione di leadership per alimentare i carichi di lavoro più importanti e impegnativi dei nostri clienti. Guardando al futuro, vediamo il mercato degli acceleratori AI per data center crescere fino a 500 miliardi di dollari entro il 2028. Ci impegniamo a fornire innovazione aperta su larga scala attraverso le nostre soluzioni espanse a livello di silicio, software, rete e cluster”. 

Definizione del data center nell’era dell’intelligenza artificiale

AMD ha annunciato un ampio portafoglio di soluzioni per data center per carichi di lavoro AI, aziendali, cloud e misti:

  • I nuovi processori AMD EPYC 9005 Series offrono prestazioni da record per abilitare soluzioni di elaborazione ottimizzate per diverse esigenze di data center. Basata sull’ultima architettura “Zen 5”, la gamma offre fino a 192 core e sarà disponibile in un’ampia gamma di piattaforme dai principali OEM e ODM a partire da oggi.
  • AMD continua nel suo programma di sviluppo di acceleratori AI con il lancio di AMD Instinct MI325X, offrendo prestazioni di leadership e capacità di memoria per i carichi di lavoro AI più esigenti. AMD ha anche condiviso nuovi dettagli sugli acceleratori della serie AMD Instinct MI350 di prossima generazione, il cui lancio è previsto per la seconda metà del 2025, estendendo la capacità di memoria di leadership di AMD Instinct e le prestazioni AI generative. AMD ha compiuto progressi significativi nello sviluppo degli acceleratori della serie AMD Instinct MI400 basati sull’architettura AMD CDNA Next, la cui disponibilità è prevista per il 2026.
  • AMD ha costantemente migliorato il suo stack software AMD ROCm, raddoppiando le prestazioni di inferenza e training dell’acceleratore AMD Instinct MI300X su un’ampia gamma dei modelli AI più popolari. Oggi, oltre un milione di modelli funzionano senza problemi su AMD Instinct, il triplo del numero disponibile al momento del lancio di MI300X, con supporto day-zero per i modelli più ampiamente utilizzati.
  • AMD ha inoltre ampliato il suo portafoglio di reti ad alte prestazioni per soddisfare i requisiti di sistema in evoluzione per l’infrastruttura AI, massimizzando le prestazioni di CPU e GPU per offrire prestazioni, scalabilità ed efficienza nell’intero sistema. La DPU AMD Pensando Salina offre una rete front-end ad alte prestazioni per i sistemi AI, mentre AMD Pensando Pollara 400, la prima NIC pronta per Ultra Ethernet Consortium, riduce la complessità dell’ottimizzazione delle prestazioni e aiuta a migliorare i tempi di produzione.



I partner di AMD hanno spiegato in dettaglio come sfruttano le soluzioni per data center AMD per promuovere capacità di intelligenza artificiale generativa, fornire infrastrutture cloud utilizzate quotidianamente da milioni di persone e alimentare data center ibridi e on-premise per le principali aziende:

  • Dal lancio nel dicembre 2023, gli acceleratori AMD Instinct MI300X sono stati distribuiti su larga scala dai principali partner cloud, OEM e ODM e servono milioni di utenti ogni giorno su modelli di intelligenza artificiale più popolari, tra cui ChatGPT di OpenAI, Meta Llama e oltre un milione di modelli open source sulla piattaforma Hugging Face.
  • Google ha evidenziato come i processori AMD EPYC stiano alimentando un’ampia gamma di istanze per AI, alte prestazioni, uso generale e computing riservato, incluso il loro AI Hypercomputer, un’architettura di supercomputing progettata per massimizzare il ROI dell’AI. Google ha anche annunciato che le VM basate sulla serie EPYC 9005 saranno disponibili all’inizio del 2025.
  • Oracle Cloud Infrastructure ha condiviso come sfrutta le CPU AMD EPYC, gli acceleratori AMD Instinct e le DPU Pensando per fornire infrastrutture di elaborazione e networking veloci ed efficienti dal punto di vista energetico per clienti come Uber, Red Bull Powertrains, PayPal e Fireworks AI. OCI ha annunciato la nuova piattaforma di elaborazione E6 basata sui processori EPYC 9005.
  • Databricks ha evidenziato come i suoi modelli e flussi di lavoro funzionino senza problemi su AMD Instinct e ROCm e ha dichiarato che i test dimostrano che l’ampia capacità di memoria e le capacità di elaborazione delle GPU AMD Instinct MI300X contribuiscono a ottenere un aumento delle prestazioni di oltre il 50% sui modelli proprietari Llama e Databricks.
  • Il CEO di Microsoft Satya Nadella ha evidenziato la collaborazione di lunga data e la co-innovazione di Microsoft con AMD in tutte le sue offerte di prodotti e infrastrutture, con MI300X che offre prestazioni elevate su carichi di lavoro Microsoft Azure e GPT. Nadella e Su hanno anche discusso la profonda partnership delle aziende sulla roadmap di AMD Instinct e su come Microsoft sta pianificando di sfruttare le future generazioni di acceleratori AMD Instinct, tra cui la serie MI350 e oltre, per offrire prestazioni di leadership per dollaro per watt per applicazioni AI.
  • Meta ha spiegato in dettaglio come le CPU AMD EPYC e gli acceleratori AMD Instinct alimentano la sua infrastruttura di elaborazione attraverso distribuzioni e servizi AI, con MI300X che serve tutto il traffico live su Llama 405B. Meta sta inoltre collaborando con AMD per ottimizzare le prestazioni AI dal silicio, dai sistemi e dalle reti al software e alle applicazioni.
  • I principali OEM Dell, HPE, Lenovo e Supermicro stanno ampliando le loro gamme di processori AMD EPYC ad alte prestazioni e a basso consumo energetico con nuove piattaforme progettate per modernizzare i data center per l’era dell’intelligenza artificiale. 



Espansione di un ecosistema AI aperto

AMD continua a investire nell’ecosistema AI aperto e ad espandere lo stack software open source AMD ROCm con nuove funzionalità, strumenti, ottimizzazioni e supporto per aiutare gli sviluppatori a estrarre le massime prestazioni dagli acceleratori AMD Instinct e fornire supporto immediato per i principali modelli AI odierni. I leader di Essential AI, Fireworks AI, Luma AI e Reka AI hanno discusso di come stanno ottimizzando i modelli su hardware e software AMD.

AMD ha anche ospitato un evento per sviluppatori a cui hanno partecipato leader tecnici provenienti da tutto l’ecosistema degli sviluppatori di IA, tra cui Microsoft, OpenAI, Meta, Cohere, xAI e altri.
Presentazioni di leader ospitate dagli inventori di popolari linguaggi di programmazione IA, modelli e framework fondamentali per la trasformazione dell’IA in atto, come Triton, TensorFlow, vLLM e Paged Attention, FastChat e altri, hanno condiviso come gli sviluppatori stanno sbloccando le ottimizzazioni delle prestazioni dell’IA tramite linguaggi di programmazione indipendenti dal fornitore, accelerando i modelli sugli acceleratori AMD Instinct e hanno evidenziato la facilità d’uso del porting sul software ROCm e come l’ecosistema stia beneficiando di un approccio open source.

Abilitare la produttività aziendale con i PC AI
AMD ha lanciato i processori AMD Ryzen AI PRO serie 300, che alimentano i primi laptop Microsoft Copilot+ abilitati per l’azienda. La gamma di processori Ryzen AI PRO serie 300 estende la leadership di AMD in termini di prestazioni e durata della batteria con l’aggiunta di funzionalità di sicurezza e gestibilità di livello aziendale per gli utenti aziendali.

  • I processori Ryzen AI PRO serie 300, dotati delle nuove architetture AMD “Zen 5” e AMD XDNA 2, sono i processori commerciali più avanzati al mondo, offrendo le migliori prestazioni della categoria per una produttività senza pari con un NPU TOPS 55 leader del settore per le prestazioni AI, con il processore Ryzen AI 9 HX PRO 375 per elaborare attività AI localmente sui laptop Ryzen AI PRO.
  • Microsoft ha evidenziato come Windows 11 Copilot+ e la gamma Ryzen AI PRO 300 siano pronti per le esperienze di intelligenza artificiale di prossima generazione, tra cui nuove funzionalità di produttività e sicurezza.
  • I partner OEM, tra cui HP e Lenovo, stanno ampliando la loro offerta commerciale con nuovi PC basati sui processori Ryzen AI PRO serie 300; si prevede che entro il 2025 arriveranno sul mercato oltre 100 piattaforme.