Site icon Techbusiness

AMD Advancing AI 2024: ecco tutte le novità annunciate

AMD Advancing AI 2024: ecco tutte le novità annunciate thumbnail

Ciò che vi abbiamo presentato lo scorso venerdì è solo una piccola parte delle innovazioni che AMD ha presentato sul palco di Advancing AI 2024. Oggi vi presentiamo le altre importanti novità annunciate: gli acceleratori AI AMD Instinct MI325X, la DPU AMD Pensando Salina e il NIC AMD Pensando Pollara 400, e le nuove funzionalità del software stack ROCm.

Acceleratori e soluzioni di networking di nuova generazione: AMD soddisfa la sete di hardware dell’AI

L’intelligenza artificiale è una tecnologia che ha bisogno di hardware sempre più prestante per continuare a evolversi. AMD ha accolto la sfida, e ora risponde a questa esigenza con nuove soluzioni studiate per portare l’AI a un nuovo stadio evolutivo: la linea di acceleratori Instinct MI325X, il NIC Pensando Pollara 400, e la DPU Pensando Salina.

Una questione di istinto

Per i nuovi acceleratori AMD Instinct MI325X, costruiti sull’architettura CDNA 3, l’eccellenza è una questione d’istinto. L’azienda li ha ideati per essere estremamente efficienti nella gestione dei carichi di lavoro AI, siano essi addestramento dei modelli ex novo, fine-tuning o inferenza.

AMD AI Instinct MI325X
AMD AI Instinct MI325X

Il loro segreto? La memoria e la larghezza di banda. Con 256 GB di HBM3E (un’architettura di memoria tridimensionale ad alte prestazioni), gli acceleratori AI Instinct MI325X sono in grado di supportare un flusso di dati fino a 6 TB al secondo, pari a quasi 900 ore di video streaming in 4K. Inoltre, AMD Instinct MI325X batte la potente NVIDIA H200 in termini di prestazioni di calcolo su FP16 e FP8, con risultati fino a 1,3 volte superiori.

Queste prestazioni saranno presto vostre: gli acceleratori AMD Instinct MI325X sono attualmente pronti per la produzione nel quarto trimestre del 2024. E si prevede che saranno ampiamente disponibili presso un’ampia gamma di fornitori, tra cui Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo, Supermicro e altri a partire dal primo trimestre del 2025.

Ma non finisce qui: c’è anche altro all’orizzonte. Rinnovando il suo impegno per una cadenza di annunci annuale, AMD ha presentato in anteprima gli acceleratori di nuova generazione della serie AMD Instinct MI350. Questi, ora basati sull’architettura AMD CDNA 4, sapranno offrire prestazioni di inferenza 35 volte superiori rispetto agli acceleratori basati su AMD CDNA 3.

Scopri i prezzi con Amazon Prime da questo link. Qui i vantaggi!

Sia nella vita che nell’AI, le connessioni sono cruciali

L’infrastruttura tipica di un hyperscaler AI è composta di due parti: il front-end, che fornisce dati e informazioni a un cluster AI, e il back-end, che gestisce il trasferimento di dati tra acceleratori e cluster. Queste due parti vanno connesse da potente hardware in grado di garantire che CPU e acceleratori siano utilizzati in modo efficiente nell’infrastruttura. Qui entrano in gioco le due innovazioni di AMD, la DPU Pensando Salina per il front-end e il NIC Pensando Pollara per il back-end.

La data processing unit (DPU, un processore programmabile che si occupa di elaborare grandi quantità di dati) AMD Pensando Salina supporta una velocità di flusso dei dati fino a 400 Gigabit al secondo, rappresentando un componente critico nei cluster di rete front-end AI.

AMD Pensando Pollara 400, invece, alimentato da AMD P4, è il primo AI NIC (network interface controller, scheda di rete) del settore. Questa componente hardware è fondamentale per fornire prestazioni all’avanguardia, scalabilità ed efficienza della comunicazione da acceleratore ad acceleratore nelle reti back-end.

Entrambe le soluzioni, ora in fase di campionamento presso i clienti AMD, saranno disponibili nella prima metà del 2025.

AMD EPYC serie 9005: una mole di prestazioni ed efficienza

La leggendaria gamma di CPU, EPYC, può ora contare su nuove soluzioni di quinta generazione. Precedentemente battezzati con il nome codice “Turin”, questi processori sono stati studiati per offrire prestazioni all’avanguardia in ambito AI e cloud.

Dotati di architettura core Zen 5, compatibile con l’ampia piattaforma SP5, e offrendo un’ampia gamma di core (da 8 a 192), i processori AMD EPYC serie 9005 estendono le prestazioni e l’efficienza energetica delle generazioni precedenti.

Ma estendono di quanto? Abbastanza da battere tutta la concorrenza, con un’accelerazione fino a 5GHz in grado di offrire elaborazione fino al 28% più veloce, necessaria per mantenere le GPU alimentate con i dati per i carichi di lavoro AI più impegnativi.

I nuovi processori della serie EPYC definiscono un nuovo standard per l’H di HPC (high performance computing), con un miglioramento delle istruzioni per clock (IPC) fino al 17% per i carichi di lavoro aziendali e cloud, e un IPC fino al 37% superiore per l’AI rispetto alla serie precedente.

Oltre alle prestazioni, i processori di quinta generazione EPYC portano con loro anche grandi risparmi in termini di energia e spazio. Infatti, i clienti AMD hanno riportato una riduzione dell’energia utilizzata pari al 71%, con l’87% dei server occupati in meno.

Con il supporto di Cisco, Dell, Hewlett Packard Enterprise, Lenovo e Supermicro, dei principali ODM e fornitori di servizi cloud, l’intera gamma di processori AMD EPYC di quinta generazione è disponibile da oggi.

Non solo hardware: AMD amplia le sue offerte software ROCm

L’hardware però non è nulla senza software, il cervello che lo controlla. AMD non si fa mancare nulla, e ha colto l’opportunità dall’evento Advancing AI per annunciare nuove potenti funzionalità e capacità nello stack software aperto AMD ROCm.

L’azienda riconosce l’importanza del software aperto, e sta promuovendo all’interno della comunità open source il supporto dei motori di calcolo AMD nei framework, nelle librerie e nei modelli di intelligenza artificiale più diffusi, tra cui PyTorch, Triton, Hugging Face e molti altri.

Con ROCm, AMD introduce invece le funzionalità più recenti per supportare l’addestramento e l’inferenza su carichi di lavoro di AI generativa. La nuova versione include ora il supporto di funzionalità critiche per l’AI, come il datatype FP8, Flash Attention 3, Kernel Fusion.

Per maggiori informazioni, vi invitiamo a visitare il sito web ufficiale di AMD.

Offerta
AMD Processore Ryzen 7 5800X, 8 Core/16 Thread, Boost di Frequenza fino a 4.7 GHz
  • Velocità di base: 3,8 GHz, velocità di alimentazione ottima: fino a 4,7 GHz
  • Il processore da gioco d'élite
  • Con AMD Ryzen per i creatori di contenuti
  • Otto core della CPU
  • Numero di thread: 16
Exit mobile version