Aziende

L’impegno di AWS per fornire un’infrastruttura per l’AI generativa più efficiente

Nonostante possa sembrare che l’intelligenza artificiale generativa, che ora sta rivoluzionando il nostro modo di pensare e lavorare, sia spuntata dal nulla, in realtà è frutto di anni di innovazione e ricerca: nel caso di Amazon, ben 25 anni! E Amazon Web Services (AWS) ha intenzione di continuare a innovare e ottimizzare la propria infrastruttura per supportare l’AI generativa su una scala sempre più grande. Ce ne parla Prasad Kalyanaraman, VP of Infrastructure Services di AWS.

Fornire un’infrastruttura solida per lo sviluppo dell’intelligenza artificiale: le strategie di AWS

Nel corso degli anni, AWS è diventato punto di riferimento per migliaia di aziende, che utilizzano i servizi AI e ML offerti dal colosso cloud per trasformare le esperienze dei loro clienti. Ma non solo: molti dei principali modelli di AI generativa vengono addestrati ed eseguiti proprio su AWS. Questi immensi carichi di lavoro sono sostenuti dall’infrastruttura globale di AWS, che include i loro data center, la rete globale e i chip progettati appositamente per l’AI.

Il mondo si sta trasformando, una rete neurale alla volta, e AWS continua a migliorare la propria infrastruttura per offrire nuove innovazioni nel campo dell’AI generativa. Ecco le quattro strategie che l’azienda sta adottando per raggiungere questo obiettivo.

Fornire reti su larga scala a bassa latenza

I modelli di intelligenza artificiale richiedono ingenti quantità di dati per essere addestrati e funzionare in maniera efficiente. Inoltre, più grande e complesso è il modello, più lungo sarà il tempo di addestramento. Ma soprattutto, una rete tradizionale non è in grado di garantire la bassa latenza e la scala necessarie per l’addestramento dei modelli di AI generativa.

Prasad Kalyanaraman, VP of Infrastructure Services di AWS
Prasad Kalyanaraman, VP of Infrastructure Services di AWS

AWS si sta concentrando proprio sul ridurre la latenza della rete e migliorare le prestazioni computazionali al fine di garantire la migliore esperienza possibile ai propri clienti. L’approccio adottato da AWS è unico, avendo costruito i dispositivi di rete e sistemi operativi di rete per ogni livello dello stack, dalla scheda di interfaccia di rete, allo switch top-of-rack, alla rete del data center, fino al router rivolto verso Internet e ai router backbone. Questo garantisce un’infrastruttura solida e affidabile, che permette a AWS si innovare più velocemente rispetto alla concorrenza.

Nel 2019, inoltre, AWS ha introdotto Elastic Fabric Adapter (EFA), un’interfaccia di rete progettata su misura dall’azienda che offre funzionalità di bypass del sistema operativo alle istanze Amazon EC2. Questa soluzione innovativa permette ai clienti di eseguire applicazioni che richiedono alti livelli di comunicazione tra nodi su larga scala. EFA utilizza il Scalable Reliable Datagram (SRD), un protocollo di trasporto di rete ad alte prestazioni e bassa latenza progettato in casa per sistemi AWS.

Naviga in sicurezza con Nord VPN – Ottieni da questo link il 69% di Sconto

Negli ultimi anni, AWS si è mobilitata per realizzare nuove reti per i carichi di lavoro di AI generativa. La più nuova di queste, UltraCluster 2.0, supporta oltre 20.000 GPU con una riduzione della latenza del 25%, ed è stata realizzata in soli sette mesi: obiettivo raggiunto solo grazie all’hardware e al software personalizzato.

Migliorare continuamente l’efficienza energetica dei data center

Addestrare ed eseguire modelli AI è estremamente dispendioso in termini di energia: un ingente costo non solo economico, ma anche ecologico. Per questo AWS ritiene sia vitale migliorare l’efficienza dei data center e dei sistemi utilizzati per i carichi AI.

Un obiettivo nobile, che AWS sta cercando di raggiungere. Come? In primo luogo, ottimizzando la longevità e le prestazioni del flusso d’aria dei sistemi di raffreddamento nei data center. Ma anche utilizzando metodi di modellazione avanzati per prevedere le performance di un data center prima della costruzione e ottimizzando il posizionamento dei server nei rack e nelle sale dati, così da massimizzare l’utilizzo dell’energia. E infine, costruendo data center meno carbon-intensitive, utilizzando cemento e acciaio a basso impatto carbonico e passando all’olio vegetale idrotrattato per i generatori di emergenza.

Questi sforzi stanno dando i loro frutti. Stando a recenti ricerche condotte da Accenture, infatti, l’infrastruttura di AWS è risulta essere fino a 4,1 volte più efficiente rispetto a soluzioni on-premises. Ma questi risultati non sono abbastanza, in quanto la domanda energetica continua a crescere in modo esponenziale.

I cervelli che stanno rendendo possibile la rivoluzione AI, ovvero i chip AI, generano molto più calore rispetto ad altri chip. Questo significa che i nuovi server AI che richiedono più di 1.000 watt di potenza per chip dovranno essere raffreddati con soluzioni a liquido. Nessun problema per AWS, che ha già pensato a soluzioni di raffreddamento ad aria ottimizzate insieme a capacità di raffreddamento a liquido per permettere ai chipset AI più potenti di funzionare in modo ottimale. Questo design di raffreddamento flessibile e multimodale permette di ottenere il massimo delle prestazioni e dell’efficienza, sia che si eseguano carichi di lavoro tradizionali che modelli AI o ML.

Rappresentazione astratta di AWS

Adottare pratiche di security-by-design

Come abbiamo citato (e ben sappiamo), i modelli AI hanno bisogno di ingenti quantità di dati per essere addestrati. Qui sorge spontanea la domanda: come proteggere i dati sensibili durante la fase di trasporto da azienda a data center e nella fase di addestramento?

AWS risponde a questa domanda con azioni concrete, per garantire un’infrastruttura più solida e sicura possibile. In primis, AWS fornisce isolamento completo dei dati AI dall’operatore dell’infrastruttura, il che significa che l’operatore non deve avere alcuna possibilità di accedere ai contenuti dei clienti e ai dati AI, come la dimensione dei modelli e i dati elaborati con i modelli. Inoltre, fornisce la possibilità ai clienti di isolare i dati AI da loro stessi, garantendo che i dati rimangano inaccessibili agli utenti e ai software dei clienti. Infine, AWS protegge le comunicazioni infrastrutturali, in modo che le comunicazioni tra i dispositivi nell’infrastruttura dell’acceleratore ML siano protette.

Per una protezione ancora più efficiente e avanzata, nel 2017 AWS ha lanciato il sistema AWS Nitro, una soluzione che protegge il codice e i dati dei clienti da accessi non autorizzati durante l’elaborazione. Tramite questa funzionalità, i clienti possono crittografare i dati sensibili dell’intelligenza artificiale utilizzando chiavi di loro proprietà e controllo, archiviarli in un luogo di loro scelta e trasferirli in modo sicuro.

Hardware creato appositamente per i carichi AI

Ultimo, ma non meno importante, è l’hardware creato da AWS appositamente per alimentare l’AI generativa. Negli ultimi anni, l’azienda ha progettato dei nuovi chip AI, tra cui AWS Trainium e AWS Inferentia. Si tratta di chip in grado di offrire prestazioni superiori rispetto alla concorrenza e al contempo più efficienti sotto il punto di vista energetico.

In particolare, AWS Trainium è progettato per accelerare e ridurre il costo dell’addestramento dei modelli ML fino al 50% rispetto ad altre istanze Amazon EC2, mentre AWS Inferentia consente ai modelli di generare inferenze più rapidamente e a costi inferiori, con prestazioni di prezzo fino al 40% migliori rispetto ad altre istanze Amazon EC2.

Infine, per fornire ai propri clienti hardware ancora più avanzato, AWS collabora con partner leader del settore come NVIDIA, Intel, Qualcomm e AMD.

E AWS non ha sicuramente intenzione di fermarsi qui. Chissà cosa ci aspetta al prossimo AWS Summit… restate con noi!

Da non perdere questa settimana su Techbusiness

📀 Lidl è anche un fornitore di servizi cloud
Vmware Explore 2024: Broadcom rivoluziona il mondo del cloud e dell'AI annunciando importanti novità
🔐AI generativa: una nemica o una alleata per la cybersecurity?
📶Le reti 5G giocano un ruolo fondamentale nello sviluppo dello smart manufacturing
🎙️Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Autore

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button