Site icon Techbusiness

HPE GreenLake lancia il primo servizio cloud di supercomputing per l’IA su larga scala

HPE GreenLake lancia il primo servizio cloud di supercomputing per l’IA su larga scala thumbnail

Hewlett Packard Enterprise (HPE) ha espanso il suo portafoglio HPE GreenLake per entrare nel mercato dell’intelligenza artificiale (AI) in cloud, offrendo ai suoi clienti, dalle piccole imprese alle grandi multinazionali, la possibilità di accedere on-demand a modelli linguistici di grandi dimensioni (LLMs) su una piattaforma di supercomputing multi-tenant. 

Questa nuova offerta, chiamata HPE GreenLake for Large Language Models, permette alle aziende di addestrare, mettere a punto e distribuire privatamente applicazioni di IA su larga scala, utilizzando una combinazione di software AI di HPE e supercomputer leader di mercato. Inoltre, HPE GreenLake for LLMs si basa su un’architettura AI-native progettata per eseguire un singolo carico di lavoro di training e simulazione AI alla massima capacità di calcolo, supportando attività di AI e HPC su centinaia o migliaia di CPU o GPU contemporaneamente.

Questa capacità consente di creare modelli più accurati e affidabili, accelerando il passaggio dal Proof of Concept alla produzione e risolvendo i problemi più rapidamente.

HPE GreenLake for Large Language Models (LLMs)

HPE GreenLake for LLMs sarà fornito in collaborazione con Aleph Alpha, una startup tedesca specializzata in AI, che fornirà agli utenti un LLM collaudato sul campo e pronto all’uso, chiamato Luminous, disponibile in diverse lingue, tra cui inglese, francese, tedesco, italiano e spagnolo. La soluzione permette ai clienti di personalizzare il modello in base ai propri dati e alle proprie conoscenze, per ottenere insight in tempo reale. Questo servizio consente alle aziende di sviluppare e commercializzare diverse applicazioni di AI per integrarle nei loro flussi di lavoro e creare valore sia in termini di ricerca che di business.

Si tratta della prima di una serie di applicazioni AI specifiche che HPE prevede di lanciare in futuro, che includeranno il supporto per la sanità e le life science, i servizi finanziari, la produzione e i trasporti. HPE è leader mondiale del supercomputing, in grado di abilitare livelli di performance e di ampiezza di applicazione senza precedenti per l’AI, tra cui l’abbattimento della barriera della velocità exascale con il supercomputer più veloce del mondo, Frontier.

“Siamo a un punto di svolta, un mutamento generazionale nel mercato dell’AI che cambierà in maniera altrettanto radicale il web, il mobile e il cloud”, ha dichiarato Antonio Neri, presidente e CEO di HPE. “HPE sta rendendo l’IA, un tempo appannaggio esclusivo dei laboratori governativi ben finanziati e dei giganti del cloud globale, accessibile a tutti, offrendo una gamma di applicazioni di IA, a partire da modelli linguistici di grandi dimensioni, che girano sui supercomputer collaudati e sostenibili di HPE. Ora le aziende possono adottare l’IA per sostenere l’innovazione, conquistare i mercati e raggiungere risultati straordinari con un servizio cloud on-demand che addestra, perfeziona e distribuisce i modelli su vasta scala e in modo responsabile”.

I vantaggi e le integrazioni di HPE GreenLake for LLMs

HPE GreenLake for LLMs sarà disponibile on-demand e funzionerà sui supercomputer HPE Cray XD, i supercomputer più potenti e sostenibili al mondo, eliminando la necessità per i clienti di acquistare e gestire un proprio supercomputer, generalmente molto costoso, complesso e che necessita di competenze specifiche. 

L’offerta si avvale di HPE Cray Programming Environment, una suite software completamente integrata disegnata per ottimizzare le applicazioni HPC e AI, con una serie completa di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice. Inoltre, questa piattaforma di supercomputing fornisce il supporto per il software AI/ML di HPE, che comprende HPE Machine Learning Development Environment per addestrare rapidamente modelli su larga scala e HPE Machine Learning Data Management Software per integrare, tracciare e verificare i dati con funzionalità AI riproducibili per generare modelli affidabili e accurati.

“Utilizzando i supercomputer e il software AI di HPE abbiamo addestrato in modo efficiente e rapido Luminous, un modello linguistico di grandi dimensioni per organizzazioni che operano in settori critici come banche, ospedali e studi legali, da utilizzare come assistente digitale per accelerare il processo decisionale e risparmiare tempo e risorse”, ha dichiarato Jonas Andrulis, fondatore e CEO di Aleph Alpha. “Siamo orgogliosi di essere partner di lancio di HPE GreenLake for Large Language Models e siamo impazienti di espandere la nostra collaborazione con HPE per portare Luminous in cloud e offrirlo come servizio ai nostri clienti finali e alimentare nuove applicazioni per le iniziative di business e di ricerca”.

Disponibilità

Gli ordini per HPE GreenLake per LMMs sono già aperti e la soluzione sarà disponibile in Nord America entro la fine del 2023 e in Europa all’inizio del 2024.

HPE ha anche presentato i nuovi server HPE ProLiant Gen11, progettati per supportare i workload AI, grazie all’integrazione di GPU avanzate. I server HPE ProLiant DL380a e DL320 Gen11 offrono prestazioni di inferenza AI superiori di oltre 5 volte rispetto ai modelli precedenti, consentendo di analizzare e interpretare grandi quantità di dati in tempo reale.

Infine, HPE Services propone un portafoglio completo di servizi per accompagnare le imprese nel loro percorso verso l’AI. I servizi includono la definizione della strategia e della progettazione, l’operatività e la gestione delle soluzioni AI, con l’obiettivo di ottimizzare i risultati di business e creare vantaggi competitivi.

Exit mobile version