AziendeScenario

Snowflake presenta un LLM aperto per il settore enterprise

Il mondo dell’intelligenza artificiale (AI) e del machine learning (ML) è in costante evoluzione, e il recente annuncio di Snowflake riguardo a Snowflake Arctic è un passo significativo in questa direzione. Snowflake Arctic è stato progettato per essere un large language model (LLM) aperto e all’avanguardia. Questo è in grado di offrire un’efficienza e un’intelligenza senza precedenti su vasta scala.

Rappresentazione di modello LLM

Ecco Snowflakes Arctic, il Large Language Model per le aziende

Prima di immergerci nei dettagli di Arctic, è importante capire il contesto in cui questo modello si inserisce. Secondo un recente report di Forrester, una percentuale significativa di responsabili delle decisioni aziendali ha adottato l’AI generativa come parte della strategia organizzativa. Questo indica un crescente interesse per modelli di intelligenza artificiale in grado di generare linguaggio naturale e comprendere il contesto delle conversazioni.

Sridhar Ramaswamy, CEO di Snowflake, durante la presentazione di Snowflake Arctic ha dichiarato che questo nuovo prodotto rivoluzionerà l’industria dell’AI. Arctic sarà in grado di offrire un livello di intelligenza ed efficienza che si posiziona al vertice del settore. Sridhar Ramaswamy ha concluso dicendo: “Come Snowflake, stiamo ridefinendo gli standard di ciò che l’intelligenza artificiale open source può raggiungere“.

Rappresentazione del motto di Snowflake

Che cos’è in grado di fare Snowflake Arctic

Quello che rende Arctic un’innovazione rivoluzionaria è la sua natura aperta. Snowflake ha deciso di rilasciare il modello sotto licenza Apache 2.0, consentendo un uso senza restrizioni per scopi personali, di ricerca e commerciali. Questa mossa non solo promuove la collaborazione e l’innovazione nell’ambito dell’AI, ma stabilisce anche un nuovo standard di apertura per la tecnologia enterprise. Le novità non finiscono di certo qui, infatti, Arctic offre una gamma diversificata di modelli di codice e opzioni di inferenza e formazione altamente flessibili.

Questo consentirà agli utenti di avviare rapidamente la distribuzione e la personalizzazione di Arctic utilizzando i propri framework preferiti. Questi includono NVIDIA NIM con NVIDIA TensorRT-LLM, vLLM e Hugging Face. Inoltre, per chi desidera un utilizzo immediato, Arctic è disponibile per l’inferenza serverless in Snowflake Cortex, un servizio completamente gestito che offre soluzioni di machine learning e AI all’interno del Data Cloud di Snowflake. Oltre a Hugging Face, i clienti possono accedere ad altri modelli e cataloghi come Lamini, Microsoft Azure, NVIDIA API Catalog e Together.

Rappresentazione dell'intelligenza offerta da Snowflake Arctic

L’importanza di una gestione efficace delle risorse

Arctic garantisce un livello di intelligenza e al contempo un uso corretto ed efficace delle risorse. Il team di ricerca sull’AI di Snowflake, ha realizzato Arctic in meno di tre mesi e con un costo di formazione significativamente inferiore rispetto ai modelli simili. Grazie a questo impegno strategico, Snowflake sta stabilendo nuovi standard di velocità nell’addestramento dei modelli enterprise open source. Questo consentirà agli utenti di creare soluzioni su misura con un’efficienza ottimale su vasta scala.

Il design differenziato dell’architettura Mixture-of-Experts (MoE) di Arctic contribuisce a migliorare sia i processi di addestramento che le prestazioni del modello. La sua composizione dei dati, attentamente progettata per rispondere alle esigenze aziendali, assicura risultati di alta qualità. Con l’abilitazione di 17 dei 480 miliardi di parametri contemporaneamente, Arctic ottiene un’efficienza senza precedenti nei token. In particolare, rispetto ad altri modelli come DBRX e Llama, Arctic attiva circa il 50% e l’75% in meno di parametri durante l’inferenza o l’addestramento. Inoltre, Arctic supera altri modelli aperti nei test di codifica e generazione di SQL, garantendo nel contempo ottime prestazioni nella comprensione del linguaggio naturale.

Rappresentazione dell'efficienza offerta da Snowflake Arctic

L’innovazione AI per tutti gli utenti

Snowflake si impegna costantemente ad accelerare l’innovazione nel campo dell’AI per tutti i suoi utenti. Fornisce alle aziende non solo la base di dati necessaria, ma anche i blocchi costruttivi avanzati per sviluppare applicazioni di AI e ML. Grazie all’accesso a Snowflake Cortex, Arctic aumenterà la capacità dei clienti di creare app AI, tutto all’interno di un ambiente sicuro come il Data Cloud.

La famiglia di modelli Snowflake Arctic non si limita al solo Arctic LLM, ma include anche Arctic embed, annunciato di recente. Questa serie di modelli di text embedding, disponibili per la comunità open source con licenza Apache 2.0, offre prestazioni di retrieval superiori a una frazione delle dimensioni dei modelli simili. Ottimizzati per l’utilizzo in combinazione con LLM come parte di servizi di Retrieval Augmented Generation o ricerca semantica. Questi modelli di embedding rappresentano una soluzione potente ed economica.

Inoltre, Snowflake offre accesso ai più recenti e potenti LLM del Data Cloud, tra cui le recenti aggiunte dei modelli Reka e Mistral AI. Attraverso una partnership ampliata con NVIDIA, Snowflake integra la piattaforma accelerata full-stack di NVIDIA nel suo Data Cloud. Fornendo, quindi una combinazione sicura di infrastrutture e capacità di calcolo per massimizzare la produttività dell’AI. Snowflake Ventures continua a investire in società come Landing AI, Mistral AI, Reka e altre, confermando l’impegno di Snowflake nell’aiutare i clienti a trarre valore dai propri dati aziendali utilizzando LLM e AI.

Da non perdere questa settimana su Techbusiness

🍎Indeed: che impatto avrà l’Intelligenza Artificiale sul futuro del lavoro?
☄️Data breach: le 8 cause principali della fuga di informazioni
🖥️Lavoro ibrido: i numeri del fenomeno e le soluzioni integrate di Logitech e Microsoft
🖨️FUJIFILM annuncia la serie Apeos, l'innovativa linea di stampanti multifunzione
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Gabriele Magenta Biasina

Appassionato di tecnologia, computer e videogiochi, e attualmente studente di informatica. Sempre aggiornato sulle ultime tendenze e sviluppi in questi campi, mi piace sperimentare nuove tecnologie e scoprire nuovi titoli. Creativo e con ottime capacità di problem solving, sono costantemente alla ricerca di nuove sfide e opportunità di apprendimento.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button