Si è tenuto pochi giorni fa l’evento annuale di NetApp, INSIGHT Xtra, in cui la multinazionale specializzata in sistemi di storage ad alte prestazioni ha fatto il punto sulla situazione del mercato e ha illustrato la sua visione sul futuro dei dati e dell’AI. Nella cornice del data center di Aruba a Ponte San Pietro, in provincia di Bergamo, a farlo è stato direttamente il CEO, George Kurian, dopo un’introduzione di Davide Marini, Country Manager per l’Italia.
Le sfide legate ai dati
Nella visione di NetApp, la principale sfida relativa ai dati che bisogna affrontare oggi riguarda la loro dimensione, in costante crescita anche grazie all’AI generativa. Inoltre, i dati rappresentano oggi il bene più strategico per ogni azienda e, pertanto, sono anche costantemente sotto attacco.
La tecnologia ci ha fatto transitare dai data silo al cloud e multicloud ibridi e infine all’intelligenza artificiale. Fino ad ora, un approccio reattivo basato su data fabric è stato sufficiente. Tuttavia, con l’emergere di una nuova generazione tecnologica, quella dell’intelligenza artificiale, è necessario passare a un sistema proattivo per la gestione e la difesa dei dati.
L’obiettivo di NetApp, in questo contesto, è semplificare le infrastrutture per la gestione dei dati dei suoi clienti. Questo permetterà un controllo uniforme e all’avanguardia di volumi di dati sempre più consistenti.
La soluzione di NetApp
Quello che NetApp ha ribadito durante INSIGHT Xtra è che la soluzione tecnologica risiede in un’infrastruttura dati consistente e integrata. Diversamente, non è possibile far fronte a dati la cui crescita continua ad accelerare a ritmo costante. Quindi, la velocità con cui i dati crescono non è diminuita, ma sono cambiati radicalmente algoritmi e approcci di AI che usiamo per analizzarli. Perché ora abbiamo capito che l’uniformità e l’unificazione dei dati sono aspetti strategici per supportare il business di un’azienda.
Il modo di raggiungere questo obiettivo, secondo NetApp, è quello di adottare un’infrastruttura dati intelligente. Un’infrastruttura che si appoggia su tre principi.
Innanzitutto, un sistema di storage unificato: un sistema di archiviazione dati in grado di uniformare object storage, file storage e data storage in un’unica piattaforma software. Questo permette di rendere uniformi le operazioni e le metodologie di accesso, ottimizzando anche i costi.
In secondo luogo, i sistemi devono essere intelligenti, il che significa portare l’intelligenza artificiale il più vicino possibile ai dati. Secondo NetApp, questo non solo è il modo più scalabile di risolvere il problema, ma anche quello in grado di garantire al meglio la sicurezza dei dati. Avere intelligenza artificiale a ridosso dello storage, infatti, consente di essere più efficaci nell’identificare e nel porre rimedio a eventuali problemi di sicurezza.
Ultimo, ma non per importanza, identificare dei casi d’uso per sviluppare soluzioni a problemi specifici. Queste soluzioni possono essere fornite al cliente, pronte per essere integrate nella sua infrastruttura in modo scalabile e sostenibile.
La nostra strategia si concentra sulla costruzione di un’infrastruttura dati intelligente che aiuta le aziende a estrarre valore dai loro dati. I nostri recenti annunci di prodotti e iniziative strategiche sottolineano il nostro impegno a fornire valore e a supportare i nostri clienti mentre navigano nel complesso mondo dell’analisi dei dati.
— George Kurian, CEO di NetApp
Approfondimento con i giornalisti
Nella seconda parte dell’evento, Davide Marini e George Kurian hanno incontrato i giornalisti per approfondire i temi trattati. Durante la discussione sono emersi spunti di riflessione molto interessanti.
La relazione tra AI e sicurezza del dato
L’Intelligenza Artificiale può essere un ottimo strumento di difesa, ma si è rivelata anche un valido aiuto per chi attacca.
La posizione di NetApp su questo argomento è quella di stare sempre un passo avanti, offrendo ai propri clienti un sistema di identificazione delle minacce in grado di attivarsi in tempo reale. Inoltre, l’azienda è fiduciosa di poter creare copie dei dati che non possano essere manomesse. La chiave di tutto questo sono ovviamente le prestazioni del sistema nella sua globalità. Per questo motivo, uno degli obiettivi dell’azienda è costruire un’architettura con una scalabilità senza precedenti, sia in termini di storage sia in termini di prestazioni.
L’uso di dati riservati per l’addestramento dei modelli
Un altro punto di discussione è stato l’uso dei dati delle aziende per l’addestramento dei modelli di AI. Al momento, sembra essere un argomento che solleva molti dubbi.
Il feedback di NetApp è che la maggior parte delle aziende enterprise sta ancora muovendo i primi passi. Ciononostante, iniziano ad avere una visione chiara di come l’AI possa essere di aiuto al business. Di conseguenza, ci sono molti progetti in fase di avvio, e verrà effettuata una selezione basata sui risultati più promettenti. Questo permetterà agli esperti di identificare quali siano i dati più significativi da utilizzare. Di fatto, si sta osservando che le aziende che operano in settori regolamentati stanno procedendo più velocemente rispetto alle altre, semplicemente perché i loro dati sono già ben organizzati.
La sostenibilità della gestione del dato
Un uso sempre più massiccio dell’AI per la gestione dei dati, combinato con la richiesta energetica tipica di quest’ultima, potrebbe rendere non energeticamente sostenibile la gestione dei dati in un prossimo futuro.
La posizione di NetApp su questo argomento è quella di fare uno sforzo per aumentare il più possibile l’efficienza dei sistemi. Ci sono, secondo l’azienda, varie vie per raggiungere questo obiettivo.
Innanzitutto, migliorare l’efficienza generale adottando le nuove generazioni di processori per il calcolo, nonché nuove tecnologie di memorizzazione e trasferimento dei dati.
In secondo luogo, l’azienda vuole aiutare i propri clienti a individuare quali dati non sia necessario mantenere. Questa quantità si stima essere attorno al 60%, per cui la loro eliminazione rappresenterebbe un risparmio energetico consistente. Oltre a questo, è utile anche identificare i dati utilizzati con minore frequenza per dislocarli nel datacenter di un hyperscaler, che generalmente è più energeticamente efficiente rispetto a quello gestito da una singola azienda.
Infine, ma non per importanza, NetApp sta cercando di sviluppare un sistema di cache per le query a un LLM. Una popolazione di utenti che lavora sullo stesso argomento tende a fare domande piuttosto omogenee. Con una cache, diventa possibile recuperare il risultato delle elaborazioni precedenti senza richiedere all’LLM di utilizzare ulteriore energia per rifare la stessa inferenza.
- The Art of Service - NetApp Publishing (Autore)
L’appuntamento è, a questo punto, per l’edizione 2025 di INSIGHT Xtra dove speriamo che NetApp ci possa aggiornare sull’andamento dei suoi progetti e su come l’industria si è evoluta durante l’anno che sta iniziando.