CloudNewsSoftware

Hyperscale Data Center e l’archivazione del futuro

La nuova analisi mostra come le aziende possano risparmiare e aumentare l'efficienza

Gli Hyperscale Data Center possono aiutare le aziende non solo ad aumentare l’efficienza, ma anche ad abbassare i costi: questo quanto emerge dal più recente report di Quantum. Che spiega come le organizzazione possano gestire i propri dati nella maniera più conveniente.

Quantum: gli Hyperscale Data Center aiutano ad abbattere i costi

Quantum, aziende che offre software per gestire e arricchire i dati in tutto il loro ciclo di vita, ha pubblicato un nuovo studio che mostra come gli Hyperscale Data Center non solo siano una soluzione potente e flessibili, ma hanno anche costi inferiori.

Amazon Prime: 30 giorni gratis, Prova subito!

L’importanza delll’archiviazione

Quantum ci spiega che negli ultimi 30 anni i dati sono diventati parte integrante di aziende, organizzazioni e governi. Molti di questi dati dovranno restare archiviati per un tempo indeterminato: non solo terabytes, ma peta e potenzialmente exabytes di dati. Trovare una soluzione di archiviazione moderna (ed economicamente conveniente) h quindi un valore strategico.

Entro il 2025, le aziende che vogliono restare competitive dovranno adottare una soluzione intelligente per archiviare i dati.

Il backup e l’archiviazione sono processi differenti

Molte aziende confondo i backup con l’archiviazione. Ma si tratta di strategie diverse, con storie e finalità diverse.

software defined data center hpe aruba-min

Quantum ci spiega che il backup dei dischi fa parte del lavoro di diverse aziende ormai da cinquant’anni, mentre l’archivazione dati sta diventando un processo importante negli ultimi anni.

Il backup fa copie dei dati, che possono essere utilizzati per ripristinare le copie originali se danneggiate o altrimenti perse. Un processo ciclico, che di solito ha una breve durata: dal giorno stesso ai quattro mesi, a seconda della tipologia di azienda.

L’archiviazione invece prevede il trasloco dei dati che non sono più attivamente in utilizzo. Ma che restano importanti per le aziende. L’obiettivo quindi è liberare risorse e spazio per le attività quotidiane, archiviando i dati non utilizzati (di solito in modalità solo lettura, per molte aziende).

Questi due processi vanno spesso invece di pari passo. L’85% raramente utilizza i dati passati, ma chi sceglie un archivio attivo (salvando dati in HDD o SSD dal rapido accesso) può recuperare dati passati con rapidità. Questo permette anche di ridurre le finestre di backup, deduplicando solo dati più recenti e di immediata utilità.

I dati da archiviare e gli Hyperscale Data Center

Secondo le ultime stime, nel 2025 genereremo a livello gloable 175 zettabytes di dati. Una percentuale fra il 60 e l’80% di questi dati servirà per l’archiviazione. Ma spesso sarà salvata su HDD poco accessibili, azzerando il valore di quei dati se non in casi limite. Questo perché moltissimi database restano organizzati senza una strategia chiara a tutta l’azienda: documenti, video, audio e dati storici finiscono spesso nello stesso storage.

Secondo Quantum, invece, dovrebbero esistere quattro standard per classificare i dati. Quelli ad alta performance (OLTP), da tenere in NVM. Quelli mission critical, che hanno bisogno di buone performance (per esempio su HDD). E poi gli archivi attivi, che sono di solito il 20% del totale, e quelli archiviati a lungo termine, di solito il 60% del totale.

Questi dati d’archivio potrebbero essere salvati su “nastro“, che sebbene abbia un sapore retro diventerà la scelta di molti Hyperscaler Data Center nei prossimi anni. Non rimpiazzerà HDD e SSD, ma essendo più economico da comprare e operare, garantendo inoltre fino a 2,5 volte la compressione dati rispetto a queste unità, potrebbe diventare la scelta vincente.

Le soluzioni degli Hyperscale Data Center

lenovo data center edge-to-cloud

Nel 2020 Quantum ha contato 570 Hyperscale Data Center nel mondo, il tipo di data center in più rapida crescita in assoluto. E per valutare la crescita globale dei data center, basta pensare entro il 2030 passeranno da consumare il 2% dell’energia elettrica globale a consumarne l’8%.

Questi data center affrontano il rischio di dover gestire quantità di dati enormi, con costi operativi potenzialmente troppo onerosi. Tanto che secondo Quantum, “aggiungere dischi è tattico, aggiungere nastri è strategico”.

Architetture a nastro possono fornire il più basso TCO, aumentando al tempo stesso la sicurezza informatica e l’affidabilità.

Quantum tuttavia ci spiega che per fornire il giusto servizio, gli Hyperscale Data Center del futuro dovranno fornire software che traslochi i dati in maniera intelligente, classificandoli e inserendo metadati per ritrovarli efficacemente. Dovranno inoltre avere tecnologie a nastro altamente scalabili, architetture RAIL (Redundant Arrays of Intelligent Libraries) e rindondanze in diverse località per assicurare che i dati non siano persi.

Da non perdere questa settimana su Techbusiness

✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Stefano Regazzi

Il battere sulla tastiera è la mia musica preferita. Nel senso che adoro scrivere, non perché ho una playlist su Spotify intitolata "Rumori da laptop": amo la tecnologia, ma non fino a quel punto! Lettore accanito, nerd da prima che andasse di moda.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button