Rainer W. Kaese, Senior Manager Business Development, Storage Products Division at Toshiba Electronics Europe GmbH fa il punto sull’evoluzione dei sistemi di storage e sulle soluzioni necessarie, e più idonee, per affrontare archiviare petabyte di dati generati della macchine.
Secono il manager, il volume di dati da gestire, nel corso degli ultimi anni, si è visibilmente moltiplicato, ma il vero boom non è ancora stato raggiunto. Infatti ora, con l’avvento dell’era dell’IoT sono macchine, dispositivi e sensori a generare la maggior parte dei dati, mentre in precedenza erano documenti, foto e video. Non stupisce il fatto che ci sono più device IoT che persone, e questi generano informazioni molto più velocemente rispetto a quanto possa fare una persona. Ad esempio una sola vettura a guida autonoma, per fare un esempio, genera svariati terabyte di dati al giorno.
Oltre alla guida autonoma e alla ricerca scientifica, fra i principali responsabili della crescita del volume di dati da archiviare ci sono la videosorveglianza e l’industria. IDC stima che la quantità di dati generati a livello globale passerà dai 45 zettabyte dello scorso anno ai 175 zettabyte entro il 2025. In soli 6 anni, è stata generata una quantità di informazioni tre volte superiore a tutti i dati che esistevano nel 2109, più precisamente 130 zettabyte, cioè 130 miliardi di terabyte.
Una grande quantità di queste informazioni viene elaborata nel momento in cui viene creata, come nel caso dei sensori installati sui veicoli a guida autonoma o negli stabilimenti industriali (edge computing), motivo per cui in questi scenari è essenziale ottenere risultati veloci, facilmente accessibili e reagire in tempo reale. E, di conseguenza, qui “il tempo necessario” a trasferire le informazioni per un’analisi centralizzata diventa inaccettabile. Bisogna però considerare che lo spazio di archiviazione on-site, così come la capacità di elaborazione, sono limitati e prima o poi sarà necessario spostare queste informazioni nei data center, dove potranno essere processate e unite con dati acquisiti da altre fonti, per essere poi analizzate ulteriormente e infine archiviate.
Archiviare petabyte di dati: le sfide da affrontare
Da tutto questo emerge cone sia enorme la sfida per le infrastrutture di storage delle aziende e degli istituti di ricerca che devono essere in grado di recepire un flusso costante di informazioni e archiviarle in maniera sicura. Per questo è importante che queste aziende e centri di ricerca dispongano di architetture in grado di offrire una capacità di archiviazione pari a svariate dozzine di petabytes costantemente espandibili. Queste architetture devono inoltre basarsi su hardware per lo storage in grado di soddisfare la richiesta in costante crescita. L’altra faccia della medaglia è la banda necessaria per gestire la quantità di dati a cui facciamo riferimento che al momento, secondo Rainer W. Kaese, è insufficiente e i costi inaccettabili.
Un esempio di come le infrastrutture di storage e i modelli di approvvigionamento dello storage stesso potrebbero essere nell’era dell’IoT arriva da istituti di ricerca come il CERN, che già oggi elaborano e archiviano enormi quantità di informazioni. L’Organizzazione europea per la ricerca nucleare continua ad aumentare la capacità di archiviazione del suo data center, con centinaia di hard disk di ultima generazione. I 100 mila HDD presenti al CERN sono in grado di archiviare qualcosa come 350 petabyte di dati.
Il prezzo fa sempre la differenza
L’esempio del CERN conferma la validità e il primato degli hard disk quando si tratta di archiviare enormi quantità di dati. Il disco fisso continua ad essere il supporto più economico in grado di soddisfare due requisiti chiave: disponibilità di spazio e facilità di accesso. E seppur gli SSD stiano calando di prezzo, c’è da dire che lo stesso sta accadendo per gli HDD. Questi ultimi sono inoltre in grado di offrire un livello di prestazioni adeguato ai requisiti degli ambienti dov’è richiesto uno storage high-capacity. Un singolo HDD può essere più lento di un SSD, ma utilizzando insieme diversi hard disk ad alta velocità è possibile ottenere valori di IOPS molto elevati, in grado di rispettare i requisiti delle applicazioni di analytics.
Alla fine, il prezzo resta l’unico vero e proprio criterio di scelta, soprattutto perché i volumi di dati da archiviare nel mondo IoT possono essere compressi solo in minima parte. Considerata la quantità di informazioni generate dall’IoT e la grande quantità di dischi necessari per gestirla, l’affidabilità degli hard disk diventa di fondamentale importanza. Non tanto per il rischio di perdite di dati, che possono essere mitigate con appropriate strategie di backup, ma per la manutenzione dell’hardware. Con un AFR (Annualised Failure Rate) dello 0,7% al posto dello 0,35% ottenuto dal CERN una soluzione di storage basata su 100.000 dischi richiederebbe la sostituzione di 350 hard drive ogni anno, praticamente un hard disk al giorno.
Gli hard disk non cederanno il passo agli SSD ancora per molti anni
Nei prossimi anni non ci saranno grandi stravolgimenti e lo storage dei dati provenienti dai sistemi IoT sarà affidato prevalentemente agli hard disk. La capacità di produzione di SSD è ancora troppo bassa per poter competere con gli hard disk. Per archiviare la quantità di petabyte di dati generati usando solo SSD, la produzione di unità flash dovrebbe crescere in maniera significativa.
Rainer W. Kaese, spiega che se si considera che la costruzione di un singolo stabilimento per la produzione di flash può costare miliardi di euro, è facile intuire la difficoltà economica di rendere questa tecnologia competitiva.
La produzione di hard disk, può inoltre essere aumentata con più facilità. Senza contare gli importanti passi in avanti avvenuti nel settore degli hard disk, come l’impiego delle tecnologie HAMR (Heat-Assisted Magnetic Recording) e MAMR (Microwave-Assisted Magnetic Recording) che stanno contribuendo ad aumentare le capacità dei dischi. Gli esperti ritengono che la capacità di archiviazioni degli hard disk continuerà a crescere al ritmo di 2 terabyte all’anno, agli stessi costi attuali. Per questo motivo IDC prevede che per la fine del 2025, più dell’80% della capacità di archiviazione per i data center e sistemi edge enterprise continuerà a essere costituita da hard disk. Gli SSD e altri supporti flash peseranno solo per il 20%.
- Dimensione memoria buffer: 64 MB
- Dimensioni: 8,9 cm (3,5")
- Interfaccia: SATA da 6 Gb/s
- Byte per settore: 4096
- Caratteristiche: senza alogeni, tecnologia Advanced Format, Smart
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techbusiness
📈 SAP NOW 2024 l'intelligenza artificiale per il business conquista Milano💸 Come calcolare il ritorno sugli investimenti nell’Intelligenza Artificiale
👨⚖️ Direttiva NIS2 e cybersecurity nelle PMI italiane obblighi e opportunità
🔫 Metà degli attacchi informatici in Italia prende di mira le supply chain
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!