NTT Corporation e Red Hat, in collaborazione con NVIDIA e Fujitsu, hanno sviluppato una soluzione volta a migliorare ed estendere il potenziale della data analytics. Questo viene fatto con intelligenza artificiale all’edge e in tempo reale. La soluzione ha anche ricevuto il riconoscimento IOWN Global Forum’s Proof of Concept per le sue caratteristiche di estrema fattibilità e applicabilità nel mondo reale, testimoniate anche da diversi casi d’uso.
Red Hat e NTT insieme per l’analisi AI dei dati
NTT e Red Hat hanno collaborato per l’obiettivo di analizzare grandi quantità di dati in tempo reale attraverso l’intelligenza artificiale. Tuttavia, l’uso degli analytics di AI su larga scala può essere lento e complesso. E può essere associato anche ad un incremento sia dei costi di manutenzione che di aggiornamento del software necessario ad integrare nuovi modelli di intelligenza artificiale e hardware ulteriore. Con l’emergere dell’edge computing in luoghi sempre più remoti, è possibile portare l’AI analytics più vicino ai sensori. Riducendo così la latenza e aumentando la larghezza di banda.
L’importanza della sostenibilità anche nei dati
Ma non solo. NTT e Red Hat hanno dimostrato con successo che questa soluzione è in grado di ridurre efficacemente il consumo energetico. In che modo? Mantenendo una latenza inferiore per condurre AI analytics in tempo reale all’edge.
Questa soluzione è costituita dalla rete IOWN All-Photonics Network (APN) e dalle tecnologie di accelerazione della pipeline di dati nell’infrastruttura IOWN Data-Centric Infrastructure (DCI). La pipeline di dati accelerata di NTT per l’AI adotta il Remote Direct Memory Access (RDMA) su APN per raccogliere ed elaborare in modo efficiente grandi quantità di dati dei sensori all’edge.
Ill proof of concept condotto in Giappone
Un proof of concept condotto in Giappone ha valutato una piattaforma di AI analytics in tempo reale. La città di Yokosuka è stata scelta come base di installazione dei sensori e la città di Musashino come centro dati remoto, ed entrambe sono state connesse via APN. Di conseguenza, anche quando è stato ospitato un gran numero di telecamere, la latenza necessaria per aggregare i dati dei sensori per poter condurre l’analisi con l’intelligenza artificiale è stata ridotta del 60% rispetto ai carichi di lavoro convenzionali di inferenza.
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techbusiness
🔝LinkedIn pubblica il report Top Companies Italia 2024: al primo posto Intesa Sanpaolo
🍪Il futuro della privacy online: Google dice addio ai cookie di terze parti
🪪Parliamo di SASE: intervista a Aldo Di Mattia di Fortinet
💡AMD e i data center energeticamente sostenibili. Intervista ad Alexander Troshin
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!