In occasione di AWS Summit 2024, tenutosi a Milano, abbiamo avuto l’opportunità di intervistare Umberto Pirovano, Senior Manager, Systems Engineering di Palo Alto Networks.
Riprendendo l’intervista dello scorso anno, abbiamo ricollegato lo scorso tema dell’Operation Technology (OT) con il tema attuale dell’intelligenza artificiale, esplorando come questa possa essere utilizzata sia da parte delle aziende, in difesa, sia da parte dei criminali informatici, in attacco.
Ha voglia di presentarsi ai nostri lettori? Che ruolo svolge all’interno di Palo Alto Networks?
All’interno di Palo Alto Networks, nel quale lavoro da ormai sette anni e mezzo, ricopro il ruolo di direttore della parte prevendita. Ho quindi la responsabilità di gestire le risorse tecniche che accompagnano i nostri clienti durante le fasi del ciclo di vendita, dalla consulenza all’implementazione delle soluzioni scelte.
L’anno scorso, sempre in occasione di AWS Summit, avevamo parlato insieme a lei di sicurezza in ambito OT e IoT. Quest’anno, invece, vorremmo proporle il “tema caldo” dell’intelligenza artificiale. Quali sono stati i recenti sviluppi in questo ambito, e in che modo influenza OT e IoT?
Un recente sviluppo, che influenza sia AI che OT, non è tecnologico ma normativo. A settembre diventerà operativa la direttiva NIS2 (Network and Information Security), a cui seguirà a ruota DORA (Digital Operational Resilience Act) per le banche. Con queste direttive, per la prima volta il rischio cyber impatterà direttamente i board a C-level: qualunque direttore aziendale avrà l’onere di misurare e conoscere il rischio derivato dalle minacce informatiche per adeguarsi alle normative. Questo è un cambio epocale proprio dal punto di vista dell’organizzazione delle aziende e della responsabilizzazione nei confronti del rischio cyber, anche nella parte OT.
Per quanto riguarda l’AI, questa è sempre stata parte della nostra strategia aziendale e nel nostro modo di pensare all’OT. L’AI permette di fare un salto di qualità nell’ambito della sicurezza informatica. Basti pensare che Gartner ha dichiarato che nel 2025 circa il 99% degli attacchi sarà derivato da un errore umano o dall’utilizzo non corretto delle tecnologie di protezione: tutto questo è risolvibile implementando l’AI in maniera corretta nella postura di sicurezza aziendale.
Ritornando alla nostra strategia aziendale, in Palo Alto Networks utilizziamo uno spettro AI completo, che include reti neurali, deep learning, AI, ML, Gen AI. Abbiamo “etichettato” questa strategia di penetrazione, o di infusione, dell’AI all’interno del nostro portfolio con il nome di Precision AI.
Quindi l’AI può essere utilizzata dalle aziende per aumentare l’efficacia delle loro misure di protezione?
Storicamente, l’approccio alla protezione è sempre stato di tipo “real time“. Quando arriva un attacco mai visto, le tecnologie di protezione tradizionali non sono in grado di identificarlo, e lo lasciano passare: il primo bersaglio che viene colpito viene detto “paziente zero“. A questo punto si innesca un meccanismo di riconoscimento e apprendimento all’interno della tecnologia di sicurezza, in modo da riconoscere l’attacco nel caso dovesse manifestarsi di nuovo. Questo è l’approccio reattivo, utilizzato anche dai primi antivirus.
L’AI, invece, permette di sviluppare approcci predittivi alle minacce, in grado di ridurre drasticamente (e, si spera, eventualmente eliminare) la finestra temporale che intercorre tra l’incidente al paziente zero e l’identificazione della minaccia. La riduzione della finestra temporale è estremamente importante, in quanto le minacce sono molte e in continua evoluzione: basti pensare che, quando si verifica un incidente, quello che tipicamente noi vediamo sono circa 560000 variazioni dello stesso attacco, distribuite in tempi estremamente brevi.
Naviga in sicurezza – Ottieni da questo link il 71% di Sconto con NordVPN
Un altro aspetto dove l’AI sta trovando parecchie applicazioni è quello dell’automazione dei processi per gestire gli incidenti di sicurezza. Ai software di gestione giungono enormi quantità di eventi, che vanno revisionati e risolti. Queste tecnologie correlano eventi e creano report degli incidenti, categorizzandoli con un colore che ne denota la severità, dal rosso per i più gravi all’azzurro per gli incidenti non ancora verificati o sconosciuti.
Gli eventi etichettati con colore rosso o giallo vengono portati all’immediata attenzione di una macchina o un operatore, che li risolve. Il problema sta proprio negli eventi meno significativi, che non vengono risolti: tuttavia, è proprio lì che potrebbe celarsi un nuovo attacco mai visto prima d’ora. L’obiettivo delle nuove tecnologie di AI orientate alla sicurezza è proprio quello di analizzare tutti gli eventi, anche quelli meno significativi, per ridurre il tempo di individuazione delle minacce da giorni a minuti.
Non è raro oggi sentire di attacchi guidati da intelligenza artificiale. Ce ne può parlare?
Naturalmente, la tecnologia AI a disposizione delle aziende è anche a disposizione degli attaccanti, che la stanno sempre più sfruttando per creare nuove e più insidiose minacce.
Facciamo un po’ di numeri. Tipicamente, senza l’uso di AI, sfruttando dati trapelati presenti nel Dark Web o liberamente disponibili in chiaro, per effettuare la profilatura di una persona gli attaccanti impiegano in media 4 o 5 giorni. Con l’utilizzo delle tecnologie di AI, invece, la raccolta di informazioni avviene in 2 o 3 ore. Gli attaccanti possono quindi moltiplicare esponenzialmente il numero di obiettivi, rendendo gli attacchi molto più efficienti ed efficaci.
Inoltre, l’AI può essere utilizzata per creare automaticamente malware e per introdurre modifiche automatiche che rendono possibili le 560000 variazioni di cui abbiamo parlato in precedenza.
Fortunatamente, siamo in vantaggio: per la prima volta nella storia abbiamo la capacità di poter sfruttare questa tecnologia meglio degli attaccanti perché abbiamo molti più dati, e sappiamo come funzionano le reti e le applicazioni. I criminali informatici, invece, devono andare per tentativi. Se riuscissimo a sfruttare le conoscenze e l’esperienza in maniera corretta, ciò potrebbe segnare una svolta epocale nell’ambito della sicurezza informatica.
Un’ultima domanda. Secondo lei, quali sono i rischi legati all’utilizzo dell’intelligenza artificiale?
Se prima utente e applicazione comunicavano direttamente, ora, in alcuni casi, abbiamo un intermediario, l’AI, che simula un essere umano. L’AI evolve, impara, raccoglie informazioni da varie fonti e le traduce in una serie di query o interazioni con il software. Tutto ciò cambia drasticamente il funzionamento dell’applicazione, che ora riceve richieste non facilmente prevedibili.
Questo introduce nuove problematiche di sicurezza. Ad esempio, è possibile manipolare l’AI per ignorare i guardrail prestabiliti e ottenere informazioni non altrimenti accessibili, creando nuovi vettori d’attacco. È quindi necessario garantire che le interazioni tra AI e utenti siano sicure.
La sicurezza, in questo caso, è bidirezionale: se prima c’era una mappatura uno a uno tra input e output dell’applicazione, ora dobbiamo essere sicuri che le risposte dell’applicazione, con cui l’AI ha interagito direttamente, rientrino nelle aspettative.
Ringraziamo Umberto Pirovano per la preziosa opportunità d’intervista. Chi fosse interessato ad approfondire ulteriormente le tematiche di sicurezza informatica e AI può fare riferimento al sito web di Palo Alto Networks.
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techbusiness
📈 SAP NOW 2024 l'intelligenza artificiale per il business conquista Milano💸 Come calcolare il ritorno sugli investimenti nell’Intelligenza Artificiale
👨⚖️ Direttiva NIS2 e cybersecurity nelle PMI italiane obblighi e opportunità
🔫 Metà degli attacchi informatici in Italia prende di mira le supply chain
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!