La Generative AI è una tecnologia che permette di creare contenuti di vario tipo da dati già esistenti. Arte, testi e audio: questo tipo di intelligenza artificiale può creare contenuti che sembrano nati da una mente umana. La Generative AI ha molte applicazioni positive in diversi ambiti, ma presenta anche dei rischi per la cybersecurity: il CTO e Co-founder di Armis, Nadir Izreal, ci aiuta a fare il punto della situazione su minacce e rischi.
Generative AI, Armis analizza i rischi per la cybersecurity
Norton: maggiore sicurezza per i dispositivi e VPN per la privacy online
Le minacce della Generative AI, rispetto ad altri rischi di cybersecurity, sono facili da intuire anche per i non esperti. Come spiega Izreal: “Uno degli esempi più evidenti è il recente caso di un giornalista che ha utilizzato una tecnologia vocale, generata dall’intelligenza artificiale, per accedere al proprio conto bancario. Utilizzando questo software, ha creato un audio che imitava la sua voce per ingannare un operatore del servizio clienti e accedere al suo conto”.
Questo caso mostra come sia semplice per un criminale usare la tecnologia vocale basata sulla Generative AI per eludere le protezioni. La Generative AI apre infatti nuove possibilità di attacco per gli hacker, aumentando la superficie d’attacco. Con l’avanzamento della tecnologia, si possono creare copie realistiche di quasi tutto, come le voci e le immagini. Esse possono essere usate per fini illeciti come il furto d’identità, clonazione di voci e immagini e i deepfake.
Superficie di attacco in aumento
Armis spiega, inoltre, che la superficie d’attacco diventa più complessa e variegata con l’uso crescente della Generative AI in vari settori. Ora le organizzazioni devono proteggere non solo le aree tradizionali, come le reti, gli endpoint e le applicazioni. Ma anche le nuove aree create da questa tecnologia, come la clonazione di voci e immagini, i deepfake e gli strumenti di hacking basati sull’IA.
Se è vero che le applicazioni positive dell’AI generativa sono molte, questa tecnologia può anche essere usata per scopi malevoli, come la creazione di fake news, di deepfake o di phishing. Questo aumenta il rischio di attacchi informatici che possono danneggiare la reputazione, la privacy e la sicurezza delle organizzazioni e delle persone.
Inoltre, gli strumenti di hacking basati sull’intelligenza artificiale sono in grado di imitare il comportamento umano e di imparare dagli attacchi precedenti, rendendoli molto più difficili da rilevare e da difendere. Ciò significa che le misure di sicurezza tradizionali su cui le organizzazioni hanno fatto affidamento in passato potrebbero non essere più sufficienti a proteggere da queste nuove minacce.
Cosa possono fare le aziende
Per far fronte a questa superficie di attacco in espansione, le organizzazioni devono adottare un approccio alla cybersecurity su più livelli, che comprenda sia le misure di sicurezza tradizionali sia gli strumenti basati sull’intelligenza artificiale. Questo approccio dovrebbe includere l’investimento in sistemi di sicurezza robusti, in soluzioni in grado di rilevare e prevenire l’uso della Generative AI per scopi dannosi. Nonché di sfruttare l’intelligenza artificiale per analizzare grandi quantità di dati e rilevare le anomalie.
Inoltre, le organizzazioni devono rimanere vigili e proattive nel loro approccio alla cybersecurity, in costante aggiornamento sugli ultimi sviluppi della tecnologia IA, adottando le misure necessarie per proteggere i propri asset dalle minacce informatiche. Ciò include la formazione del personale addetto alla sicurezza per identificare e rispondere alle nuove minacce. Ma anche sfruttare tecnologie come la blockchain per creare registri digitali a prova di manomissione che possono essere utilizzati per verificare l’autenticità delle risorse digitali.
Generative AI e cybersecurity: un nuovo campo di battaglia
Nel complesso, l’espansione dell’area d’attacco e, di fatto, la sua metamorfosi in superfici multiple, rappresenta una nuova frontiera nella battaglia in corso tra difensori e aggressori nel campo della sicurezza informatica. Solo attraverso un approccio completo e adattivo alla cybersecurity e alla gestione delle superfici, le organizzazioni possono sperare di stare un passo avanti agli hacker. E proteggere il proprio ambiente da queste minacce emergenti.
L’IA è una sfida crescente per la cybersecurity. Sia i difensori che gli attaccanti ne sfruttano le potenzialità per rafforzare le loro azioni. L’impiego dell’IA nella cybersecurity ha dei benefici importanti. Come una maggiore velocità ed efficacia nel riconoscere e contrastare le minacce e una migliore valutazione dei rischi.
Tuttavia, l’evoluzione degli strumenti di hacking basati sull’IA rende il futuro della cybersecurity sempre più complesso. Questi strumenti sono capaci di replicare il comportamento umano e di adattarsi agli attacchi passati, rendendoli molto più difficili da individuare e da proteggersi. Con il progresso della tecnologia IA, i cybercriminali continueranno a creare attacchi sempre più avanzati in grado di eludere le misure di sicurezza convenzionali.
Per tenere il passo con queste minacce, le organizzazioni devono adottare una strategia di sicurezza multilivello che integri sia le misure di sicurezza classiche sia gli strumenti basati sull’IA per gestire la superficie di attacco estesa. Ciò include l’utilizzo dell’IA per analizzare grandi quantità di dati e rilevare le deviazioni, nonché la preparazione del personale addetto alla sicurezza per identificare e reagire alle nuove minacce.
Sfida a colpi di algoritmi
Una domanda che spesso si pone è se in futuro assisteremo a conflitti tra sistemi di intelligenza artificiale nel settore della cybersecurity. Izreal spiega: “L’idea dell’IA contro l’IA è davvero affascinante, ma è difficile dire se in futuro ci saranno guerre tra IA. È importante notare che l’intelligenza artificiale è uno strumento creato dall’uomo per svolgere compiti specifici e non ha motivazioni o desideri intrinseci. Pertanto, è più probabile che il concetto di guerra tra IA sia il risultato di un processo decisionale umano piuttosto che il risultato di sistemi di IA che scelgono spontaneamente di impegnarsi in conflitti”.
Ciononostante, ci sono alcuni scenari in cui i sistemi di IA potrebbero essere impiegati per attaccarsi a vicenda. Per esempio, se uno Stato realizzasse sistemi di IA molto avanzati per la guerra cibernetica, un altro Stato potrebbe reagire in maniera speculare. Questo potrebbe portare a una sorta di “gara agli armamenti” nel campo della cybersecurity basata sull’intelligenza artificiale.
Tuttavia, bisogna ricordare che lo sviluppo e l’uso dei sistemi di Intelligenza Artificiale sono fortemente controllati da governi e organismi internazionali. E qualsiasi impiego dell’IA in un conflitto sarebbe soggetto a valutazioni etiche, legali e diplomatiche. Inoltre, molti studiosi e specialisti nel campo dell’IA stanno lavorando attivamente per creare criteri e norme etiche per un uso corretto e sicuro dell’intelligenza artificiale in varie applicazioni. Compresa la guerra.
In conclusione, sebbene l’ipotesi di una guerra tra IA sia certamente fattibile, è improbabile che avvenga senza un intervento umano o senza una ragione. L’importante è restare proattivi e adattivi, reagendo alle minacce di cybersecurity derivate dall’AI e da altre tecnologie emergenti.
Maggiori informazioni sul sito di Armis.
- Stallings, William (Autore)