Site icon Techbusiness

AI generativa: una nemica o una alleata per la cybersecurity?

AI generativa: una nemica o una alleata per la cybersecurity? thumbnail

Lo scenario della cybersecurity moderna non deve soltanto fare i conti con un numero sempre più preoccupante di credenziali rubate, sistemi cifrati da ransomware e casi di violazioni di dati. Infatti, una tecnologia che sta prendendo piede tra i gruppi di criminali informatici rischia di rendere ancora più pericolose le loro operazioni… ma allo stesso tempo ha la capacità di difenderci dal crescente numero di attacchi. Si tratta dell’AI generativa (GenAI), che è destinata a influenzare in maniera profonda il mondo della cybersecurity nei prossimi anni. Ce ne parla Massimiliano Galvagna, country manager di Vectra AI per l’Italia.

Tante sono le parole che stanno venendo dette e si diranno riguardo l’AI generativa, e nel corso degli ultimi anni ha raccolto molti sostenitori e anche molti detrattori. Tuttavia, entrambe le linee di pensiero concordano su una cosa: l’AI generativa aumenterà nei prossimi anni il potenziale di aggregazione in termini di ampiezza e frequenza delle minacce.

L’AI generativa è un’arma pericolosa nelle mani sbagliate

L’AI generativa, con la sua capacità di scrivere codice in pochi secondi, trovare informazioni in enormi database in un batter d’occhio, e generare audio e video altamente credibili, sta fornendo e fornirà nuove e più sofisticate armi per la violazione delle misure di cybersecurity aziendali ai pirati informatici, siano essi organizzazioni criminali evolute o hacker in erba.

In particolare, le organizzazioni criminali si sono già da tempo buttate, con successo, nella sperimentazione di nuove tecniche di violazione utilizzando l’AI generativa. Ad esempio, con la creazione di deepfake.

Massimiliano Galvagna, country manager di Vectra AI per l’Italia
Massimiliano Galvagna, country manager di Vectra AI per l’Italia

E sono proprio i deepfake sempre più credibili a destare maggiore preoccupazione tra i team di cybersecurity delle aziende. Preoccupazione sensata, dato che i criminali informatici sono in grado di prendere possesso dell’identità di una persona, riproducendone accuratamente la voce, lo stile di scrittura, o addirittura le sembianze facciali. Questa impersonificazione permette ai criminali di aumentare la probabilità di indurre gli utenti a fornire dati sensibili o a fare clic su un documento o collegamento dannoso attraverso esche di phishing audio o visive molto convincenti.

Allo stesso tempo, la comunità della sicurezza sta assistendo a una crescita del numero di pirati informatici alle prime armi. Questi, grazie a un apprendimento accelerato dall’AI generativa e al fenomeno dell’hacking in outsourcing, stanno operando con sempre maggiore abilità.

È importante che le aziende si rendano che l’AI generativa rappresenta non solo uno strumento per aumentare la produttività aziendale, ma anche un modo per i criminali informatici per aumentare la portata e pericolosità dei loro attacchi.

Naviga in sicurezza con Nord VPN – Ottieni da questo link fino al 71% di Sconto

Le aziende non stanno investendo abbastanza nell’AI generativa in ambito cybersecurity

Molte (quasi tutte a dire il vero, e per ovvie ragioni) organizzazioni stanno saltando sul treno dell’AI generativa. Essa infatti è uno strumento dall’immenso potenziale e versatilità, in grado di automatizzare lunghe e tediose operazioni, recuperare documenti e stilare report velocemente, suggerire modifiche ai code base, e via dicendo.

Tuttavia, sebbene l’adozione e gli investimenti nell’intelligenza artificiale generativa siano in aumento, l’indagine di McKinsey intitolata “Lo stato dell’AI: il 2023 l’anno di svolta dell’intelligenza artificiale generativa“, ha mostrato che molte organizzazioni non stanno affrontando con la giusta attenzione i potenziali rischi derivanti da questa rivoluzione tecnologica.

Infatti, solo il 38% delle aziende intervistate ha dichiarato di impegnarsi per mitigare i rischi per la sicurezza informatica correlata all’AI. Una quota persino inferiore alla percentuale dell’anno precedente, dove la percentuale era del 51%.

E sono pochissime le aziende che, a fronte dell’utilizzo crescente dell’intelligenza artificiale generativa negli attacchi di social engineering, si stanno armando per difendersi dai deepfake e dalle impersonificazioni. Strategie come Zero Trust, micro-segmentazione e meccanismi di rilevamento e risposta, infatti, sono ancora poco utilizzate.

Per maggiori informazioni sui prodotti per la sicurezza basati su AI, vi invitiamo a visitare il sito di Vectra AI.

Exit mobile version