Sicurezza

AI generativa: una nemica o una alleata per la cybersecurity?

Lo scenario della cybersecurity moderna non deve soltanto fare i conti con un numero sempre più preoccupante di credenziali rubate, sistemi cifrati da ransomware e casi di violazioni di dati. Infatti, una tecnologia che sta prendendo piede tra i gruppi di criminali informatici rischia di rendere ancora più pericolose le loro operazioni… ma allo stesso tempo ha la capacità di difenderci dal crescente numero di attacchi. Si tratta dell’AI generativa (GenAI), che è destinata a influenzare in maniera profonda il mondo della cybersecurity nei prossimi anni. Ce ne parla Massimiliano Galvagna, country manager di Vectra AI per l’Italia.

Tante sono le parole che stanno venendo dette e si diranno riguardo l’AI generativa, e nel corso degli ultimi anni ha raccolto molti sostenitori e anche molti detrattori. Tuttavia, entrambe le linee di pensiero concordano su una cosa: l’AI generativa aumenterà nei prossimi anni il potenziale di aggregazione in termini di ampiezza e frequenza delle minacce.

L’AI generativa è un’arma pericolosa nelle mani sbagliate

L’AI generativa, con la sua capacità di scrivere codice in pochi secondi, trovare informazioni in enormi database in un batter d’occhio, e generare audio e video altamente credibili, sta fornendo e fornirà nuove e più sofisticate armi per la violazione delle misure di cybersecurity aziendali ai pirati informatici, siano essi organizzazioni criminali evolute o hacker in erba.

In particolare, le organizzazioni criminali si sono già da tempo buttate, con successo, nella sperimentazione di nuove tecniche di violazione utilizzando l’AI generativa. Ad esempio, con la creazione di deepfake.

Massimiliano Galvagna, country manager di Vectra AI per l’Italia
Massimiliano Galvagna, country manager di Vectra AI per l’Italia

E sono proprio i deepfake sempre più credibili a destare maggiore preoccupazione tra i team di cybersecurity delle aziende. Preoccupazione sensata, dato che i criminali informatici sono in grado di prendere possesso dell’identità di una persona, riproducendone accuratamente la voce, lo stile di scrittura, o addirittura le sembianze facciali. Questa impersonificazione permette ai criminali di aumentare la probabilità di indurre gli utenti a fornire dati sensibili o a fare clic su un documento o collegamento dannoso attraverso esche di phishing audio o visive molto convincenti.

Allo stesso tempo, la comunità della sicurezza sta assistendo a una crescita del numero di pirati informatici alle prime armi. Questi, grazie a un apprendimento accelerato dall’AI generativa e al fenomeno dell’hacking in outsourcing, stanno operando con sempre maggiore abilità.

È importante che le aziende si rendano che l’AI generativa rappresenta non solo uno strumento per aumentare la produttività aziendale, ma anche un modo per i criminali informatici per aumentare la portata e pericolosità dei loro attacchi.

Naviga in sicurezza con Nord VPN – Ottieni da questo link fino al 71% di Sconto

Le aziende non stanno investendo abbastanza nell’AI generativa in ambito cybersecurity

Molte (quasi tutte a dire il vero, e per ovvie ragioni) organizzazioni stanno saltando sul treno dell’AI generativa. Essa infatti è uno strumento dall’immenso potenziale e versatilità, in grado di automatizzare lunghe e tediose operazioni, recuperare documenti e stilare report velocemente, suggerire modifiche ai code base, e via dicendo.

Tuttavia, sebbene l’adozione e gli investimenti nell’intelligenza artificiale generativa siano in aumento, l’indagine di McKinsey intitolata “Lo stato dell’AI: il 2023 l’anno di svolta dell’intelligenza artificiale generativa“, ha mostrato che molte organizzazioni non stanno affrontando con la giusta attenzione i potenziali rischi derivanti da questa rivoluzione tecnologica.

Infatti, solo il 38% delle aziende intervistate ha dichiarato di impegnarsi per mitigare i rischi per la sicurezza informatica correlata all’AI. Una quota persino inferiore alla percentuale dell’anno precedente, dove la percentuale era del 51%.

E sono pochissime le aziende che, a fronte dell’utilizzo crescente dell’intelligenza artificiale generativa negli attacchi di social engineering, si stanno armando per difendersi dai deepfake e dalle impersonificazioni. Strategie come Zero Trust, micro-segmentazione e meccanismi di rilevamento e risposta, infatti, sono ancora poco utilizzate.

Per maggiori informazioni sui prodotti per la sicurezza basati su AI, vi invitiamo a visitare il sito di Vectra AI.

Da non perdere questa settimana su Techbusiness

📀 Lidl è anche un fornitore di servizi cloud
Vmware Explore 2024: Broadcom rivoluziona il mondo del cloud e dell'AI annunciando importanti novità
🔐AI generativa: una nemica o una alleata per la cybersecurity?
📶Le reti 5G giocano un ruolo fondamentale nello sviluppo dello smart manufacturing
🎙️Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
💌 Risolviamo i tuoi problemi di cuore con B1NARY
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Autore

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button