Vincenzo Costantino, Senior Director of Sales Engineering di Commvault, impresa statunitense di information management e gestione di dati commerciali, porta alla nostra attenzione la pericolosità e la molteplicità degli attacchi informatici guidati dall’intelligenza artificiale.
Una nuova generazione di minacce informatiche
Immaginate di essere a capo delle attività di sicurezza in qualità di Chief Information Security Officer (CISO) di un’azienda multinazionale. La vostra routine mattutina procede come di consueto, quando, ad un tratto, gli squilli di una tempesta di chiamate e messaggi squarciano la tranquillità. Un inarrestabile attacco guidato dall’intelligenza artificiale ha preso il controllo di dispositivi, sistemi e reti, minacciando l’incolumità dell’intera azienda.
Questo è scenario che fino a qualche anno fa sarebbe stato impensabile, ma che ora sta diventando una realtà sempre più concreta. Le minacce basate sull’intelligenza artificiale hanno il potenziale per essere più sofisticate, capaci di adattarsi a un ampio spettro di sistemi e in grado di causare maggiori danni rispetto agli attacchi tradizionali. Per contrastare questo panorama di rischi in evoluzione bisogna adottare strategie altrettanto innovative.
Naviga con NordVPN – Scopri la super offerta NordVPN – 63% di sconto
Le mille facce degli attacchi guidati da intelligenza artificiale
Le tecnologie di intelligenza artificiale possono essere sfruttate dai criminali informatici in una miriade di modi differenti: vediamone alcune.
Phishing avanzato e social engineering
Gli strumenti di AI generativa possono essere utilizzati dai criminali informatici per automatizzare attività fraudolente, come la creazione di indirizzi mail per il phishing, la generazione di account falsi, l’impersonificazione di agenti di servizio e la realizzazione di truffe. Inoltre, l’AI può analizzare velocemente le identità e i dati personali rubati per rendere le attività di phishing e social engineering più efficaci.
Generazione adattiva di malware e botnet
L’aspetto più complesso da gestire per quanto riguarda malware e botnet è l’adattabilità. I cybercriminali tentano di scrivere software malevolo in grado di rispondere proattivamente agli antivirus, modificandosi per mascherare comportamenti sospetti ed eliminandosi una volta raggiunto il loro scopo finale. Malware guidato da intelligenza artificiale può adattarsi ancor meglio del software realizzato dall’uomo, identificando vulnerabilità e coordinando attacchi in maniera più efficiente.
Inoltre, questi sono in grado di aggirare le difese basate su firma: gli antivirus moderni, per identificare malware e virus, controllano l'”impronta digitale” dei software, comparandola con un database di minacce conosciute. Se la firma corrisponde a una minaccia conosciuta, il software malevolo viene isolato in modo da impedirne la propagazione all’interno del sistema o della rete. Malware basato su AI, invece, può cambiare dinamicamente la firma, rendendosi invisibile agli occhi degli antivirus.
Sfruttamento degli zero-day, brute forcing e manipolazione dei sistemi
I cybercriminali possono nascondere nei modelli di intelligenza artificiale codice malevolo e exploit zero-day, ossia codice che sfrutta una vulnerabilità appena scoperta e non ancora corretta. Questo permette agli attaccanti di ampliare la superficie di attacco e, di conseguenza, compromettere più sistemi contemporaneamente.
L’AI può anche essere essere utilizzata per automatizzare il processo di forzatura degli account, provando una moltitudine di password su portali d’accesso diversi, oppure per analizzare i database di password rubati alle organizzazioni.
Inoltre, dato che molti sistemi per il rilevamento delle minacce fanno uso di intelligenza artificiale, gli attaccanti possono manipolare l’AI per apprendere gli algoritmi anti-intrusione di questi sistemi. Una volta scoperti i punti deboli di un sistema anti-intrusione, i cybercriminali possono sfruttare questa conoscenza per eludere le difese di un’organizzazione oppure vendere le informazioni ottenute sul dark web.
Generazione di deepfake
L’AI generativa può essere utilizzata per facilitare il social engineering, ovvero la manipolazione delle persone per ottenere dati sensibili, denaro o l’accesso a sistemi. Questa tecnologia, infatti, permette di generare audio e video convincenti, in grado di impersonare voci e volti familiari.
Oltre al social engineering, i deepfake possono anche essere utilizzati nelle campagne politiche per seminare fake news o per fare blackmail. Infatti, alcuni Paesi ritengono sia opportuno regolare l’utilizzo di certi strumenti onde evitare situazioni come negli scenari appena presentati.
- Pellegrino, Giovanni (Autore)
Rimani aggiornato seguendoci su Google News!
Da non perdere questa settimana su Techbusiness
📈 SAP NOW 2024 l'intelligenza artificiale per il business conquista Milano💸 Come calcolare il ritorno sugli investimenti nell’Intelligenza Artificiale
👨⚖️ Direttiva NIS2 e cybersecurity nelle PMI italiane obblighi e opportunità
🔫 Metà degli attacchi informatici in Italia prende di mira le supply chain
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!