Sicurezza

Per proteggersi con l’intelligenza artificiale servono formazione e pianificazione

Ce lo siamo fatti raccontare dal BU Director di Cybergon Filadelfio Emanuele

Ah, l’intelligenza artificiale. Giorno dopo giorno e ancora di più dopo l’arrivo di AI generative come Chat GPT è diventata un tormentone costante per il mondo delle tecnologia, anche nelle aziende, ma sappiamo come implementarla al meglio? Perché l’intelligenza artificiale è (anche) una questione di sicurezza. E noi siamo andati a parlarne con chi in questi argomenti ci è pienamente immerso.

È già fra noi

C’è una differenza sensibile tra l’AI e tanti altri “tormentoni” tecnologici che abbiamo conosciuto nel tempo. Perché se blockchain, NFT e metaverso sono promesse che dopo il clamore iniziale non si sono avverate (o quantomeno non ancora), l’intelligenza artificiale è già realtà, quotidiana e diffusa. E lo abbiamo potuto scoprire direttamente.

Qualche giorno fa infatti eravamo presenti a un evento organizzato da Elmec Informatica, incentrato proprio su questo macro-argomento, che fin dal titolo metteva in chiaro le cose: E.T. Extra Thinkers – L’AI non è una cosa da alieni. Durante la giornata abbiamo potuto ascoltare e addirittura toccare con mano alcune applicazioni pratiche dell’intelligenza artificiale.

Intelligenza Artificiale Sicurezza Filadelfio Emanuele 01 Copia

Uno degli eventi più attesi è stato legato a Rocco Tanica, comico, musicista e artista, che ha da tempo abbracciato l’utilizzo di queste tecnologie nella propria esperienza privata. Al punto di scrivere qualche tempo fa un libro proprio a quattro mani con l’intelligenza artificiale che – perfettamente in linea con il concept alieno della giornata – si intitola Non siamo mai stati sulla Terra.

Ma tutta la giornata è stata ricca di esempi pratici di come l’AI sia ormai davvero in mezzo a noi. E il trend in apparenza è che questa diventerà ancora più rilevante, se non direttamente nella vita dei privati, quantomeno nella quotidianità delle aziende. Ma per poter impiegare l’intelligenza artificiale in sicurezza, bisogna fare attenzione e seguire alcuni passaggi fondamentali.

L’intelligenza artificiale è un aiuto per la sicurezza che non possiamo non permetterci

Abbiamo discusso di questo tema con Emanuele Filadelfio, BU Director di Cybergon. La sua esperienza nell’ambito di cybersecurity sia in Elmec che nei rapporti con altre aziende, è utilissima per poter capire davvero come affrontare l’implementazione dell’intelligenza artificiale nei processi aziendali in sicurezza. Ecco cosa ci ha raccontato…

Parliamo innanzitutto di intelligenza artificiale, che è al centro di questa giornata. La cyberscurity in a questa nuova tecnologia non è sempre discussa, ma va affrontata con attenzione…

Ci sono due aspetti da considerare: il primo è l’utilizzo dell’intelligenza artificiale per scopi di security, il secondo sono invece i temi di security quando pianifico e utilizzo tematiche di intelligenza artificiale. Per cui sul primo oggi ci sono vendor, tecnologie, modelli che permettono di essere più efficaci nell’ambito difesa, con anche un risparmio di tempo uomo. Quindi gli analisti che sono all’interno dell’azienda e devono fare difesa sono facilitati nel medio e lungo periodo proprio con tecnologie di questo tipo.

Possiamo evitarle? No, perché abbiamo un problema di risorse, nel senso che le risorse non sono infinite e c’è un problema a livello italiano di professionisti negli ambiti cybersecurity. Per cui prendere una persona che continui a guardare uno schermo, che sia un validare i dati in ingresso o che sia vedere gli eventi che sono apparsi e quindi capire se ci sono potenzialmente degli impatti dal punto di vista di security è un’attività che può essere automatizzata. Di conseguenza questi modelli ci aiutano a velocizzare ed efficientare l’azienda. Questo è sicuramente un aspetto. Abbiamo un trend in crescita di strumenti che semplifica il nostro lavoro.

Dall’altra abbiamo invece un trend di strumenti che includono l’intelligenza artificiale per essere più competitivi. Copilot di Microsoft è un esempio molto calzante. Lo strumento di per sé è molto efficace, permette di velocizzare la creazione di contenuti. Però ci sono aspetti che non vanno dimenticati.

Il primo è che devo validare l’output. Non posso pensare di creare una presentazione o vedere la mail già precompilata e mandarla senza averla riletta. E questo va insegnato alle persone. Questo è un primo problema. Il secondo è un progetto di implementazione. Cioè, la prima cosa che bisogna fare nel progetto Copilot è guardare i permessi che un utente ha nel vedere i documenti aziendali.

Filadelfio Emanuele Security Operation Manager Presso CybergON Di Elmec Informatica Edited 2
Filadelfio Emanuele, Security & Operation Manager di CybergON, Elmec Informatica

Mi spiego meglio: la prima cosa che fa Copilot è fare una scansione di tutti i documenti potenzialmente pubblici dell’azienda. Per cui potrebbero esserci degli errori. Un documento magari dell’HR o del board che non doveva essere condiviso è rimasto con delle permission aperte. Una persona non sapendo che esiste non lo aprirà mai e quindi il rischio dell’azienda senza Copilot sarebbe stato relativamente basso. Copilot invece è la prima cosa che fa.

Per cui sia noi che la stessa Microsoft come esperienza di implementazione dice: prima di attivare Copilot, devi fare un’attività di pianificazione per andare a rivedere tutti i permessi dei tuoi documenti. Altrimenti vai a fare indicizzare a uno strumento automatico dei dati che sono per te riservati o che comunque non devono essere di dominio aziendale. Questi sono i due aspetti che per me sono indispensabili.

L’intelligenza artificiale in qualsiasi sua sfumatura, tanto più con quelle generative, tende ad automatizzare alcuni processi. Questo è estremamente comodo, ma dall’altra parte non può essere un rischio per la sicurezza, perché aggiungo altre cose che faccio “senza pensarci troppo”?

Le questioni sono due. Da una parte, “lo inserisco in un processo automatico” senza nessuno che faccia la validazione dell’output, che è una cosa che a oggi non possiamo permetterci. Dall’altra il fatto che ci sia la leggerezza di farlo può impattare poi la responsabilità dell’azienda. Perché se il chatbot che utilizziamo per interfacciarci con l’azienda mi dà una risposta sbagliata, se è un semplice consiglio ha comunque un impatto di trust verso l’azienda, ma se la prendo per creare un documento contrattuale con il cliente poi la faccia e la responsabilità rimane sempre dell’azienda utilizzatrice.

Per cui la verità è che qui abbiamo un rischio di utilizzo dello strumento che passa dalla corretta formazione. È il discorso che si faceva con tutto il concetto della digitalizzazione. Qualche tempo fa c’era l’idea “Evitiamo di digitalizzare i processi coì evitiamo impatti sulla security”. O ancora nel mondo industriale, lo stesso concetto. L’industria 4.0 ha permesso che tutto il mondo industriale possa essere collegato con il resto dell’azienda.

È ovvio che prima il rischio era che qualcuno entrasse nella catena produttiva e l’unico rischio era fisico, oggi i rischi sono molto più ampi. Ma l’azienda può permettersi di non evolvere? No, perché altrimenti si vedrebbe un deficit competitivo rispetto alle altre aziende. La verità è che sì, abbiamo dei rischi in più, abbiamo un’estensione della superficie di attacco, che è la parte di intelligenza artificiale, ma significa che bisogna mettere in piedi gli strumenti e i processi per proteggersi.

E chiudiamo con un consiglio: qual è la primissima cosa che diresti a un’azienda che vuole inserire l’intelligenza artificiale nei propri processi?

Definirne l’ambito. Non ne deve parlare con l’IT ma con il Business Owner. La differenza di adozione, in positivo o negativo, lo può fare chi poi trova il beneficio nell’adozione dell’intelligenza artificiale nel suo operativo. Se invece è l’IT che dice: “Questa tecnologia è interessante, adottiamola in azienda” sarà un grosso fallimento in termini sia economici che d’impatto.

Anche perché poi se l’unico sponsor è l’IT proverà a spingere talmente tanto – perché lo sente come sua iniziativa – rischiando di andare a eludere quelli che sono i suoi controlli di sicurezza. Per esempio dicendo “Mettiamo all’interno quelli che sono tutti i dati aziendali perché così almeno abbiamo una base dati più trainata”. Ecco, questo non va fatto.   

Ringraziamo Filadelfio Emanuele per la sua disponibilità e giriamo la palla a voi: avete già iniziato a implementare l’intelligenza artificiale (in sicurezza) nelle vostre aziende?

Offerta
Non siamo mai stati sulla Terra
  • Tanica, Rocco (Autore)

Da non perdere questa settimana su Techbusiness

🛣️Google Cloud Summit 2024: la nuova strada verso il cloud
🎙️I dati per aumentare la loyalty dei clienti: intervista a Johannes Tappeiner e Giacomo Bisoffi di Dr. Schär
🏭Oracle presenta HeatWave GenAIla nuova frontiera dell’Intelligenza Artificiale per le aziende
🖨️Sharp presenta le nuove stampanti della serie Pro Light Production
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Autore

  • Mattia Chiappani

    Ama il cinema in ogni sua forma e cova in segreto il sogno di vincere un Premio Oscar per la Miglior Sceneggiatura. Nel frattempo assaggia ogni pietanza disponibile sulla grande tavolata dell'intrattenimento dalle serie TV ai fumetti, passando per musica e libri. Un riflesso condizionato lo porta a scattare un selfie ogni volta che ha una fotocamera per le mani. Gli scienziati stanno ancora cercando una spiegazione a questo fenomeno.

    Visualizza tutti gli articoli

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button