Site icon Techbusiness

Proofpoint ci spiega i vantaggi e rischi dell’intelligenza artificiale generativa

Proofpoint ci spiega i vantaggi e rischi dell’intelligenza artificiale generativa thumbnail

L’intelligenza artificiale generativa è una tecnologia che sta suscitando molto interesse e attenzione, perché ha il potenziale di trasformare il modo in cui creiamo e lavoriamo. Si tratta di una forma di intelligenza artificiale che usa tecniche di deep learning per produrre nuovi contenuti. Parliamo di contenuti di qualsiasi natura: testi, immagini, musica, video, codice e altro.

Ce ne ha parlato in maniera approfondita Ferdinando Mancini, Director, Southern Europe Sales Engineering, Proofpoint, che ci ha aiutato a capire meglio cosa significa l’AI generativa per le aziende e quali sono i suoi impatti.

Gli innumerevoli vantaggi dell’intelligenza artificiale generativa

Per far funzionare al meglio la tecnologia, questa deve avere accesso a grandi quantità di dati e algoritmi complessi, che permettono all’IA di “imparare”. Non a caso viene usato il termine “addestrare”. In questo modo, l’IA può generare nuovi dati che rispecchiano lo stile e il tono dei contenuti originali. 

Un esempio famoso è il modello GPT-3 di OpenAI, che è stato addestrato su database di testi provenienti da Internet, tra cui libri, siti web, Wikipedia e articoli. ChatGPT, ha raggiunto più di 100 milioni di utenti in poco più di due mesi. Un altro esempio è DALL-E, un sistema basato su OpenAI, che produce arte generata dall’intelligenza artificiale. E poi c’è GPT-4, la versione avanzata di GPT-3, che può aiutare le aziende ad automatizzare l’assistenza clienti in quanto è in grado di capire le richieste degli utenti e di rispondere alle domande più frequenti.

Non solo: l’intelligenza artificiale può anche rilevare eventuali attività fraudolente, come ad esempio comportamenti di acquisto insoliti.

“L’IA generativa ha il potenziale per assistere i professionisti in un’ampia gamma di settori”, ci dice Mancini. “I consulenti finanziari possono usarla per analizzare le tendenze del mercato e i comportamenti dei consumatori; gli insegnanti per analizzare le esigenze e le preferenze di apprendimento degli studenti e personalizzare le lezioni; e gli analisti della sicurezza per studiare il comportamento degli utenti e identificare i modelli che portano all’esfiltrazione dei dati.”

Quali sono i rischi?

Come sicuramente saprete, l’intelligenza artificiale generativa non è priva di rischi e controversie.Alcuni dei problemi che potrebbero sorgere sono: 

  • Perdita di proprietà intellettuale: quando uno sviluppatore usa ChatGPT per revisionare una parte di codice sorgente, quel codice diventa pubblico? E OpenAI ha dei diritti su quel codice, visto che la sua IA ha contribuito a crearlo? Domande ancora irrisolte, dato che si pongono sui confini di un territorio ancora vergine dal punto di vista legislativo.
  • Informazioni false: di recente un giudice federale statunitense ha respinto una causa e inflitto una multa di 5.000 dollari agli avvocati di un querelante. Il motivo? Questi avevano usato ChatGPT per dettare la linea difensiva. Il problema? L’intelligenza artificiale, nel proporre una linea di difesa del cliente, aveva citato dei presunti precedenti che si sono scoperti essere falsi. I sei casi sono risultati inventati dall’AI, che quindi si dimostra ancora poco affidabile.
  • Violazione della privacy: senza una piattaforma di protezione delle informazioni, non c’è un modo automatico per impedire ai dipendenti di inserire dati personali identificabili, come quelli sanitari o finanziari, negli strumenti di IA generativa. Per questi motivi, i Paesi sviluppati stanno introducendo normative specifiche che richiedono trasparenza, supervisione umana e altre garanzie per gli strumenti di IA generativa.
  • Pregiudizio: poiché l’IA generativa impara da contenuti esistenti, essa assimila anche alcuni pregiudizi degli umani stessi. In un recente studio, Bloomberg ha osservato che “il modello text-to-image di Stable Diffusion amplifica gli stereotipi su razza e genere”.

“Molte aziende vogliono sapere come i loro dipendenti utilizzano l’IA generativa, ma desiderano anche mettere in sicurezza la loro proprietà intellettuale e altri dati sensibili. Esistono piattaforme per la protezione delle informazioni che possono aiutare le aziende a monitorare le attività degli utenti sui servizi di AI generativa e prevenire la perdita di dati preziosi, aumentando al contempo produttività e innovazione“, ha chiosato Ferdinando Mancini di Proofpoint.

Exit mobile version