NewsSoftware

I bias nell’intelligenza artificiale, come si generano e quali rischi comportano

Lori MacVittie, Distinguished Engineer di F5 ci aiuta a capire perché il settore IT debba occuparsene

L’AI si nutre di dati. Ma quando questi set di informazioni contengono bias, anche l’intelligenza artificiale avrà dei bias – creando preoccupazioni circa il suo utilizzo. Lori MacVittie, Distinguished Engineer di F5, ci aiuta ad approfondire con un’analisi di come i bias vengono introdotti nei data set e del perché è importante che il settore IT se ne occupi.

I bias nell’intelligenza artificiale, l’analisi di F5

L’AI è al centro dell’attenzione in questo momento. La curiosità è alta, la richiesta è enorme e tutti sono alla ricerca dell’applicazione vincente di questa tecnologia. Ma ci sono preoccupazioni, giustificate. Maggiori informazioni su come “nascono” queste intelligenze artificiali può aiutare a capire quando queste preoccupazioni sono giustificate.

I metodi di apprendimento dell’AI

I metodi, gli algoritmi e i modelli usati oggi nell’AI sono molto vari. E spesso sono difficili da capire per chi non è un esperto del settore. Tuttavia, è importante sapere, a grandi linee, come vengono allenati i modelli, perché è così che si creano i bias.

Apprendimento supervisionato

Il primo metodo è l’Apprendimento supervisionato (Supervised learning). Questo tipo di apprendimento si basa su dati di ingresso (input data) che hanno delle etichette associate. Il sistema impara a prevedere l’output corretto in base ai dati e alle etichette usati per allenarlo.

intelligenza artificiale xtb-min

Utilizza ChatGPT con NordVPN – 56% di sconto sul piano annuale + 3 mesi gratis

Ci sono due sottocategorie principali di algoritmi per questo apprendimento. Una è la classificazione, che consiste nel dividere i dati in gruppi secondo alcuni attributi come colore, dimensione e forma. Un esempio tipico di classificazione è il riconoscimento delle immagini. Altri casi d’uso comuni sono il filtraggio dello spam e delle e-mail. L’altra è la regressione, che cerca di trovare modelli basati su una relazione lineare tra input e output. In questo caso, l’output è determinato al di là del modello, come avviene per esempio con le previsioni meteorologiche. Questa metodologia è spesso usata per analizzare le tendenze del mercato e del clima.

Apprendimento non supervisionato

L’apprendimento non supervisionato (Unsupervised learning) è una tecnica di apprendimento automatico che analizza e raggruppa dati non etichettati. A differenza dell’apprendimento supervisionato, dove i modelli imparano a mappare l’input con l’output desiderato (ad esempio immagini etichettate come “gatto” o “pesce”), i metodi non supervisionati imparano rappresentazioni concise dei dati di input, che possono essere usate per esplorare o generare nuovi dati. La sua capacità di scoprire somiglianze e differenze nelle informazioni lo rende la soluzione ideale per l’analisi esplorativa dei dati, le strategie di cross-selling, la segmentazione dei clienti e il riconoscimento delle immagini.

Gli algoritmi di apprendimento non supervisionato si basano su due tecniche principali: il clustering e l’associazione. Con il clustering si chiede al sistema di raggruppare i dati in base alle somiglianze. Il comportamento di acquisto dei clienti è un caso d’uso di clustering. Con l’associazione, si chiede al sistema di trovare relazioni tra i dati, come le dipendenze tra di essi. Questo approccio è interamente basato sulla correlazione, non sulla causalità. L’associazione è spesso utilizzata per il Web Usage Mining.

Apprendimento per rinforzo

L’apprendimento per rinforzo è una tecnica di machine learning che permette a un computer (agente) di imparare a svolgere un’attività tramite interazioni di tipo “trial-and-error” (tentativi ed errori) con un ambiente dinamico. Questo approccio all’apprendimento fa sì che l’agente possa adottare una serie di decisioni che massimizzano una metrica di ricompensa per l’attività, senza essere programmato esplicitamente per farlo e senza l’intervento dell’uomo.

Intelligenza Artificiale Min

I programmi di intelligenza artificiale addestrati con l’apprendimento per rinforzo sono in grado di superare i giocatori umani in giochi da tavolo come Go e gli scacchi, oltre che in videogiochi. Il reinforcement learning si basa spesso su reti neurali profonde.

Come i bias si insinuano nell’intelligenza artificiale

Questi sistemi di intelligenza artificiale possono essere influenzati dai pregiudizi (bias) degli esseri umani che li addestrano. Questo può succedere in diversi modi. Nel caso dell’apprendimento supervisionato, i dati possono essere etichettati in modo sbagliato, volontariamente o involontariamente. Per esempio, se voglio riconoscere gli animali, posso confondere un “cane” con un “gatto” e causare errori di classificazione. Quando si etichettano tantissimi dati, gli errori non sono poi tanto rari – e hanno un impatto sull’AI.

Nel caso dell’apprendimento per rinforzo, premiare una risposta o una mossa errata in un gioco può indurre il sistema a fare scelte sbagliate. Questo potrebbe essere divertente per alcuni, ma non è il risultato desiderato. Questo vale anche per l’AI generativa (conversazionale) come ChatGPT, che si basa sull’apprendimento supervisionato e sull’apprendimento per rinforzo. Questo sistema usa dei trainer umani per migliorare le sue prestazioni. Quando usiamo l’opzione “up” o “down” per valutare le sue risposte, stiamo contribuendo a perfezionare il modello. Il feedback è fondamentale per migliorare il sistema, ma quando il feedback è disonesto o disattento, si possono creare pregiudizi.

I bias nell’intelligenza artificiale e la telemetria

Nella maggior parte dei casi di analisi della telemetria, i dati usati per addestrare i modelli sono stati etichettati. La distorsione (bias) può entrare nel sistema da un’errata etichettatura dei dati, dalla scarsa varietà di dati in una categoria specifica o dal metodo usato per inserire nuovi dati.

intelligenza artificiale aziende futuro fastweb ammagamma
Sfondo vettore creata da rawpixel.com – it.freepik.com

Il motivo per cui l’errata etichettatura può portare a un’erronea identificazione se presente in quantità elevate. La scarsa varietà dei dati porta a set di addestramento così limitato che saranno sicuramente classificati in modo sbagliato. MacVittie spiega: “Un classico esempio di ciò è ben rappresentato da un modello di AI addestrato a riconoscere i carri armati rispetto ad altri tipi di trasporto. Si è scoperto che tutti i carri armati erano stati fotografati alla luce del giorno, mentre gli altri veicoli non lo erano. Di conseguenza, l’AI ha fatto un ottimo lavoro nel distinguere i carri armati dai non carri armati, ma in realtà stava correlando il giorno con la notte. La mancanza di diversità nel set di input ha quindi causato una correlazione distorta“.

Un altro tipo di bias per l’intelligenza artificiale può insinuarsi nei dati per via della raccolta selettiva delle informazioni. Questo significa che solo alcuni tipi di dati vengono usati per l’analisi, trascurando altri che potrebbero essere rilevanti. Per esempio, le prestazioni del DNS hanno un effetto importante sull’esperienza dell’utente finale. Ma se un modello di intelligenza artificiale viene allenato solo con i dati sulle prestazioni dell’applicazione, senza tenere conto del DNS, potrebbe dare una valutazione errata della qualità del servizio. Se l’azione successiva è quella di notificare un problema di prestazioni, il sistema fallirà perché non ha usato tutti i dati necessari.

Un altro modo di introdurre distorsioni nei dati è quello di usare i risultati di prove sintetiche per calcolare le prestazioni medie di un’applicazione e poi applicare il modello ottenuto all’analisi del traffico reale. A seconda della varietà dei luoghi, dei dispositivi, della congestione della rete che compongono il set di dati delle prove sintetiche, le prestazioni che sono perfettamente soddisfacenti per gli utenti reali potrebbero essere considerate come un fallimento, o al contrario.

I rischi per la trasformazione digitale

Uno dei pericoli dovuti a questi bias sta nella perdita di fiducia nella tecnologia come fattore moltiplicatore e facilitatore di scala ed efficienza necessarie alle organizzazioni per funzionare come un’impresa digitale. Perché se l’intelligenza artificiale continua a fornire le risposte “errate”, nessuno si fiderà più.

infrastruttura ai-min

Per questo, diventa importante garantire l’osservabilità full-stack. Tanto che secondo F5 rappresenta oggi una delle sei competenze tecniche chiave necessarie alle organizzazioni per passare alla terza fase della trasformazione digitale, ovvero quella del business assistito dall’intelligenza artificiale. I dati mancanti, sia per via di un monitoraggio selettivo sia per l’effetto delle metriche secondo le opinioni, possono influenzare i modelli di AI usati per prendere decisioni operative. Una cura precisa verso le fonti e le tipologie di dati, unita a una strategia per i dati e l’osservabilità, aiuteranno a eliminare le distorsioni e a produrre risultati più precisi e affidabili.

Maggiori informazioni sul sito di F5.

Da non perdere questa settimana su Techbusiness

🔮 Il futuro dell’innovazione tecnologica, ecco come l’AI può esserci d’aiuto
 🕸️ La rivoluzione nell’automazione delle reti aziendali
🇪🇺 L’Unione Europea e il confine tra algoritmo e intelligenza artificiale
🏭 Google lancia IA per il Made in Italy per supportare le PMI italiane
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Stefano Regazzi

Il battere sulla tastiera è la mia musica preferita. Nel senso che adoro scrivere, non perché ho una playlist su Spotify intitolata "Rumori da laptop": amo la tecnologia, ma non fino a quel punto! Lettore accanito, nerd da prima che andasse di moda.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button