AziendeCase Study

I concetti di trasparenza ed explainability nell’Intelligenza Artificiale sono fondamentali quando si utilizza questa tecnologia

Concetti come trasparenza ed explainability sono molto importanti quando si usa l’Intelligenza Artificiale. Soprattutto sono molto importanti se teniamo conto che molti professionisti, anche del settore IT, non sono molto esperti nell’utilizzare questa tecnologia. Sono principi molto spesso discussi quando si parla di Intelligenza Artificiale in termini di etica, di responsabilità e di governance dell’AI.

Lori MacVittie, Distinguished Engineer di F5, ha elaborato uno studio su quanto gli aspetti di trasparenza ed explainability siano assolutamente cruciali quando si adopera l’Intelligenza Artificiale. Questi due concetti sono molto importanti non solo per creare fiducia, ma anche per supportare la risoluzione dei problemi durante la fase di debugging.

I concetti cruciali da avere chiari con l’Intelligenza Artificiale

I concetti di trasparenza ed explainability sono molto importanti anche solo a livello generale. Ma utilizzando la tecnologia dell’AI diventano ancora più importanti, soprattutto perché anche molti esperti del settore IT non hanno grande familiarità con questa tecnologia. E questi due concetti, simili ma molto differenti, possono aiutare a comprendere meglio questa tecnologia e i suoi usi.

Il concetto di trasparenza è abbastanza didascalico: è incentrato sul fornire informazioni generali a un pubblico ampio e vasto. L’explainability è più complesso come concetto. È il concetto basato sul fornire e chiarire decisioni individuali prese a utenti, sviluppatori e stakeholder che necessitano di comprendere a fondo il sistema. In sintesi, la trasparenza dà fiducia al sistema, l’explainability instaura fiducia verso i risultati.

L’importanza della trasparenza e della citazione delle fonti

La trasparenza è un concetto fondamentale, necessario per far comprendere al meglio le informazioni di un sistema di Intelligenza Artificiale ad altri utenti. Un ottimo grado di trasparenza permette di avere chiaro il funzionamento di un sistema, viceversa un grado basso rende difficoltosa la comprensione degli stakeholder di un determinato sistema di Intelligenza Artificiale.

Ci sono tre elementi chiavi che ruotano intorno al concetto di trasparenza. Il primo è quello di Design e sviluppo. Infatti, per la massima trasparenza, si rende necessario condividere informazioni sul design, sui processi di addestramento e sull’architettura dei sistemi di AI. In questo caso, il concetto di trasparenza è simile a quello delle dichiarazioni dei servizi finanziari in cui i fornitori spiegano quali dati e criteri vengono utilizzati per determinare l’idoneità per un mutuo.

Vi è poi, come specificato nel lavoro di Lori MacVittie di F5, il concetto di Dati e Input. La trasparenza richiede chiarezza anche sulle tipologie di dati utilizzati e sulle fonti utilizzati per estrapolarli. Ma non solo, ciò riguarda anche come vengono poi trasformati ed elaborati i dati.

Infine, vi è il concetto di Governance e responsabilità. Infatti è molto importare fornire informazioni su chi è responsabile dello sviluppo di un sistema di AI, perché questo aiuta molto gli stakeholder.

Gli italiani stanno avendo più fiducia verso l'AI

Explainability: fondamentale con l’Intelligenza Artificiale

L’explainability è quel concetto, come spiegato da Lori MacVittie di F5, che sottolinea l’importanza di spiegare perché è stata presa una decisione particolare, concentrandosi sul rendere comprensibili agli utenti e agli stakeholder i risultati dell’AI.

Vi sono tre elementi chiave per chiarire al meglio questo concetto. Il primo è la Giustificazione delle decisioni, in pratica si tratta di rispondere alla domanda “Perché l’Intelligenza Artificiale ha preso questa determinata decisione?”, quindi non dissimile dal fare una dimostrazione geometrica basata su assiomi.

Il secondo elemento è quello dell’Interpretabilità del modello. Capire il modello alla base di un’Intelligenza Artificiale è molto importante per chiarire diversi aspetti del sistema agli stakeholder, poiché non tutti possono comprendere certi concetti di calcolo avanzati. Capire quale architettura si stia utilizzando è quindi di vitale importanza.

Infine, l’ultimo ma non meno importante concetto chiave per spiegare quello di explainability è quello di Comprensibilità umana. Non bisogna mai trascurare il fatto che le informazioni devono essere divulgate a tutti in maniera chiara e comprensibile anche per i meno esperti.

Più fiducia verso l’Intelligenza Artificiale con il concetto di explainability

Come si è compreso dal lavoro di Lori MacVittie, Distinguished Engineer di F5, i concetti di explainability e trasparenza sono fondamentali per far sì che si instauri più fiducia verso la tecnologia dell’Intelligenza Artificiale. Perché, come continua MacVittie, se vengono chiariti bene, questi due concetti possono ridurre i tempi che intercorrono tra l’introduzione di una tecnologia e la sua effettiva adozione.

Da non perdere questa settimana su Techbusiness

 

📈 SAP NOW 2024 l'intelligenza artificiale per il business conquista Milano
💸 Come calcolare il ritorno sugli investimenti nell’Intelligenza Artificiale
👨‍⚖️ Direttiva NIS2 e cybersecurity nelle PMI italiane obblighi e opportunità
🔫 Metà degli attacchi informatici in Italia prende di mira le supply chain
📰 Ma lo sai che abbiamo un sacco di newsletter?
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
💸E trovi un po' di offerte interessanti su Telegram!

Autore

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button