Case StudyScenario

Come regolamentare l’intelligenza artificiale? Sei proposte a confronto

L’intelligenza artificiale (IA) è una tecnologia in rapida evoluzione che offre grandi opportunità ma anche grandi rischi. Un esempio di questo è il chatbot ChatGPT di OpenAI, che ha stupito il pubblico con la sua capacità di generare testi coerenti e realistici su qualsiasi argomento. Questa AI generativa potrebbe essere usata per creare strumenti di produttività e assistenti creativi, ma anche per diffondere disinformazione e perpetrare spam e truffe. Di fronte a questi scenari, molti attori internazionali hanno sollevato la questione della regolamentazione dell’IA, chiedendo standard comuni e limiti più severi per questa tecnologia. Ma quali sono le possibili soluzioni? Come regolamentare l’intelligenza artificiale? 

Technologyreview ha esaminato sei iniziative internazionali, indicandone i punti di forza e di debolezza. Vediamo insieme quali sono le possibilità.

Come regolamentare l’intelligenza artificiale in 6 esempi

1) Il tentativo della Commissione Europea: un trattato internazionale

Il Consiglio d’Europa, sta lavorando a un accordo giuridico che coinvolge 46 Paesi per stabilire delle norme sull’intelligenza artificiale. L’obiettivo dell’accordo è di assicurare che l’AI sia creata, usata e gestita in modo da salvaguardare i diritti umani, la democrazia e lo stato di diritto. L’accordo potrebbe prevedere delle pause temporanee sulle tecnologie che minacciano i diritti umani, come il riconoscimento facciale.

La soluzione, per quanto interessante, risulta però di lenta applicazione. Ogni Paese dovrebbe infatti approvare l’accordo e adeguarlo alle singole legislazioni nazionali.

2) ONU: monitorare invece di regolamentare

L’ONU, che conta 193 Paesi membri, ha presentato quadro etico volontario sull’AI. Questo prevede che i Paesi si impegnino a introdurre valutazioni di carattere etico e sull’impatto ambientale dell’intelligenza artificiale. Lo scopo è garantire che la tecnologia promuova l’uguaglianza di genere e non sia utilizzata per la sorveglianza di massa. Più in modo per monitorare la situazione che un vero e proprio tentativo di regolamentazione.

Utilizza ChatGPT con NordVPN – 56% di sconto sul piano annuale + 3 mesi gratis

3) Come regolamentare l’intelligenza artificiale secondo l’OCSE

Nel 2019, un gruppo di Paesi membri dell’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha cercato di rispondere alla domanda “come regolamentare l’intelligenza artificiale”. Per farlo hanno adottato una serie di principi non vincolanti che esprimono una visione comune sull’IA.

I principi dell’OCSE stabiliscono che i sistemi AI dovrebbero essere progettati e implementati in modo da essere trasparenti e spiegabili, robusti, sicuri e protetti, responsabili e rispettosi dello stato di diritto, dei diritti umani, dei valori democratici e della diversità. Inoltre, i principi sottolineano che l’AI dovrebbe essere al servizio della crescita economica e del benessere sociale.

Inoltre, l’OCSE monitora e analizza le normative nazionali sull’AI e conduce studi sull’impatto economico dell’IA. L’OCSE dispone anche di una rete di esperti mondiali di IA che conducono ricerche e condividono le migliori pratiche.

Ad ogni modo si tratta di semplici linee guida. L’OCSE, infatti, non ha il potere di imporre norme vincolanti ai suoi membri, ma può solo fornire raccomandazioni e orientamenti. Inoltre l’OCSE ha come obiettivo principale quello di stimolare la crescita economica, il che potrebbe entrare in conflitto con altri valori sociali ed etici.

4) L’AI Act dell’UE

Anche l’Unione Europea (UE) ha deciso di dotarsi di una normativa specifica che disciplini gli usi dell’IA più sensibili e pericolosi. Si tratta dell’AI Act, di cui si discute molto ultimamente. 

Il disegno di legge prevede una classificazione dei sistemi basati su intelligenza artificiale in base al livello di rischio che comportano e stabilisce delle regole diverse a seconda della categoria. Ad esempio, l’AI applicata all’assistenza sanitaria e all’istruzione rientra nella categoria “ad alto rischio” e richiede dei requisiti più stringenti in termini di qualità, trasparenza e responsabilità. Al contrario, l’IA usata per scopi ludici o creativi è considerata “a basso rischio” e non è soggetta a restrizioni particolari.

Tra le misure più importanti e discusse dell’AI Act ci sono quelle relative all’AI generativa e al riconoscimento facciale. Il disegno di legge impone che questi contenuti siano chiaramente etichettati come tali per evitare la diffusione di fake news Inoltre l’AI Act vieta l’uso del riconoscimento facciale in spazi pubblici, salvo alcune eccezioni limitate e temporanee per motivi di sicurezza o giustizia.

L’AI Act rappresenta probabilmente il più ambizioso dei tentativi di regolamentazione dell’intelligenza artificiale.

5) Gli standard ISO

L’Organizzazione Internazionale per la Standardizzazione (ISO) ha elaborato degli standard specifici per l’AI, che forniscono delle linee guida operative alle aziende. Gli standard ISO coprono aspetti come la gestione del rischio, la valutazione dell’impatto, lo sviluppo e il monitoraggio dell’IA. Questi standard consentono alle aziende di adeguarsi alle normative vigenti e di anticipare quelle future, in quanto i Paesi stanno definendo le proprie leggi sull’IA.

6) Un Partenariato globale sull’AI

Nato da un’idea del primo ministro canadese Justin Trudeau e del presidente francese Emmanuel Macron, il Partenariato globale sull’AI (GPAI) è stato fondato nel 2020 come organismo internazionale in grado di condividere ricerche e informazioni sull’intelligenza artificiale, di promuovere la collaborazione internazionale nel campo della ricerca sull’AI responsabile e di regolamentare la tecnologia. L’organizzazione comprende 29 Paesi, alcuni dei quali in Africa, Sud America e Asia. Tuttavia, dopo un roboant lancio dell’iniziativa, l’organizzazione ha mantenuto un basso profilo e non ha pubblicato alcun lavoro nel 2023.

Da non perdere questa settimana su Techbusiness

🔝LinkedIn pubblica il report Top Companies Italia 2024: al primo posto Intesa Sanpaolo
 
🍪Il futuro della privacy online: Google dice addio ai cookie di terze parti
 
🪪Parliamo di SASE: intervista a Aldo Di Mattia di Fortinet
 
💡AMD e i data center energeticamente sostenibili. Intervista ad Alexander Troshin
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Marco Brunasso

Scrivere è la mia passione, la musica è la mia vita e Liam Gallagher il mio Dio. Per il resto ho 30 anni e sono un musicista, cantante e autore. Qui scrivo principalmente di musica e videogame, ma mi affascina tutto ciò che ha a che fare con la creazione di mondi paralleli. 🌋From Pompei with love.🧡

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button