Il MIT (Massachusetts Institute of Technology) inizia l’anno, come da sua abitudine con delle proiezioni per i prossimi dodici mesi sui maggiori trend tecnologici. Visto il grande interesse nel 2023 per l’AI, e considerato il fatto che i ricercatori dell’MIT sono l’avanguardia in tale disciplina, non poteva mancare di trattare l’argomento. Per cui, un numero della raccolta What’s Next del MIT Technology Review è stato dedicato a cosa potrebbe succedere nel 2024 per a regolamentazione dell’AI.
Che cosa sta succedendo nel mondo
Nel 2023 abbiamo visto apparire le prime normative e una serie di dichiarazioni di intenti da parte di governi e altre organizzazioni. Tutti questo soggetti si sono trovati concordi a dire che il 2024 sarà l’anno in cui inizieranno delle azioni concrete nei riguardi dell’AI per applicare le nuove normative. Tuttavia, le proiezioni nei vari contesti non sembrano essere omogenee.
Stati Uniti
Negli Stati Unity il presidente Biden si era già espresso lo scorso ottobre richiedendo una maggiore trasparenza e degli standard. Il risultato è, secondo la definizione del MIT, un invito alle aziende a definire delle best practice e ad autoregolarsi. Nel 2024 queste nuove policy in via i definizione dovrebbero essere messe in pratica sotto la vigilanza nel neo-istituito US AI Safety Institute.
Secondo il MIT, quello che ci si può aspettare nel 2024 è un sistema di classificazione dell’AI in base al rischio che questa rappresenta per i diritti e i dati dei cittadini. Questo segue un po’ la falsa riga di quanto già fatto dall’Unione Europea nel 2023. A detta degli analisti, anche le elezioni presidenziali del 2024 potrebbero giocare un ruolo non secondario; soprattutto nella discussione relativa agli impatti su social media e alla disinformazione.
Europa
Il vecchio continente si è già portato avanti con la prima legiferazione. Potremmo riuscire a vedere i primi risultati già nel 2024 e non è da escludere che vengano messe al bando certe tipologie di AI. Aziende che sviluppano tecniche di intelligenza artificiale classificate al alto rischio per i diritti della popolazione dovranno ottenere l’autorizzazione dell’Unione per poterle utilizzare. Alcune applicazioni, invece, saranno completamente vietate. Ad esempio, non sarà possibile costruire un database per il riconoscimento facciale (come Clearview AI) e usare sistemi di riconoscimento delle emozioni nei posti di lavoro e nelle scuole. In generale, le aziende saranno obbligate ad essere più trasparenti su come sviluppano i loro modelli e diventeranno più responsabili per i danni che questi dovessero causare. Su questo ultimo punto l’Europa sta lavorando anche a una legge che regolamenti le eventuali compensazioni economiche per chi ha subito dei danni derivati dall’uso di AI.
Cina
Fino a questo momento la regolamentazione cinese sembra essere stata un po’ frammentata e poco organizzata. Anziché una regolamentazione omnicomprensiva pare si preferisca normare le singole applicazioni mano a mano che queste conquistano mercato. Le cose, però, potrebbero cambiare nel 2024 perché nell’agenda legislativa della Repubblica Popolare Cinese è stata annunciata (già nel 2023) una “artificial intelligence law“; non ci sono però informazioni su quanto questa potrà venire alla luce.
Già oggi, comunque, tutte le aziende cinesi che si occupano di AI sono soggette a una regolamentazione molto stringente. Infatti, qualunque modello di AI deve essere registrato presso il governo prima di venire rilasciato al pubblico.
Attualmente, nessuna azienda straniera ha avuto ancora il permesso di rilasciare i suoi modelli sul territorio Cinese. Secondo gli analisti è anche difficile che ciò possa accadere in futuro. Questo potrebbe dare un vantaggio alle aziende interne, ma potrebbe anche soffocare il mercato.
Il resto del mondo
È logico pensare che anche il resto del mondo si attiverà durante il 2024. Sia per poter permettere alle proprie aziende di competere sia per proteggere i propri consumatori. È il caso, ad esempio, dell’Africa, dove alcuni stati si stanno già organizzando.
Anche organizzazioni internazionali come OECD e G20 stanno creando dei loro gruppi di lavoro. Questo, secondo il MIT, potrebbe portare a delle regolamentazioni più uniformi tra nazioni e continenti.
I ricercatori dell’MIT chiudono con una interessante considerazione su come le realtà del primo mondo sembrano interessate a trasformare le loro aziende che fanno AI in vere e proprie armi economiche. Sarebbe interessante, secondo loro, sapere se queste aziende hanno più a cuore l’espansione internazionale o la localizzazione del servizio. Perché il 2024 potrebbe essere per loro un anno di scelte difficili.
Questo articolo è un estratto ispirato da “What’s next for AI regulation in 2024?” di Tate Ryan-Mosley, Melissa Heikkilä e Zeyi Yang apparso su “MIT Technology Review” il 5 gennaio 2024. Per chi è interessato, la versione integrale in lingua inglese è liberamente disponibile online.