Scenario

Una svolta nella regolamentazione dell’intelligenza artificiale in Europa, ecco l’AI ACT

L’Unione Europea si è recentemente distinta come pioniere nel mondo della legislazione sull’Intelligenza Artificiale (AI), con l’introduzione della prima cornice normativa completa in materia, stiamo parlando del tanto discusso “AI ACT“. Questa mossa storica non solo affronta i rischi associati all’AI, ma posiziona anche l’Europa in una posizione di leadership globale in questo campo sempre più cruciale.

La legge sull’AI mira a fornire un quadro chiaro e definito per gli sviluppatori e gli operatori che sfruttano questa tecnologia. L’obiettivo è quello di delineare requisiti e obblighi specifici relativi ai diversi utilizzi dell’AI. Questo non solo mira a garantire la sicurezza e i diritti fondamentali delle persone e delle imprese, ma cerca anche di ridurre gli oneri amministrativi e finanziari, specialmente per le piccole e medie imprese.

Normativa AI ACT

La normativa dell’AI ACT: un passo avanti per la sicurezza e la competitività nell’UE

Un punto cruciale della legislazione è la sua enfasi sui rischi specifici associati all’AI. Mentre la maggior parte dei sistemi che ne fanno uso possono offrire soluzioni utili e innovative, alcuni presentano rischi che devono essere attentamente gestiti per evitare conseguenze indesiderate. Questa legge si propone di affrontare queste sfide attraverso una serie di norme e regolamenti mirati.

Naviga con NordVPN – Scopri la super offerta NordVPN – 65% di sconto

Uno dei principali aspetti della legge è la sua classificazione dei sistemi di AI in base al livello di rischio. Troviamo 4 livelli di rischio, ognuno rappresenta una fascia precisa di regolamentazione, pericoli o raccomandazioni che deve necessariamente rispettare.

Rappresentazione di AI

Rischio inaccettabile

Si tratta di sistemi che sottopongono dati e informazioni o persone e cose ad un pericolo reale e assolutamente non consono alle normative europee. Tra questi troviamo ad esempio il social scoring, ovvero un sistema di giudizio avanzato delle persone. Questo è possibile grazie ai propri comportamenti, le proprie ricerche e i propri dati. Come ulteriore esempio di rischio inaccettabile, che quindi non verrà ammesso all’interno dell’Unione Europea, troviamo tutti gli strumenti di polizia predittiva. Si tratta di meccanismi avanzati di ricerca che stimano la pericolosità di un individuo. Oltre a questi, non saranno ammessi gli strumenti di riconoscimento delle emozioni, in particolar modo nei luoghi di lavoro e nelle scuole.

Rappresentazione di AI nella medicina

Rischio elevato

Al contrario dei precedenti, questi non sono vietati, bensì sono sottoposti ad una regolamentazione molto rigida. Si tratta di sistemi di AI che coprono una vasta gamma di settori vitali. Pensiamo alle infrastrutture critiche come i trasporti, dove un errore potrebbe essere fatale. O nell’istruzione, dove l’AI può influenzare l’accesso all’istruzione e al lavoro.

Anche nei settori della sicurezza dei prodotti e dell’occupazione, questa nuova tecnologia ha un impatto significativo. La selezione del personale tramite software o l’uso dell’AI nella chirurgia robotizzata sollevano importanti questioni etiche e di sicurezza. Per mitigare tali rischi, sono necessari obblighi rigorosi. Questi includono sistemi di valutazione approfonditi, alta qualità dei dati, registrazione dettagliata delle attività e sorveglianza umana adeguata.

Rappresentazione di trasporto intelligente

In particolare, l’uso della biometria a distanza è considerato ad alto rischio e generalmente vietato in spazi pubblici. Sebbene ci siano eccezioni per situazioni critiche, come la ricerca di minori scomparsi, è stata posta particolare attenzione nel garantire che l’uso di questa tecnologia rispetti determinati limiti. La sicurezza e l’affidabilità dei sistemi di AI ad alto rischio sono essenziali. Devono essere sottoposti a una rigorosa valutazione e regolamentazione per garantire che siano utilizzati in modo sicuro e responsabile, rispettando i diritti fondamentali delle persone.

Rischio limitato

Il rischio limitato si riferisce alla mancanza di trasparenza nell’uso dell’AI. La nuova legge in materia impone obblighi di trasparenza per garantire consapevolezza e fiducia. Ad esempio, quando si interagisce con chatbot o si accede a contenuti generati dall’AI, è essenziale che le persone siano consapevoli della natura artificiale dell’interazione. I fornitori devono assicurarsi che i contenuti generati siano facilmente identificabili, incluso il testo, l’audio e il video. Queste misure sono fondamentali per mantenere la trasparenza e l’integrità nell’utilizzo dell’intelligenza artificiale, specialmente quando si tratta di informazioni pubbliche e decisioni influenzate dall’AI.

Rappresentazione di chatbot

Rischio minimo o nullo

La normativa AI ACT stabilisce che i sistemi di intelligenza artificiale a basso rischio, come i videogiochi che utilizzano l’AI o i filtri antispam, possono essere utilizzati liberamente. Questa categoria include la maggior parte dei sistemi di intelligenza artificiale attualmente impiegati nell’Unione Europea.

La garanzia del rispetto delle norme

Ma come viene messo in pratica tutto ciò per i fornitori di sistemi o servizi considerati ad alto rischio? Dopo che un sistema è stato lanciato sul mercato, le autorità hanno il compito di sorvegliare attentamente il mercato stesso. Allo stesso tempo, gli operatori devono garantire un monitoraggio umano costante e efficace. Inoltre, i fornitori sono tenuti a implementare un sistema di monitoraggio dedicato, che permetta di rilevare eventuali problematiche o malfunzionamenti del sistema. Nel caso si verifichino incidenti gravi o difetti nel funzionamento, sia i fornitori che gli operatori sono obbligati a segnalarli alle autorità competenti.

Normativa AI ACT

Un aspetto altrettanto importante della legge è la sua natura dinamica e orientata al futuro. Data la natura in continua evoluzione dell’AI, le norme sono progettate per adattarsi ai cambiamenti tecnologici e per garantire che gli sviluppatori rimangano responsabili della qualità e della sicurezza dei loro sistemi. Questo vale anche dopo l’immissione sul mercato.

L’opinione di influenti aziende IT

James Fisher, Chief Strategy Officer di Qlik
James Fisher, Chief Strategy Officer di Qlik

James Fisher, Chief Strategy Officer di Qlik, ha elogiato la normativa EU AI ACT per la sua classificazione dei sistemi di AI in base al rischio, ma ha sottolineato la necessità di un approccio normativo più flessibile che incoraggi l’innovazione senza compromettere l’etica. Ha suggerito un monitoraggio graduale basato sul rischio per ridurre gli oneri amministrativi sulle PMI. Inoltre ha ribadito di migliorare la protezione dei dati senza frenare il progresso tecnologico. Fisher ha auspicato un quadro legislativo che promuova un mercato competitivo, rafforzando la posizione dell’UE nell’AI etica e innovativa.

Andrea De Micheli, Presidente di Web3 Alliance
Andrea De Micheli, Presidente di Web3 Alliance

Andrea De Micheli, Presidente di Web3 Alliance, applaude l’approvazione della normativa sull’AI ACT come un passo significativo nella regolamentazione dell’Intelligenza Artificiale. L’UE si distingue nel proteggere cittadini e imprese, mentre il resto del mondo si concentra sulla ricerca. De Micheli auspica una piattaforma europea per un’AI indipendente, sottolineando l’importanza della cooperazione tra i Paesi. L’AI ha un impatto profondo su diverse aree e le normative sono cruciali per guidarne il progresso. Web3 Alliance sostiene questa legislazione per una crescita equa e trasparente del mercato, promuovendo un’industria competitiva e responsabile.

Per garantire la corretta applicazione e attuazione della legge, è stato istituito l’Ufficio europeo per l’AI. Questo organismo si impegna a supervisionare l’implementazione della legislazione. Promuovendo la collaborazione e l’innovazione, e lavorando per garantire che l’Europa rimanga un punto di riferimento per lo sviluppo etico e sostenibile delle tecnologie di intelligenza artificiale.

Da non perdere questa settimana su Techbusiness

🔮 Il futuro dell’innovazione tecnologica, ecco come l’AI può esserci d’aiuto
 🕸️ La rivoluzione nell’automazione delle reti aziendali
🇪🇺 L’Unione Europea e il confine tra algoritmo e intelligenza artificiale
🏭 Google lancia IA per il Made in Italy per supportare le PMI italiane
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
  
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
  
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
  
💌 Risolviamo i tuoi problemi di cuore con B1NARY
  
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
  
💸E trovi un po' di offerte interessanti su Telegram!

Gabriele Magenta Biasina

Appassionato di tecnologia, computer e videogiochi, e attualmente studente di informatica. Sempre aggiornato sulle ultime tendenze e sviluppi in questi campi, mi piace sperimentare nuove tecnologie e scoprire nuovi titoli. Creativo e con ottime capacità di problem solving, sono costantemente alla ricerca di nuove sfide e opportunità di apprendimento.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button