• Home
  • Blog
  • L’Europa prende posizione sulla Intelligenza Artificiale

L’Europa prende posizione sulla Intelligenza Artificiale

20 Marzo 2024
AI Intelligenza artificiale

Lo scorso 13 marzo, il Parlamento europeo ha votato a favore della legislazione sull’intelligenza artificiale (Artificial Intelligence Act) con l’intento di proteggere i diritti fondamentali e la sicurezza dei cittadini europei, promuovere l’innovazione e stabilire l’Unione Europea come leader nel settore. Questa ratifica rappresenta un passo epocale, rendendo l’UE la prima istituzione al mondo a dotarsi di norme specifiche sull’uso dell’IA.

I progressi dell’UE verso l’approvazione della legislazione sull’intelligenza artificiale

È la prima volta che un’istituzione adotta un regolamento che regola chiaramente l’IA, definendo norme uniformi per l’introduzione sul mercato, l’implementazione e l’utilizzo dei sistemi di intelligenza artificiale. La nuova legge proibisce determinate pratiche legate all’IA e impone precisi obblighi agli operatori di tali sistemi, in base ai potenziali rischi e all’impatto sugli utenti. Questo è un traguardo significativo considerando che l’IA ha già da tempo un ruolo integrato nella nostra vita quotidiana, influenzando vari aspetti. Basti pensare alle applicazioni di riconoscimento facciale su smartphone e social media, alle piattaforme di e-commerce che utilizzano algoritmi di IA per personalizzare le esperienze di shopping online o ai sistemi di automazione domestica. L’impiego dell’IA può portare vantaggi competitivi sia per i cittadini che per le imprese, generando risultati positivi anche sul piano sociale e ambientale, come nel settore sanitario, nella gestione delle infrastrutture e nell’affrontare e adattarsi ai cambiamenti climatici. Tuttavia, l’uso dell’IA comporta anche rischi e potrebbe minacciare gli interessi pubblici e i diritti fondamentali tutelati dalla legislazione dell’UE. Data l’importanza dell’impatto che l’IA può avere sulla società e la necessità di adottare un approccio centrato sull’uomo nello sviluppo e nell’utilizzo dell’IA, era fondamentale stabilire regole comuni per i sistemi di IA ad alto rischio, che potrebbero generare discriminazioni e pregiudizi inaccettabili. Per questo motivo, nell’aprile del 2021, la Commissione Europea ha presentato una proposta di regolamento sull’IA. Il 9 dicembre 2023, è stato raggiunto un accordo provvisorio tra il Consiglio e il Parlamento europeo riguardo a questa proposta, tenendo conto anche delle raccomandazioni provenienti dai cittadini che hanno partecipato alla Conferenza sul Futuro dell’Europa (COFE), una serie di discussioni condotte dai cittadini stessi sulle priorità e le sfide fondamentali che l’UE deve affrontare.

I quattro livelli di rischio per i sistemi di intelligenza artificiale

Il regolamento definisce quattro livelli di rischio per i sistemi di IA: inaccettabile, elevato, limitato e minimo. Ogni sistema di IA sarà soggetto a una serie di obblighi in base ai rischi potenziali per gli utenti o per il contesto in cui viene utilizzato.

Sistemi di IA a rischio inaccettabile
Sono quelli che rappresentano una minaccia per la sicurezza e i diritti delle persone e saranno vietati. Questo include sistemi utilizzati per la manipolazione cognitivo-comportamentale degli utenti, come alcuni giocattoli che utilizzano assistenti vocali per promuovere comportamenti pericolosi nei minori, o sistemi di “punteggio sociale” che valutano gli individui e influenzano l’accesso ai servizi in base al comportamento. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, che potrebbero essere utilizzati per monitorare gli studenti o valutare il loro coinvolgimento emotivo.

Sistemi di IA ad alto rischio
Saranno soggetti a regole rigorose prima di essere introdotti sul mercato dell’UE. Questi sistemi potrebbero causare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente e alla democrazia. Ciò include sistemi utilizzati nelle scuole per determinare l’accesso all’istruzione o in ambito medico per la chirurgia robotizzata.

Sistemi di IA per scopi generali e a basso rischio
Questi sistemi saranno soggetti a maggiori obblighi di trasparenza, incluso il rispetto delle norme UE sul diritto d’autore e la pubblicazione delle fonti utilizzate. Ad esempio, i chatbot dovranno informare gli utenti che stanno interagendo con una macchina.

Deepfake
La legge richiede che i contenuti deepfake siano chiaramente identificati come tali per garantire la trasparenza agli utenti.

Autorità di controllo e reclami

Ogni Paese dell’UE istituirà agenzie nazionali di supervisione e offrirà spazi di sperimentazione per le PMI per testare i sistemi basati sull’IA prima di metterli sul mercato. I cittadini potranno presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su tali sistemi ad alto rischio.

La nuova legge entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile due anni dopo.

Ritieni interessante questo articolo? Facci sapere cosa ne pensi o condividilo sui social

Hai domande o vuoi dire la tua su questo articolo del blog?
Contattaci, assicuriamo risposta in tempi rapidi.

Contattaci

My Agile Privacy
Questo sito utilizza cookie tecnici e di profilazione. Cliccando su accetta si autorizzano tutti i cookie di profilazione. Cliccando su rifiuta o la X si rifiutano tutti i cookie di profilazione. Cliccando su personalizza è possibile selezionare quali cookie di profilazione attivare.