L’AI Act, ossia il regolamento europeo sull’intelligenza artificiale, è molto dibattuto, specialmente in Europa, per la sua importanza. Vediamo di cosa si tratta e cosa prevede.
L’AI Act, ossia il regolamento europeo sull’intelligenza artificiale, sta per arrivare.
Dopo un lungo periodo di gestazione sembra che gli addetti ai lavori siano riusciti a trovare il giusto equilibrio per normare in maniera efficacie questo insieme di tecnologie rivoluzionarie, in modo da salvaguardare i cittadini e non limitare l’innovazione.
Cos’è l’AI Act
Nonostante se ne parli molto, ci sono ancora molte persone che non hanno ben chiaro cos’è l’AI Act, è perciò importante cercare di fare luce. L’AI Act è un disegno di legge europeo che mira a regolamentare l’uso dell’intelligenza artificiale e delle sue relative applicazioni.
La prima proposta di regolamentazione è arrivata da parte della Commissione europea nel 2021, da quel momento i lavori sono in corso per cercare di trovare una soluzione equilibrata, sia dal punto di vista della sicurezza degli utenti, sia delle opportunità.
L’obiettivo del regolamento inoltre è quello di fornire agli sviluppatori e agli utenti requisiti e obblighi il più chiari possibile per quanto riguarda gli usi dell’intelligenza artificiale.
Per farlo, gli addetti ai lavori hanno diviso i vari sistemi di intelligenza artificiale in categorie, basandosi sul livello di rischio che possono rappresentare per la salute e la sicurezza o per i diritti fondamentali degli individui.
Che cosa prevede l’AI Act
Grazie all’AI Act sarà possibile avere nuove regole sull’intelligenza artificiale. Queste in particolare permetteranno ai cittadini europei di sfruttare le possibilità offerte dall’AI, ma con maggiore sicurezza. In primo luogo, l’AI Act cercherà di arginare i rischi creati specificatamente dalle applicazioni dell’intelligenza artificiale.
Non solo: il regolamento proporrà una lista di applicazioni che sono considerate più rischiose delle altre. A queste sarà dedicata un’attenzione particolare, saranno infatti proposte alcune norme specifiche per renderle potenzialmente meno pericolose.
Saranno poi definite alcune regole specifiche non soltanto per coloro che sviluppano le applicazioni di intelligenza artificiale particolarmente rischiose, ma anche per i loro utilizzatori.
I prodotti e i servizi che sfruttano l’intelligenza artificiale, inoltre, saranno oggetto di alcune valutazioni riguardo alla loro conformità con il regolamento, così che il regolatore possa essere sicuro che non siano potenzialmente dannosi. L’AI Act, infine, si pone l’obiettivo di proporre una struttura di governance a livello europeo e nazionale.
AI Act: un approccio basato sul rischio
Come è strutturato il regolamento europeo sull’intelligenza artificiale? Il quadro normativo proposto è basato sul rischio e diviso su quattro livelli. Questo può essere: inaccettabile, alto, limitato o minimo/assente.
1) Rischio inaccettabile
Con il regolamento per l’intelligenza artificiale tutti gli strumenti che saranno considerati un rischio per la sicurezza delle persone saranno banditi. Alcuni esempi di strumenti vietati sono quelli basati sul «social scoring» e i giocattoli che incoraggiano un comportamento potenzialmente pericoloso.
2) Ad alto rischio
Il secondo livello di rischio è quello alto. In questo ambito, il regolatore include diversi utilizzi dell’intelligenza artificiale. Tra i più importanti ci sono l’uso dell’AI
- nelle infrastrutture critiche (trasporti), che potrebbero mettere la vita dei cittadini in pericolo;
- nei sistemi di formazione scolastica o professionale, che potrebbero determinare l’accesso al diritto allo studio;
- nei componenti di sicurezza dei prodotti, come per esempio su robot che effettuano operazioni chirurgiche;
- nei sistemi di gestione dei lavoratori, come quelli utilizzati per l’analisi dei CV;
- nei servizi pubblici e privati essenziali, ossia quelli che permettono di accedere, per esempio, a un prestito;
- nei sistemi che permettono l’analisi sull’affidabilità delle prove e che possono potenzialmente privare gli individui delle loro libertà fondamentali;
- nei sistemi per il controllo e la gestione dei confini e delle migrazioni;
- nei sistemi per amministrazione della giustizia e dei processi democratici.
Grazie alle nuove regole sull’intelligenza artificiale, questi sistemi saranno soggetti a controlli particolarmente minuziosi e delicati prima di poter essere messi sul mercato.
Dovranno infatti:
- disporre di sistemi di mitigazione e valutazione dei rischi;
- possedere dati di alta qualità per minimizzare i rischi di discriminazione;
- registrare le attività che svolgono così da poter tracciare i risultati che ottengono;
- disporre di tutta la documentazione necessaria per permettere alle autorità competenti di valutare l’eventuale conformità alle leggi;
- fornire informazioni precise agli utenti in materia di utilizzo;
- mettere a disposizione sufficiente sorveglianza umana per ridurre al minimo i rischi;
- avere un alto livello di robustezza, precisione e sicurezza.
Inoltre, tutti i sistemi di identificazione biometrica controllati da remoto saranno considerati ad alto rischio, mentre quelli in luogo pubblico destinati all’utilizzo delle forze dell’ordine sono proibiti.
In questo senso ci sono alcune eccezioni per perseguire alcune missioni particolarmente delicate, come per esempio ritrovare un bambino scomparso oppure catturare un criminale colpevole di reati gravissimi.
Questo uso in particolare deve essere autorizzato da un organo giudiziario o da un altro organismo indipendente e a limiti precisi nel tempo, nella portata geografica e nelle basi di dati ricercate.
Di recente, inoltre, il Parlamento europeo si è messo al lavoro per aggiungere ulteriori requisiti per i software che impiegano l’intelligenza artificiale generativa, come ChatGPT. Alle aziende che li controllano, in particolare, è richiesta maggiore trasparenza.
3) Rischio limitato
Con sistemi di intelligenza artificiale a rischio limitato si intendono quei sistemi che hanno specifici requisiti di trasparenza. Tra questi sistemi sono annoverati i chatbot, per i quali gli sviluppatori devono mettere a disposizione degli utenti informazioni chiare riguardo al loro status di macchine e non di umani senzienti, così da permettere loro di interrompere l’utilizzo prima di utilizzarli, se desiderato.
4) Rischio minimo/assente
I sistemi di intelligenza artificiale in cui il rischio è minimo o assente possono essere utilizzati senza problemi. Alcuni esempi di sistemi di intelligenza artificiale di questo tipo sono i videogiochi che utilizzano queste tecnologie così come i filtri anti-spam.
Sistemi di intelligenza artificiale ad alto rischio: come sono regolati
I sistemi di intelligenza artificiale ad alto rischio, come abbiamo visto, devono passare attraverso un processo di controllo piuttosto severo prima di essere immessi sul mercato.
Questo processo è strutturato in quattro fasi: nella prima fase il sistema viene sviluppato; nella seconda fase è sottoposto a una valutazione attenta da parte dell’organo competente per verificare se questo è conforme alle regole sull’intelligenza artificiale, inoltre, in alcuni casi è nominato un gruppo di esperti per assistere il regolatore nelle valutazioni; nella terza fase, se il sistema supera i controlli viene registrato in un database dell’Unione europea.
Una volta che tutte queste procedure sono state svolte, il sistema di intelligenza artificiale in oggetto viene autorizzato attraverso una dichiarazione di conformità e viene dotato del marchio «CE»; a questo punto può andare sul mercato.
Qualora avvengano dei cambiamenti sostanziali questa procedura riparte dalla seconda fase, ossia quella della valutazione della conformità.
Il regolamento è stato redatto e successivamente emendato con la consapevolezza che le possibili applicazioni dell’intelligenza artificiale sono molteplici e in rapida evoluzione. È per questo motivo che il testo ha un approccio abbastanza elastico da potersi adattare anche alle prossime innovazioni.
AI Act: i prossimi passi
Recentemente la relazione sulla proposta di Regolamento presentata al Parlamento europeo è stata approvata dalla commissione per il Mercato interno e la protezione dei consumatori (Imco) e da quella per le Libertà civili, la giustizia e gli affari interni (Libe) con 87 voti a favore, 7 contrari e 12 astenuti.
A questo punto la relazione dovrà essere votata durante la prossima plenaria del Parlamento, che avrà luogo dal 12 al 15 giugno, in vista dei negoziati con il Consiglio europeo.
Secondo le informazioni attualmente disponibili, l’applicazione del regolamento sull’intelligenza artificiale dovrebbe avere inizio a partire dalla seconda metà del 2024.
© RIPRODUZIONE RISERVATA