Intelligenza artificiale, cosa prevede il regolamento Ue (e perché è importante)

Ilena D’Errico

15 Giugno 2023 - 11:38

In arrivo il regolamento dell’Unione europea che si propone di disciplinare l’uso, e l’abuso, dell’intelligenza artificiale. Ecco cosa prevede e perché è piuttosto importante.

Intelligenza artificiale, cosa prevede il regolamento Ue (e perché è importante)

Arriva l’Ai Act, il regolamento europeo sull’intelligenza artificiale che mira ad adeguare la normativa ai rapidissimi progressi tecnologici che stanno caratterizzando gli ultimi anni. La prima bozza a riguardo, infatti, risaliva al 2021 ed è assolutamente inefficace per disciplinare la questione al giorno d’oggi. Nella data di ieri, 14 giugno, il Parlamento europeo ha votato il testo, che deve ancora passare dalla Commissione e dal Consiglio prima dell’accordo definitivo. L’Ai Act dovrebbe quindi essere pronto per la fine dell’anno, per entrare in vigore nel 2025, così da mettere finalmente dei punti fermi all’utilizzo dell’intelligenza artificiale nel rispetto della privacy e delle proprietà intellettuali, ma non solo.

Vediamo allora cosa prevede il nuovo regolamento europeo e perché è così importante la sua definizione.

I livelli di rischio dell’AI

La Commissione europea ha definito alcune categorie di rischio, quattro per la precisione, delle applicazioni che utilizzano l’intelligenza artificiale. In questo modo, sarà possibile applicare limiti commisurati alla pericolosità di questi strumenti e congruenti sanzioni per le violazioni. In particolare, si evidenziano:

  • Rischio inaccettabile, relativo a sistemi che violano i valori europei e sono pertanto inutilizzabili;
  • rischio alto, riguardo a sistemi che possono impattare sulla sicurezza e i diritti dei cittadini e che pertanto devono rispondere a determinati requisiti;
  • rischio limitato, per i sistemi privi di considerevoli pericoli, che dovranno rispondere a requisiti limitati (tra cui il principio di trasparenza);
  • rischio minimo, ai cui sistemi non sarà apposto nessun obbligo di legge.

Applicazioni di intelligenza artificiale vietate

I sistemi a rischio inaccettabile saranno vietati su tutto il territorio di pertinenza dell’Unione europea. Tra le applicazioni di intelligenza artificiale che saranno vietate ci sono:

  • I sistemi di social scoring, ossia di credito sociale. Si tratta di applicativi utilizzati in Cina che classificano la reputazione dei cittadini con un sistema a punteggio in base ai loro comportamenti.
  • Gli strumenti di polizia predittiva, che con i dati a disposizione individuano la potenziale pericolosità di un individuo. La polizia predittiva tramite l’intelligenza artificiale è utilizzata negli Stati Uniti per anticipare i crimini.
  • Targetizzazione degli utenti vulnerabili, ad esempio dei bambini.
  • Sistemi che impiegano la manipolazione subliminale potenzialmente dannosa, ad esempio che può indurre a comportamenti pericolosi.

Nella classe ad alto rischio, dunque non vietati ma sottoposti a rigidi parametri, troviamo – fra gli altri – i sistemi che possono influenzare gli elettori e l’esito delle elezioni politiche. In ogni caso, i sistemi di questa fascia di rischio devono essere valutati in base al potenziale danno alla salute, alla sicurezza, ai diritti o all’ambiente. Rimane nel rischio minimo, comunque, la maggior parte dei sistemi di Ai impiegati, compresi videogiochi e filtri antispam.

Divieto di sorveglianza di massa

I legislatori hanno aggiunto nella proposta iniziale della Commissione il divieto alla sorveglianza di massa, che si articola nel divieto del riconoscimento facciale a distanza e nel divieto di identificazione biometrica in pubblico. Si tratta di quei sistemi che scansionano i passanti per abbinarli, tramite l’intelligenza artificiale, ai dati all’interno di un database.

Il Parlamento ha bocciato gli emendamenti proposti dal Partito popolare europeo, che intendeva porre due eccezioni alla regola: i bambini scomparsi e l’identificazione di sospettati in gravi crimini. È stato però rilevato che con questi emendamenti si sarebbe comunque creato un sistema di monitoraggio. Si prevede comunque maggiore attenzione per i settori che possono maggiormente influenzare le persone e la loro vita, come l’istruzione e la ricerca di lavoro.

È stata posta particolare attenzione alle intelligenze artificiali generative, in seguito alla massiccia diffusione di ChatGpt e Midjourney. Queste applicazioni non rientrano nei sistemi a rischio inaccettabile, ma saranno comunque sottoposte ad alcuni dei requisiti previsti per i sistemi ad alto rischio.

Non sarà comunque possibile richiedere la certificazione di conformità da ente terzo, come previsto per le applicazioni ad alto rischio, ma ci si dovrà accontentare dell’autocertificazione. Si rischierebbe, altrimenti, di dare un importante arresto allo sviluppo di questi sistemi. È comunque stato introdotto l’obbligo di documentare il materiale protetto da copyright utilizzato dai sistemi di intelligenza artificiale. La tutela del diritto d’autore sarà poi affievolita, ma soltanto limitatamente all’allenamento degli algoritmi.

Cosa rischia chi viola il regolamento

L’Ai Act prevede severe sanzioni per i trasgressori del regolamento, in particolare per chi diffonde applicazioni proibite o non rispetta i requisiti previsti per i sistemi ad alto rischio. Le multe possono arrivare fino a 30 milioni di euro oppure al 6% del fatturato annuo. Una simile sanzione potrebbe costare una multa miliardaria ai colossi del campo, come Microsoft, Meta e Google.

Perché il regolamento Ue sull’intelligenza artificiale è importante

I potenziali pericoli dell’intelligenza artificiale, o meglio del suo utilizzo improprio, sono davvero molti. Gli stessi soggetti coinvolti per lo sviluppo delle applicazioni concordano sulla necessità di attenzione e paletti ferrei. Sam Altman, fondatore di ChatGpt, ha firmato un documento in cui si cita anche la possibile estinzione della razza umana con l’utilizzo sbagliato.

Tralasciando gli scenari più catastrofici, è innegabile che il progresso dell’intelligenza artificiale può - se preso sottogamba – minare indelebilmente i diritti fondamentali dei cittadini, dalla privacy alla libertà, con riflesso su ogni aspetto della vita quotidiana. È quindi evidente la necessità di porre degli argini di sicurezza entro cui lasciar correre il progresso, ma non è solo questo fondamentale intento a rendere il regolamento Ue così importante.

L’Unione europea è stata la prima istituzione a metter mano a un regolamento in proposito, ponendosi come esempio per il resto del mondo, nonostante non ospiti nel suo territorio alcuno degli agenti tecnologici principali. Oltre all’azione preventiva, l’Ue ha anche avviato un accordo con gli Stati Uniti per l’introduzione di un codice di condotta su base volontaria, che potrà essere introdotto molto più rapidamente.

Iscriviti a Money.it