Quali saranno le sfide giuridiche e legali per normare l’Intelligenza Artificiale? Verrà istituita una «personalità robotica» che risponderà in caso di danni? Facciamo il punto.
I sistemi di intelligenza artificiale - primo su tutti Chat GPT, acronimo di Generative Pretrained Transformer - stanno per invadere la nostra vita. Una tecnologia potente e versatile che utilizza algoritmi avanzati di apprendimento automatico per generare azioni complete e articolate incredibilmente simili a quelle umane.
Ma dal punto di vista giuridico quali sono le implicazioni? I robot e i macchinari sempre più intelligenti come dovranno essere considerati? Solo strumenti? E se creano danni chi ne risponde?
Le implicazioni giuridiche dell’intelligenza artificiale
Per noi giuristi dell’innovazione la sfida di questi tempi e la domanda ricorrente è come regolare tutte le applicazioni di intelligenza artificiale, ora che sempre di più trasformano la nostra vita?
I sistemi di AI impattano tremendamente con molte questioni giuridico-legali e, temo che da qui a breve sarà necessario un cambiamento profondo dei principi posti alla base del nostro ordinamento giuridico e dei sistemi giuridici di ogni Paese.
Prima di tutto l’AI deve fare i conti con nozioni come la personalità giuridica, la capacità d’agire e il concetto di responsabilità e, quindi, di risarcimento eventuale del danno.
All’intelligenza artificiale forte - ovvero quella che si pone l’obiettivo di superare la mente umana, implementarla dal punto di vista cognitivo e di rendere i sistemi di AI sempre autonomi di apprendere sulla base dell’esperienza indipendentemente dalla programmazione dello sviluppatore - andrà riconosciuta la personalità giuridica, ovvero l’essere titolari di situazioni giuridiche attive e passive?
Questo è oggetto di un acceso dibattito tra chi considera tutti i sistemi di AI solo come macchine programmate dall’uomo e, quindi, comunque sempre prive di volontà e capacità di azione, e chi, invece, ritiene che essi siano sempre più autonomi e pertanto debba essere loro riconosciuta non soltanto la personalità giuridica ma anche diritti e doveri. In quest’ultimo caso si parla addirittura di “personalità robotica” che arrivi anche a limitare o addirittura a escludere la responsabilità del proprietario.
A liberare il campo da tutti questi dubbi non aiuta certamente il fatto che a oggi non ci sia una definizione condivisa a livello internazionale su cosa sia l’Intelligenza Artificiale, né a livello tecnico né, di conseguenza, a livello giuridico.
Gli ordinamenti in questo momento storico sono chiamati a dare risposta anche alle tematiche legate alla sicurezza, per fronteggiare problemi legati alle distorsioni algoritmiche, ai cyber-attacchi, ai cyber-crimini e rendere il più possibile affidabili i sistemi intelligenti.
I sistemi di AI sono responsabili di se stessi?
Così come deve essere affrontato e disciplinato il tema della distribuzione della responsabilità. Cioè, i sistemi di AI sono o dovranno essere responsabili delle loro operazioni? Il carattere sempre più autonomo e imprevedibile del loro funzionamento porta anche all’attribuzione della responsabilità civile e quindi al risarcimento in caso di danno provocato? E che tipo di responsabilità si deve profilare, responsabilità civile, responsabilità da prodotto o responsabilità oggettiva? E chi deve essere ritenuto responsabile laddove un’applicazione AI causasse un danno fisico o morale oppure se un sistema AI proponesse un piano che si rivela dannoso? Il produttore, chi attua quegli algoritmi o i sistemi stessi di AI?
Anche su questi temi i giuristi stanno elaborando un regime di responsabilità civile cosiddetto proporzionato, in grado di assicurare una chiara suddivisione delle responsabilità tra gli ideatori, i produttori, i fornitori del servizio e gli utenti finali.
Visto l’avanzare sempre più performante dell’AI, si andrà verso la creazione di uno status legale specifico, cosicché - al limite - ai robot autonomi più sofisticati possa essere attribuito lo status di persone elettroniche responsabili per riparare il pregiudizio cagionato e possibilmente applicare “personalità elettronica” ai casi in cui i robot prendono decisioni autonome o altrimenti interagiscono con terze parti in modo indipendente.
E ancora allo sviluppo crescente di sistemi di AI, al pari delle problematiche giuridiche aperte, sono collegate altrettante problematiche etiche relative alla sicurezza umana, alla salute, alla libertà, alla privacy, alla integrità e alla dignità umana, alla discriminazione che necessitano di tutele legali immediate e concrete.
Un vuoto normativo da colmare
Come è facile capire da tutto questo, l’Intelligenza Artificiale si è sviluppata in modo molto più rapido rispetto all’assetto giuridico e regolamentare. Si può ben dire che si sia sviluppata nel vuoto normativo, a partire dalla definizione stessa.
È però sempre più forte la necessità di disciplinare ogni aspetto, poiché essa ormai impatta pesantemente con la nostra vita e ha implicazioni sia giuridiche che etiche molto forti che devono trovare una risposta e una disciplina chiara e organica. Ed è sempre più vivace l’attività di studio, di approfondimento e di creazione di un diritto nuovo, il cosiddetto diritto delle nuove tecnologie.
La risoluzione del Parlamento Europeo del 16 Febbraio 2017 “Civil law rules on robotics” può rappresentare la base dalla quale si sta sviluppando e strutturando una disciplina giuridica comune sulla tecnologia AI, mentre la Commissione europea sta lavorando alle linee guida etiche per una AI Affidabile per assicurare che l’intelligenza artificiale sia sviluppata, impiegata e usata con scopo etico, raccomandando l’incorporazione di requisiti specifici per l’affidabilità dell’IA sin dalla fase di programmazione.
Persone elettroniche, dotate di personalità robotica e personalità elettronica. Sembra un balzo nel futuro. Ma è davvero futuro? O è già presente?
© RIPRODUZIONE RISERVATA