ChatGPT e l’intelligenza artificiale generativa pongono questioni relative alle regole e ai diritti. Le abbiamo analizzate con il costituzionalista della Bocconi, Oreste Pollicino.
Alla luce della vera e propria esplosione di interesse attorno a ChatGPT ed ai suoi derivati, abbiamo voluto capire quanto l’intelligenza artificiale generativa come strumento in mano a tutti, che minacce pone alle regole e allo stato di diritto.
Ne abbiamo parlato con Oreste Pollicino, professore di diritto costituzionale e diritto dei media presso l’Università Bocconi e Co-founder di DigitaMediaLaws counseling.
Le questioni aperte da ChatGPT sono tante ed è meglio partire dalla ricerca delle norme che già abbiamo, che possono consentirci di capire se il complesso normativo è adeguato a trattare l’intelligenza artificiale o sue abbiamo bisogno di nuove regole.
ChatGPT e le regole: partiamo dalla Costituzione
Perciò abbiamo chiesto a Oreste Pollicino proprio di partire dall’analisi della Costituzione, per capire se nella nostra Carta c’è già un riferimento all’uso dell’intelligenza artificiale, se abbiamo già un reticolo normativo di contenimento, consapevoli che che il tema delle regole è più ampio e che nel digitale l’orizzonte da guardare è quello sovranazionale.
E quel riferimento, benché l’intelligenza artificiale non fosse non prevedibile dai padri costituenti nell’atto di scrivere le regole della società civile italiana, si chiama Articolo 21, ossia la tutela della libertà di espressione “con ogni mezzo di diffusione”, a tutela della persona umana, della sua dignità, del suo rispetto.
Bisogna partire da lì se si vuole pensare a nuove regole che possano normare l’utilizzo che facciamo e faremo di strumenti come ChatGPT.
Un’altra questione è se ChatGPT e l’intelligenza artificiale generativa siano davvero inclusive. E la risposta è negativa: per Oreste Pollicino l’intelligenza artificiale è escludente, disintermediante, capace di spiazzare prima, e sgretolare poi, le comunità intermedie.
Per far sì che ChatGpt e l’intelligenza artificiale non diventino «un motore di solitudine», per Pollicino servono sia nuove regole, sia creare una diffusa cittadinanza digitale, in cui le persone sono consapevoli del proprio agire online.
È risaputo che le questioni aperte dall’intelligenza artificiale siano molteplici, vanno dall’etica alla privacy, dalla salute (“i dati sanitari sono cruciale per la privacy, ma servono anche per la ricerca”, ha detto il professore), alle discriminazioni.
E secondo Pollicino esiste il rischio forte di una discriminazione algoritmica, oltre a esserci anche, palpabile, l’annosa questione del lavoro, con un’intelligenza artificiale capace di generare esclusione e umiliazione e qui le regole da avere sono quelle che consentono di tutelare la persona umana.
I temi della democrazia, del diritto d’autore, della responsabilità civile, della sorveglianza, completano un quadro di regole che dovranno nascere, a cui probabilmente non si pensa nel momento in cui si approccia ChatGPT per chiedere qualsiasi cosa venga in mente.
© RIPRODUZIONE RISERVATA