Gli esperti del settore si interrogano sull’utilizzo dell’AI parlando di rischio sociale equiparabile a quello di un conflitto nucleare o di una pandemia.
In una lettera aperta indirizzata ai leader mondiali più di 350 manager del settore AI mettono fortemente in discussione la sicurezza delle attuali tecnologie d’Intelligenza Artificiale (AI) chiedendo di affrontare i pericoli connessi al loro sviluppo nello stesso modo in cui vengono affrontate le pandemie e lo spettro della guerra nucleare.
Il documento è stato diffuso dalla no profit Center for AI Safety e ad aver aderito alla petizione, come riportato dal New York Times, ci sono anche l’amministratore delegato di OpenAI Sam Altman, il numero uno di Google DeepMind Demis Hassabis e il leader di Anthropic Dario Amodei seguiti da Geoffrey Hinton e Yoshua Bengio, due dei tre ricercatori che hanno vinto un Turing Award per il loro lavoro pionieristico sulle reti neurali e spesso considerati i “padrini” del moderno movimento dell’IA.
Leggere firme come queste potrebbe apparire paradossale ma nel testo la portata del fenomeno viene descritta in termini piuttosto drammatici. Si evidenza ad esempio come “mitigare il rischio di estinzione” della specie umana posto dall’intelligenza artificiale “dovrebbe essere una priorità”. Da qui l’analogia con l’attenzione e la solerzia con la quale si interviene in caso di pericolo di conflitti atomici ed epidemie globali.
Allineati con questa visione anche esponenti mondo della politica e delle istituzioni internazionali così come aziende del calibro di Skype, Quora e Notion. Manca all’appello invece il fondatore di Tesla Elon Musk che però a fine marzo, insieme a un migliaio di esperti, avevano scritto una lettera al Financial Times per invocare una pausa sullo sviluppo di queste tecnologie.
leggi anche
L’intelligenza artificiale è pericolosa?
Cosa temono i leader del settore
A muovere i firmatari dell’appello sarebbe un forte senso di urgenza rispetto a vari quesiti etici ancora irrisolti. Un esempio è l’uso dell’IA in settori sensibili come la medicina, l’energia nucleare e l’armamento così come la mancanza di responsabilità e accountability, ovvero la difficoltà di attribuire responsabilità in caso di comportamenti errati o dannosi di questa tecnologia.
I timori principali tuttavia nascono soprattutto in relazione all’“intelligenza artificiale generale”, anche detta AGI, ovvero un tipo di intelligenza artificiale che possa eguagliare o superare le prestazioni umane. La tesi sostenuta in questa lettera è che questo processo sia già in atto rispetto a un’ampia varietà di compiti.
Da lì il passo verso il tema della superintelligenza, noto come «esplosione dell’intelligenza» o «singolarità», è breve.
L’approccio della politica internazionale al tema
A fronte di questa panoramica viene spontaneo chiedersi quale sia la road map da adottare per mitigare i rischi e indirizzarsi verso una sviluppo responsabile dell’IA.
Certamente si tratta di una combinazione di norme etiche, regolamentazione adeguata e progettazione di sistemi AI che siano progressivamente e il più possibile trasparenti. In questo senso è importante che i decisori politici e gli sviluppatori lavorino congiuntamente.
Un primo importante segnale in questo senso è stata la diffusione di questo documento nel giorno in cui i rappresentanti dell’Unione europea e degli Stati Uniti si sono riuniti in Svezia per l’apertura dei lavori del Consiglio per il commercio e la tecnologia, il tavolo di lavoro che coordina l’approccio dei due fronti internazionali in relazione all’economia e allo sviluppo tecnologico.
Si è parlato infatti di cooperazione sulle tecnologie emergenti e l’UE e gli USA hanno concordato una tabella di marcia comune per sviluppare strumenti comuni per un’intelligenza artificiale (AI) affidabile quali standard congiunti in aree critiche come la crittografia post-quantistica e la sicurezza informatica dell’Internet of Things (IoT) ma anche dal punto di vista della ricerca e dello sviluppo quantistico.
© RIPRODUZIONE RISERVATA