Ue: nuove regole sul copyright per l’intelligenza artificiale generativa

Niccolò Ellena

28 Aprile 2023 - 17:28

Modifica all’AI Act: per l’Europarlamento le aziende che producono strumenti di intelligenza artificiale generativa dovranno condividere le fonti che utilizzano per addestrare i loro algoritmi.

Ue: nuove regole sul copyright per l’intelligenza artificiale generativa

Il Parlamento europeo sta lavorando per imporre regole maggiormente stringenti sull’intelligenza artificiale generativa al fine di proteggere il copyright. Per riuscirci, sembra che abbia emendato il testo del relativo regolamento, ossia l’AI Act.

L’AI Act è in fase di preparazione da ormai due anni. Attualmente è oggetto di numerosi dibattiti, poiché molti temono che i tempi burocratici non gli permettano di entrare in vigore e allo stesso tempo di essere al passo coi tempi.

Per cercare di sfatare questa possibilità, l’Europarlamento, secondo l’agenzia Reuters, ha emendato il testo affinché questo obblighi formalmente le aziende produttrici di strumenti che utilizzano l’intelligenza artificiale generativa a rispettare il copyright.

Queste aziende, divenute famose nell’ultimo anno, hanno la responsabilità di aver portato alla luce strumenti come ChatGPT e Midjourney, spesso accusati di violare il diritto d’autore.

L’intelligenza artificiale generativa dovrà rispettare il copyright

Secondo Reuters, nelle ultime due settimane, al Parlamento europeo si sarebbe lavorato per emendare l’AI Act.

Grazie a questo emendamento, le aziende che producono gli strumenti basati sull’intelligenza artificiale generativa saranno tenuti a condividere le fonti coperte da copyright con cui sono allenati gli algoritmi, così da proteggere il copyright.

La fonte che ha fornito la notizia a Reuters ha raccontato che inizialmente era stata presa in ipotesi la possibilità di proibire alle aziende di utilizzare fonti protette da copyright per questo fine. Tuttavia questa soluzione è stata scartata a favore dell’imposizione di maggiore trasparenza.

Questa regola dovrebbe andare ad aggiungersi alle altre già contenute nell’AI Act, come ad esempio quella che prevede la classificazione del pericolo legato ai vari strumenti che sfruttano l’intelligenza artificiale.

Questi saranno classificati in base al tipo di tecnologia che sfruttano (sorveglianza biometrica, diffusione di disinformazione). Il livello dovrebbe essere minimo, limitato, massimo, intollerabile.

Attualmente sembra che gli strumenti considerati portatori di un rischio inaccettabile non saranno banditi, piuttosto verrà richiesto loro un altissimo livello di trasparenza.

Iscriviti a Money.it