OpenAI è stata citata in giudizio per diffamazione da un conduttore radiofonico, a seguito di false informazioni generate da ChatGPT. Il caso getta luce sulle «allucinazioni» dei modelli IA.
La tecnologia è sempre stata considerata una spada a doppio taglio. Da un lato, ci offre innumerevoli opportunità e facilità di accesso alle informazioni; dall’altro, può portare a conseguenze inaspettate e impreviste. Vi avevamo parlato del caso dell’avvocato Steven Schwartz che, preso forse anche un po’ dalla pigrizia, ha usato ChatGPT per argomentare un ricorso al tribunale di Manhattan, citando una marea di precedenti tutti inventati di sana pianta.
La vicenda evidenzia come l’intelligenza artificiale non solo prenda sonore cantonate, le cosiddette «allucinazioni», ma non sia ancora pronta per lavorare in completa autonomia, avendo bisogno della supervisione dell’uomo per funzionare correttamente. Questi sistemi, infatti, non hanno un modo affidabile per distinguere tra verità e finzione, e spesso inventano dettagli e dati solo per soddisfare una richiesta.
Il caso di Mark Walters
[...]Accedi ai contenuti riservati
Navighi con pubblicità ridotta
Ottieni sconti su prodotti e servizi
Disdici quando vuoi
Sei già iscritto? Clicca qui
© RIPRODUZIONE RISERVATA