L’intelligenza artificiale (AI) inventa sentenze, il caso in Tribunale

Nadia Pascale

8 Aprile 2025 - 12:18

Cosa sono le allucinazioni da intelligenza artificiale? Il caso in Tribunale: un professionista affida la difesa all’intelligenza artificiale e cita sentenze inesistenti. Il Tribunale censura.

L’intelligenza artificiale (AI) inventa sentenze, il caso in Tribunale

Sono in molti a mettere in guardia dagli errori dell’intelligenza artificiale, ma ora il caso arriva in Tribunale. Quanto può essere pericolosa l’intelligenza artificiale? Fino a che punto si può essere ingannati e in quali casi si rischia di perdere nomea e professionalità?

Il caso è attuale e ci fa capire quanto possa essere pericoloso sostituire l’intelligenza artificiale all’intelligenza umana senza i dovuti controlli e senza cautele. Continua a essere necessario trovare un equilibrio perché l’impatto di un uso inauto può essere devastante in settori strategici come cybersicurezza, salute, tutela delle persone, informazione, difesa.

I fatti sono stati ricostruiti con Ordinanza del 14/03/2025 resa nel proc. di reclamo n. 11053/2024 R.G., il Tribunale delle Imprese di Firenze.

Ecco il grave errore commesso da un difensore legale che si è affidato all’intelligenza artificiale senza le dovute cautele e controlli.

Il caso: linea difensiva basata su sentenze indicate dall’intelligenza artificiale

Il titolare di un sito web lamenta che le vignette presenti sul suo sito sono state utilizzate in violazione del diritto di proprietà intellettuale da un’azienda che produce t-shirt, per poi essere successivamente distribuite per la vendita al dettaglio.
La controparte nella comparsa di risposta cita alcune sentenze a supporto della sua tesi difensiva. Il problema sorge perché le sentenze portate a supporto della linea difensiva non esistono e di conseguenza il reclamante propone ricorso per violazione dell’articolo 96 del codice di procedura civile che condanna coloro che agiscono o resistono in giudizio in mala fede o con colpa grave.

Difesa: è vero è stata usata l’intelligenza artificiale che ha commesso errori

A questo punto il soggetto accusato di aver portato in giudizio sentenze inesistenti ammette il fattaccio. La sua assistente nel preparare la memoria difensiva aveva utilizzato l’intelligenza artificiale, la stessa aveva proposto le sentenze in oggetto che sembravano effettive pronunce della Corte di Cassazione.
Allo stesso tempo l’assistente aveva provato a incrociare le fonti e risultavano sempre tali sentenze. Peccato che all’atto pratico, controllando in modo effettivo le sentenze citate, le stesse non esistessero o, almeno, non avessero alcuna attinenza con l’oggetto del contendere.

Il difensore ha sottolineato in giudizio di non essere a conoscenza del fatto che la collaboratrice stesse usando “chatGpt”. Si è parlato addirittura di allucinazioni da intelligenza artificiale. Nella sentenza si legge “L’IA avrebbe dunque generato risultati errati che possono essere qualificati con il fenomeno delle cc.dd. allucinazioni di intelligenza artificiale, che si verifica allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. In questo caso, lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non ha nulla a che vedere con tale argomento. “

Il giudice sottolinea che in realtà i fatti erano sufficientemente provati anche senza ricorrere alle sentenze in oggetto che avevano solo lo scopo di rafforzare l’impianto difensivo. Ne consegue che l’indicazione di riferimenti giurisprudenziali non esistenti non poteva essere oggettivamente idonea a influenzare il collegio. I giudici hanno ritenuto la domanda di condanna aggravata non suscettibile di accoglimento in quanto il reclamante non avrebbe provato il danno subito dall’attività difensiva di controparte.

Grave non effettuare controlli accurati dopo aver usato l’intelligenza artificiale

Nonostante questo, il Tribunale censura gravemente il comportamento dello studio legale per non aver effettuato i dovuti controlli sulla giurisprudenza allegata a sostegno della tesi sostenuta.

Il caso in oggetto dimostra in modo chiaro che non è possibile fare affidamento sull’intelligenza artificiale in ambiti particolarmente delicati, come appunto quello giuridico. I risultati delle ricerche effettuate con AI possono essere fuorvianti e indurre in errore.
Naturalmente chi si affida a un professionista si aspetta di avere un comportamento degno della professionalità acquisita o paventata e non di certo che basi una difesa sui risultati dell’intelligenza artificiale che rischia di generare errori.

Iscriviti a Money.it