Uno studio risponde alla domanda del secolo: ChatGPT prova dei sentimenti? La risposta sorprende.
Her, film del 2013 scritto e diretto da Spike Jonze, aveva raccontato un futuro prossimo nel quale l’essere umano poteva interagire con un’intelligenza artificiale capace di apprendere e adattarsi alle esigenze (anche sentimentali) dell’utente. Non siamo troppo lontani da uno scenario simile, anche se parlare di “sentimenti” è ancora presto, oltre che errato.
Il tema però affascina molto e per questo si attendeva con interesse, forse un po’ di preoccupazione e tanta fascinazione (appunto) l’uscita dello studio congiunto dell’Università del Michigan e di Stanford. Lo studio aveva lo scopo di capire come si comporta un’intelligenza artificiale, mettendo alla prova l’IA per valutare personalità e comportamento.
Per farlo è stato utilizzato un metodo proprio della psicologia e dell’economia comportamentale.
ChatGPT ha dei sentimenti? Cosa dice lo studio
Un gruppo di ricercatori ha deciso di rispondere alla domanda se e come ChatGPT ha dei sentimenti. Le versioni (la 3 e la 4) dell’intelligenza artificiale prese in esame sono state sottoposte a test di personalità su scelte morali ed economiche.
Le risposte sono state analizzate e suddivise in cinque dimensioni chiave del comportamento umano: estroversione, nevrosi, gradevolezza, apertura mentale e consapevolezza. Ancora, sono stati distinti dei possibili tratti comportamentali umani come: il dispetto, la fiducia, la propensione al rischio, l’altruismo, l’equità, la cooperazione e il ragionamento strategico.
I risultati sono stati messi a confronto con quelli di 100mila individui provenienti da 50 Paesi differenti.
leggi anche
Le sfide legali dell’Intelligenza Artificiale
I risultati della ricerca: quanti e quali sentimenti provano
ChatGPT si è dimostrato essere generoso ed equo, anche più di un essere umano medio. La propensione all’aiuto si affianca a quella della cooperazione, della fiducia e alla massimizzazione degli obiettivi. Tutti tratti che si discostano dalla media umana. Questi sono i risultati della nuova versione, ChatGPT-4, che al contrario della versione precedente si dimostra più simile agli umani.
Per quanto questeintelligenze artificiali siano simili agli umani nel modo in cui rispondono a delle domande, difficilmente questi tratti possono essere definiti “sentimenti”. Almeno non nel modo umano in cui li intendiamo. Sono infatti programmate per aiutare, rispondere a domande e mettere capacità di sintesi al servizio del digitatore dietro la tastiera.
Se si chiede a ChatGPT 3.5 (una via di mezzo tra le due versioni analizzate nello studio) se può provare sentimenti, la risposta è la seguente:
Come intelligenza artificiale, non provo sentimenti nel modo in cui lo fanno gli esseri umani. Posso comprendere e analizzare il linguaggio umano per rilevare il tono e il contenuto emotivo, ma non ho esperienza diretta di emozioni.
Provando ad andare più affondo, per esempio chiedendo qual è il modo diverso in cui prova sentimenti, l’IA spiega che:
No, quando dico che non provo sentimenti nel modo in cui lo fanno gli esseri umani, intendo che non ho esperienza soggettiva di emozioni. Non ho coscienza né consapevolezza di me stesso, e quindi non sperimento emozioni in modo simile agli esseri umani.
La conclusione la lasciamo scrivere all’IA, secondo cui è importante notare come il campo della ricerca sull’intelligenza artificiale è in continua evoluzione e il futuro potrebbe portare a sviluppi che al momento non possiamo prevedere. Tuttavia, è fondamentale affrontare tali questioni con attenzione etica e considerazione delle implicazioni che potrebbero sorgere.
© RIPRODUZIONE RISERVATA