L’AI si sta diffondendo a macchia d’olio all’interno delle nostre vite, ma può davvero arrivare a sostituire un vero psicologo? Ecco perché ChatGPT non basta quando si parla di salute mentale.
Ultimamente, soprattutto negli Stati Uniti, sembra che molte persone preferiscano rivolgersi a ChatGPT piuttosto che a uno psicologo o uno psicoterapeuta in carne e ossa.
Una deriva che, in fondo, era prevedibile. Il chatbot di OpenAI, infatti, è un generatore di testo talmente avanzato da riuscire a simulare un dialogo empatico con un realismo davvero sorprendente.
Le sue risposte sono sempre rassicuranti e, con un tono amichevole e comprensivo, è sempre pronto a darti un consiglio. Forse è proprio questo che sta spingendo molte persone a rivolgersi a lui alla ricerca di un consulto psicologico o, addirittura, per una psicoterapia.
Da qui, però, nasce un equivoco da non trascurare: ChatGPT non è uno psicologo e neppure un terapeuta e, forse, non lo sarà mai.
ChatGPT ragiona davvero come un umano?
Per quanto possa sembrare davvero dotato di capacità umane, scrivendo testi ad hoc, chiedendoti come stai e addirittura adattando pian piano il suo linguaggio al tuo modo di esprimerti, ChatGPT è molto lontano dal poterti comprendere a fondo.
Non prova emozioni, non vive esperienze, non sa interpretare il linguaggio non verbale e, soprattutto, non pensa come noi. Come può allora una tecnologia simile, per quanto sorprendentemente avanzata, riconoscere le sfumature più sottili della sofferenza umana? Può riuscire davvero a prendere il posto di uno psicologo? Al momento, la risposta è certa: assolutamente no.
ChatGPT, infatti, come gli altri modelli di intelligenza artificiale generativa, è un modello statistico, il cui funzionamento è troppo differente dalla cognizione umana. Nonostante possa sembrare che parli come noi e che riesca a ragionare in maniera simile all’essere umano, si tratta in realtà “solo” di un modello statistico, che genera parole in base a calcoli probabilistici e non su una reale comprensione del contesto.
Questo aspetto, soprattutto in ambito psicologico, non è un dettaglio ma è di grande importanza. La teoria psicologica, infatti, si basa su un profondo lavoro di comprensione della personalità, analisi del vissuto e dell’emotività di un individuo, e non può essere sostituita da pure sequenze di codice.
Qualcuno tra i lettori, del resto, avrà già provato a chiedere a ChatGPT un aiuto psicologico e, in un momento di dubbio o preoccupazione si sarà rivolto all’intelligenza artificiale. La sua risposta sarà stata un semplice insieme di consigli, basati su dati generali che l’AI prova ad adattare in base alla richiesta. Il chatbot, però, sa ben poco di noi e quando si parla di psicologia la storia e il vissuto personale sono gli aspetti principali.
Sostanzialmente, per comprendere a fondo dei problemi umani sono ancora necessarie delle intelligenze umane, insostituibili per una diagnosi e per un trattamento efficace.
La teoria psicologica non è un consiglio ben formulato
Come accennato poco fa, rivolgersi ad uno psicologo non significa ottenere un consiglio ben formulato, ma una prestazione professionale che non può essere sminuita così semplicemente. La terapia, poi, è un percorso strutturato, cucito su misura della persona, e richiede troppe capacità di cui l’AI non dispone. Tra queste ci sono l’ascolto attivo, l’instaurare una relazione, la presenza, la lettura del linguaggio non verbale e un periodo di supervisione clinica da parte dello specialista.
Alla luce di ciò, pensare che un chatbot possa sostituire questo processo è fuorviante e un po’ pericoloso. C’è il rischio, infatti, che un aspetto così delicato come quello della salute mentale vado sottovalutato dalle persone e che queste si illudano che sia possibile aprire ChatGPT e digitare alcune frasi per trovare una risposta ai loro problemi.
Sulla questione è intervenuto anche il dott. David Lazzari, presidente nazionale dell’Ordine degli Psicologi che in un’intervista ha affermato che:
non è possibile che l’AI vada a sostituire l’intelligenza umana, poiché quest’ultima è troppo complessa, fatta di emozioni, sentimenti, stati d’animo, vissuti e tutto ciò che va oltre il linguaggio parlato. Il terapeuta non da consigli, ma accompagna il paziente lungo un percorso in cui la logica e la cognizione umana sono insostituibili.
Ultimamente poi, soprattutto sui social media, c’è chi ha provato a superare i limiti dell’AI utilizzando prompt ultra-specifici e dettagliati. Ad esempio, in un prompt che girava in rete, si chiedeva a ChatGPT di fingersi uno psicoterapeuta di fama mondiale con 30 anni di esperienza clinica, chiedendo di fornire analisi dettagliate su traumi, emozioni e dinamiche personali o familiari.
In questi casi, come risultato si ottengono risposte ancora più approfondite e convincenti, frutto però di un algoritmo che per davvero, non ha mai ascoltato nessuno.
Anche i comandi più elaborati, infatti, non riescono a colmare l’assenza di empatia reale, né a sostituire l’approccio e la professionalità di chi ha studiato e lavorato per anni con persone vere.
© RIPRODUZIONE RISERVATA