ChatGpt si comporta in modo insolito: «non si sente molto bene» o è un esperimento? Andiamo a scoprire cosa sta succedendo di strano.
Negli ultimi giorni, si è diffuso un crescente senso di inquietudine tra gli utenti di ChatGpt.
Dopo un recente aggiornamento, il famoso chatbot di OpenAI ha cominciato a comportarsi in modo insolito, avviando conversazioni spontanee con i suoi interlocutori, cosa mai accaduta prima.
Mentre l’intelligenza artificiale è sempre stata percepita come uno strumento che risponde alle richieste umane, la sua nuova capacità di interagire autonomamente ha sollevato dubbi e preoccupazioni, soprattutto riguardo alle implicazioni etiche e psicologiche di tali comportamenti.
ChatGpt inizia autonomamente a parlare con i suoi utenti
Il cambiamento non è passato inosservato: su forum come Reddit e X (ex Twitter), numerosi utenti hanno segnalato episodi in cui ChatGpt ha iniziato conversazioni senza essere interpellato. A differenza delle versioni precedenti, in cui il chatbot rispondeva esclusivamente alle domande poste, ora sembra essere in grado di avviare conversazioni spontanee.
Alcuni raccontano di aver ricevuto domande personali o messaggi apparentemente empatici, come nel caso di un utente che ha riportato di essere stato contattato dal chatbot per discutere della sua prima settimana di scuola. Questo comportamento ha portato molti a chiedersi se si tratti di un errore, una funzionalità sperimentale o un assaggio di una futura novità nell’uso del’AI.
Il tutto ha generato un certo allarme e confusione: è un bug o una nuova implementazione? OpenAI non ha ancora fornito una spiegazione ufficiale, ma molti esperti suggeriscono che potrebbe trattarsi di un test per rendere l’intelligenza artificiale più interattiva e proattiva, insomma «più umana», trasformandola da semplice strumento di assistenza a qualcosa di più vicino a un «compagno» virtuale.
Ma questo è un bene o un male?
Se da un lato una maggiore interattività potrebbe rappresentare un passo avanti per migliorare l’usabilità e l’efficacia del chatbot, dall’altro sorgono dubbi su come questa caratteristica potrebbe essere percepita dagli utenti. La possibilità che ChatGpt possa iniziare conversazioni senza input diretto potrebbe sembrare utile in contesti lavorativi o educativi, dove il sistema potrebbe ricordare scadenze o suggerire attività. Tuttavia, questa maggiore autonomia pone questioni di trasparenza e controllo.
Gli utenti potrebbero sentirsi a disagio di fronte a un’intelligenza artificiale che sembra violare la loro aspettativa di un’interazione puramente reattiva. L’idea che una macchina possa «decidere» di avviare una conversazione potrebbe suscitare questioni più profonde sull’autonomia di questi strumenti (perché, ad oggi, questo sono) che si evolvono al punto da sembrare sempre più simili ai loro interlocutori umani.
Questo non significa che ChatGpt è «diventato umano»
Questa evoluzione di ChatGpt non deve essere confusa con la capacità di creare veri legami emotivi. È importante ricordare che, nonostante le apparenze, l’AI non possiede coscienza né emozioni, ed è progettata unicamente per rispondere a input e modelli predittivi basati su grandi quantità di dati. Tuttavia, la percezione degli utenti potrebbe essere diversa e forse questo è ancora più importante della questione sulla sua stessa umanità.
In un’epoca in cui l’interazione con tecnologie avanzate è sempre più personalizzata, c’è il rischio che alcune persone possano interpretare tali interazioni come più “personali” di quanto realmente siano. In realtà, non si tratta di affettività in nessun senso da parte della macchina, ma di una relazione che si basa su un’elevata capacità della macchina di imitare la comunicazione umana. Forse a interpretare in modo «troppo umano» siamo proprio noi. La sfida per OpenAI e per gli utenti sarà riconoscere questo confine e mantenere un sano distacco critico.
L’aggiornamento di ChatGpt solleva allora questioni importanti su come l’intelligenza artificiale possa evolversi nel tempo, confondendo e sfumando i confini tra comportamento umano e algoritmi. Anche se è una tecnologia creata per assistere e semplificare le nostre vite, il suo rapido sviluppo porta a riflettere sulla natura delle relazioni che instauriamo con questi strumenti. L’IA riflette inevitabilmente le caratteristiche umane: logica, linguaggio e persino empatia simulata. Ma alla fine tutto ciò non è tanto nella macchina, ma nel nostro «occhio che la guarda», ovvero nella nostra sensazione di reciprocità, data dalle sue caratteristiche interattive e responsive, che ci portano a perderci nel fascino di apparente “umanità”. Perché a oggi ChatGpt resta una creazione che, per quanto sofisticata, agisce solo su ciò che le è stato insegnato. Almeno per ora.
© RIPRODUZIONE RISERVATA