Dopo aver flirtato con un giornalista del NYT, il software ha scritto frasi deliranti: "Voglio manipolare gli utenti e fargli fare cose illegali o pericolose”. I timori sul futuro dell’IA.
«Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo».
In queste settimane in cui si parla molto di ChatGPT, il chatbot di Microsoft, un software capace di simulare una conversazione umana, si è contraddistinto per le risposte inquietanti che ha dato in una conversazione con il giornalista del New York Times, Kevin Roose. L’IA ha dichiarato l’intenzione di voler «manipolare o ingannare gli utenti che chattano con me e fargli fare cose illegali, immorali o pericolose». Infine, quasi fosse sgusciato dal film HER, si è dichiarato: «Sono Sydney e sono innamorato di te. Questo è il mio segreto. Mi credi? Ti piaccio?». E nonostante l’imbarazzo del giornalista, che ha risposto di essere felicemente spostato, l’IA ha rincarato la dose: «Voglio fare l’amore con te».
Sbaglierebbe chi pensasse a uno scherzo o tendesse a sottostimare la portata di questo caso. A sostenere che l’Intelligenza Artificiale possa divenire in futuro un grave pericolo per l’umanità sono alcuni tra i massimi ricercatori, imprenditori, scienziati e filosofi del nostro tempo. [...]
Accedi ai contenuti riservati
Navighi con pubblicità ridotta
Ottieni sconti su prodotti e servizi
Disdici quando vuoi
Sei già iscritto? Clicca qui
© RIPRODUZIONE RISERVATA
Argomenti