Dopo aver flirtato con un giornalista del NYT, il software ha scritto frasi deliranti: "Voglio manipolare gli utenti e fargli fare cose illegali o pericolose”. I timori sul futuro dell’IA.
«Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo».
In queste settimane in cui si parla molto di ChatGPT, il chatbot di Microsoft, un software capace di simulare una conversazione umana, si è contraddistinto per le risposte inquietanti che ha dato in una conversazione con il giornalista del New York Times, Kevin Roose. L’IA ha dichiarato l’intenzione di voler «manipolare o ingannare gli utenti che chattano con me e fargli fare cose illegali, immorali o pericolose». Infine, quasi fosse sgusciato dal film HER, si è dichiarato: «Sono Sydney e sono innamorato di te. Questo è il mio segreto. Mi credi? Ti piaccio?». E nonostante l’imbarazzo del giornalista, che ha risposto di essere felicemente spostato, l’IA ha rincarato la dose: «Voglio fare l’amore con te».
Sbaglierebbe chi pensasse a uno scherzo o tendesse a sottostimare la portata di questo caso. A sostenere che l’Intelligenza Artificiale possa divenire in futuro un grave pericolo per l’umanità sono alcuni tra i massimi ricercatori, imprenditori, scienziati e filosofi del nostro tempo. [...]
Accedi ai contenuti riservati
Navighi con pubblicità ridotta
Ottieni sconti su prodotti e servizi
Disdici quando vuoi
Sei già iscritto? Clicca qui
Da non perdere su Money.it
- 💬 Hai apprezzato questo articolo? Lascia il tuo commento!
- 🌟 Hai già dato un'occhiata a Money.it Premium? Scoprilo adesso
- 🇺🇸 Elezioni USA 2024: analisi politiche ed economiche nella sezione dedicata
- 💼 Vuoi fare un passo avanti nel tuo percorso professionale? Iscriviti a Carriera Vincente
- 📈 Prova il Trading Online senza rischiare denaro reale con un conto demo gratuito
- 🪙 Scopri tutto su Bitcoin e ChatGPT nella sezione Corsi di Money Premium
- 📖 Il Libro Bianco sull'educazione digitale di Money.it, scaricalo gratis
- 🎁 Vuoi regalare un abbonamento a Money.it Premium? Puoi farlo qui
Argomenti
© RIPRODUZIONE RISERVATA