Migliaia di studi scientifici realizzati con l’aiuto di ChatGPT: un incredibile studio di un bibliotecario dell’University College di Londra sembrerebbe togliere ogni dubbio.
ChatGPT sarebbe stato usato per la realizzazione di migliaia di studi scientifici. Un sospetto che ora sembrerebbe essere diventato certezza grazie a un incredibile studio condotto da Andrew Gray, un bibliotecario scozzese dell’University College di Londra.
Gray ha analizzato la bellezza di 5 milioni di studi scientifici che sono stati pubblicati lo scorso anno, un lavoro unico nel suo genere che potrebbe essere descritto senza dubbio con il termine “certosino”.
Del resto sarebbe proprio il lessico utilizzato in molti studi scientifici a fugare ogni dubbio in merito al ricorso a ChatGPT; in particolare le parole sotto esame sono “lodevole”, “meticolosamente”, “intricato” e “meticoloso”, ovvero alcuni dei termini più utilizzati dall’intelligenza artificiale.
L’aumento dell’utilizzo di queste parole negli studi scientifici - in alcuni casi con un’incidenza nel 2023 superiore al 100% rispetto all’anno precedente - secondo il bibliotecario sarebbe spiegabile soltanto con un sistematico ricorso a ChatGBT.
Trattandosi di studi pubblicati sulle più prestigiose riviste scientifiche al mondo, le conclusioni di questa ricerca sono in qualche modo inquietanti tanto che sia in Italia sia nell’Ue di recente si è iniziato a legiferare sul complesso tema dell’IA.
leggi anche
ChatGPT, cos’è, come funziona l’intelligenza artificiale che risponde a tutte le domande
L’uso di ChatGBT negli studi scientifici
A gennaio 2023 - pochi mesi dopo il lancio di questo software basato su intelligenza artificiale e machine learning - un articolo di Focus ha evidenziato come ChatGPT fosse perfettamente in grado di scrivere articoli scientifici.
Molti studiosi sembrerebbero aver preso questa ricerca alla lettera, visto che stando allo studio condotto da Andrew Gray ci sarebbe lo zampino di ChatGPT in almeno 60.000 studi scientifici, ovvero più dell’1% di quelli analizzati nel 2023.
Questi lavori non sarebbero stati realizzati completamente tramite il popolare chatbot, ma gli autori si sarebbero fatti aiutare dall’intelligenza artificiale soprattutto nella traduzione di altri testi e nella revisione degli scritti.
“Esiste un’ampia zona grigia - ha spiegato Gray -, in cui alcuni scienziati si avvalgono ancora di più dell’aiuto di ChatGPT, senza verificare l’effettiva validità del testo. Al momento è impossibile sapere quanto sia grande questa zona grigia, perché le riviste scientifiche non richiedono agli autori di dichiarare l’uso di ChatGPT, c’è pochissima trasparenza”.
Il bibliotecario scozzese durante il suo lavoro ha analizzato milioni di articoli alla ricerca di termini abusati dai programmi di intelligenza artificiale, notando così l’improvviso aumento nell’uso di alcune parole come meticolosamente (fino al 137%), intricato (117%), lodevole (83%) e meticoloso (59%).
In più ci sono degli autentici strafalcioni pubblicati in alcuni studi, dove gli autori nel loro “copia e incolla” non hanno tolto l’introduzione fatta da ChatGPT rendendo evidente il ricorso all’IA.
Per Andrew Gray ci sarebbe il concreto rischio che la società più ampia venga come infettata da questo nuovo linguaggio meticolosamente artificiale, con diversi studi che hanno evidenziato come i modelli linguistici dell’intelligenza artificiale tendano a utilizzare determinate parole - quasi tutte con connotazioni positive - in modo sproporzionato: da encomiabile a meticoloso fino a intricato, innovativo e versatile.
Insomma il problema non sarebbe solo il ricorso all’IA per la scrittura di studi scientifici, aspetto certamente non trascurabile, ma anche il rischio che presto potremmo ritrovarci tutti a utilizzare termini simili in quanto abituati a rivolgerci a ChatGPT, per una sorta di omologazione del linguaggio - e di riflesso anche del pensiero - degno del miglior libro di George Orwell.
© RIPRODUZIONE RISERVATA