Samsung ha proibito temporaneamente al proprio staff l’uso di strumenti basati sull’intelligenza artificiale generativa come ChatGPT a causa di un recente leak di dati provocato da un dipendente.
I dipendenti di Samsung non potranno più utilizzare strumenti basati sull’intelligenza artificiale generativa sui dispositivi aziendali.
In un memo diffuso dall’azienda, questa ha spiegato che, per adesso, strumenti come ChatGPT e simili non potranno essere utilizzati, poiché, secondo quanto riportato da Bloomberg, rappresentano un rischio per la sicurezza dell’azienda.
Samsung non ha proibito l’uso di questi strumenti sui dispositivi personali dei dipendenti, tuttavia ha chiesto loro di non inserire all’interno dei software dati sensibili per l’azienda.
L’azienda ha comunicato che questa restrizione è di natura temporanea, in quanto sta già lavorando per creare un ambiente sicuro e adatto per utilizzare questo tipo di strumenti.
Perché Samsung ha applicato le restrizioni
Queste restrizioni non arrivano casualmente, Samsung ha infatti comunicato che recentemente un suo ingegnere ha inserito su ChatGPT un codice sorgente interno considerato sensibile, provocando così una potenziale fuoriuscita indesiderata di dati delicati.
La preoccupazione di Samsung ha a che fare con la possibilità di non poter gestire in maniera autonoma i dati che vengono inseriti su software come quello di OpenAI o Google Bard, poiché questi vengono conservati in server esterni, ai quali non è possibile risalire.
Recentemente, a seguito di numerosi disguidi legati alla privacy, OpenAI ha concesso ai propri utenti la possibilità di «nascondere» la propria cronologia su ChatGPT, così da permettere loro di decidere quali informazioni possono o non possono essere utilizzate per allenare gli algoritmi dell’intelligenza artificiale.
Tuttavia, l’azienda di Sam Altman ha ancora la possibilità di accedere ai dati degli utenti, a patto che la ragione sia quella di «monitorare eventuali abusi».
Il timore delle aziende, quindi, è fondato, poiché OpenAI potrebbe appellarsi proprio a questa ragione per accedere ai dati inseriti dalle altre aziende e trarne vantaggio.
Per chi mancasse di rispettare le nuove regole inserite nel memo - ha specificato Samsung - è possibile incorrere in sanzioni che possono arrivare fino al licenziamento.
La soluzione di Samsung: un’IA fatta in casa
Samsung non è certamente la prima realtà di importanza mondiale che decide di porre un freno a ChatGPT.
Alcune istituzioni, come la New York University, hanno deciso di bandirla completamente; mentre altre, come JP Morgan Chase, hanno deciso di limitarne l’uso.
L’azienda, secondo quanto riportato da Bloomberg, sta lavorando a una soluzione che possa permetterle di sfruttare l’intelligenza artificiale generativa senza andare in contro a rischi come quello menzionato.
La soluzione pensata da Samsung è uno strumento di intelligenza artificiale generativa sviluppato internamente con le capacità per aiutare i dipendenti a svolgere in sicurezza mansioni molto utili come riassumere o tradurre documenti senza pericoli legati alla possibile fuga di dati sensibili.
© RIPRODUZIONE RISERVATA