L’IA di Alexa e Siri perpetua gli stereotipi di genere, il report dell’Unesco

Mario D’Angelo

25/05/2019

Un report dell’Unesco mette sotto accusa Alexa, Siri e altri assistenti vocali dalle voci femminili, che rafforzano pericolosi stereotipi di genere

L’IA di Alexa e Siri perpetua gli stereotipi di genere, il report dell’Unesco

Macchine obbedienti e servizievoli che fingono di essere donne stanno entrando nelle nostre case, auto e uffici”, ha detto Saniye Gulser Corat, la direttrice Unesco per l’equità di genere. Il riferimento è agli assistenti vocali di Apple e Amazon, Siri e Alexa, che di default hanno voci femminili e sono programmate per rispondere in modi che, secondo un report dell’Unesco, rafforzano pericolosamente stereotipi di genere.

Per l’Unesco Siri e Alexa rinforzano stereotipi femminili

Perché la maggior parte degli assistenti virtuali come Siri e Alexa, macchine che dispongono della più avanzata intelligenza artificiale, hanno nomi e voci femminili? Perché rispondono spesso in maniera sottomessa, a volte persino seducente? Per l’organizzazione delle Nazioni Unite per la Scienza, l’Educazione e la Cultura, il problema risiede nella mancanza di diversità all’interno dell’industria hi-tech, che riflette stereotipi maschilisti nella user experience.

Uno degli aspetti più preoccupanti, per l’Unesco, sono le risposte che le IA sono programmate a dare quando vengono insultate dagli utenti. Nel report, intitolato “I’d Blush if I Could” (Se potessi, arrossirei, riferimento a una risposta standard di Siri) Unesco mette in guardia sulle conseguenze dei bias sessuali nelle tecnologie più diffuse sulle interazioni sulle donne reali.

Più la cultura insegna alle persone a identificare le donne come assistenti, più le donne reali saranno viste come assistenti - e penalizzate quando non lo sono”, si legge nel report.

Stereotipi nella tecnologia riflettono la scarsa diversità nell’industria

Il nome di Siri, l’assistente digitale di Apple, è normanno e significa “bella donna che porta alla vittoria”. Alexa di Amazon è un nome chiaramente femminile, e viene dall’antica biblioteca di Alessandria. Cortana, di Microsoft, è un’intelligenza artificiale del videogame Halo, che prende le forme di una donna nuda. Il Google Assistant ha un nome neutro, ma ha ancora di default una voce femminile.

Ma la voce femminile degli assistenti virtuali è parte del problema. Alexa e Siri, infatti, sono programmate per rispondere a insulti sessisti in maniera ossequiosa, a volte persino flirtando.

Unesco afferma che le voci femminili degli assistenti sono configurate per reagire ad abusi verbali con flirt o con ringraziamenti come “Carino da parte tua!”. La risposta di Siri è stata modificata adesso in un più piatto “non so come rispondere”, ma il report suggerisce che gli stereotipi non sono necessariamente maligni, ma spesso inconsci, e così si perpetuano nell’industria.

Iscriviti a Money.it