«Avete mai notato che gli assistenti vocali, basati sull’Intelligenza Artificiale, come Goolge Assistant, hanno sempre come genere di default quello femminile? Ma non solo, per molti di questi anche i nomi rimandano a figure di donne, come Alexa, Cortana (ispirato al personaggio femminile del videogame “Halo”, una ragazza celebre per il suo sex appeal), Siri (nome norvegese che significa “bella vittoria” o “consigliera di bella vittoria”). E in altri casi, come l’assistente Anna di Ikea o il robot umanoide Sophia, diventato presto un caso mediatico, anche l’aspetto è quello di una donna. O ancora, avete mai provato a chiedere a un’AI in grado di creare immagini di restituirvi quella di un “boss” o di un assistente? Con buone probabilità, nel primo caso vi ritroverete una figura maschile e nel secondo una figura femminile».
È così che Laura Andina, Lead Product Manager di Sourceful e UX designer, ha introdotto il suo speech “Memoirs of a Geisha: building AI without gender bias”, durante la Codemotion Conference 2023, l’evento organizzato dall’omonima piattaforma che riunisce una community di 250mila sviluppatori in Europa, tenutosi a Milano il 24 e 25 ottobre.
Who's Who
Laura Andina
Lead Product Manager di Sourceful e UX designer
Indice degli argomenti
Step 1: aprire gli occhi sugli AI bias
Proponendo diverse riflessioni sugli assistenti di AI generativa e il loro essere donne, Andina ha voluto invitare le persone ad aprire gli occhi. Forse non tutti siamo consciamente consapevoli di alcuni aspetti. Innanzitutto, ha spinto a riflettere su un dato di fatto: storicamente i ruoli di assistenza in diversi ambiti come il customer care, l’educazione, la cura, sono spesso appannaggio delle figure femminili. E oggi non si può far altro che riconoscere che i prodotti basati sull’AI siano impregnati di questi stereotipi che generano diversi bias. Ma c’è una buona notizia: «Esistono alcune best practice da seguire per creare prodotti che li prevengano il più possibile».
Step 2: prendere coscienza del perché sono donne
Partiamo dalle cause, perché avviene tutto ciò?
Un primo assunto da tenere a mente, secondo Andina, è la “schematizzazione” della mente umana:
«La scienza ha indagato sul modo in cui impariamo nuove cose e ha capito che lo facciamo categorizzando. Abbiamo degli schemi nella nostra mente, dei pattern. Quando, ad esempio, i bambini mettono una mano sotto una fontana avvertono la sensazione di bagnato e ogni volta che si ritroveranno in una situazione in cui ci sarà qualcosa di bagnato avranno la stessa sensazione e la riconosceranno immediatamente. Capiamo e percepiamo delle cose, come la gravità, per esempio, in un nano secondo; è un sistema che l’uomo utilizza per proteggersi dai pericoli e sopravvivere. La stessa schematizzazione avviene per quanto riguarda il genere: abbiamo imparato che esistono colori, giochi, caratteristiche da femmina e altre da maschio». Ha spiegato Andina.
Un caso che spiega ancora meglio questo concetto è il successo di Apple e del primo iPhone lanciato in commercio. Il design delle app di questo telefono era basato sullo scheumorfismo – che prevede che il design di un oggetto che ha degli ornamenti richiami le caratteristiche di un altro oggetto –, per questo gli utenti non facevano fatica a comprenderne l’utilizzo: la bussola era rappresentata nello schermo esattamente come una bussola reale.
Si tratta di una strategia che richiede all’utente un basso sforzo cognitivo e Andina ha raccontato come questo stesso criterio sia stato applicato agli assistenti AI, che rimandano a figure femminili perché chi di solito si occupa dell’assistenza a tutto tondo sono le donne. Si tratta quindi di una stereotipizzazione reale che tracima nella tecnologia.
«Julie Carpenter, dell’Università di Washington, ha condotto una ricerca mostrando due robot, uno femminile e uno maschile, a un gruppo di studenti e ha chiesto loro come si sentivano a riguardo. È emerso che gli studenti sentivano che il robot che aveva sembianze femminili risultava per loro positivo, amichevole, interattivo. Mentre l’altro, più simile a un robot in stile Wall-e, risultava più spaventoso».
Ma che effetto hanno questi bias sui bambini?
È evidente come tutto questo possa avere delle implicazioni nei più piccoli, sempre più abituati a interagire con questi assistenti AI nelle loro case e a dare loro ordini. Il fatto che questi dispositivi rimandino a figure femminili e che siano creati per obbedire ai comandi può essere molto pericoloso, perché rafforza gli stereotipi di genere di cui siamo impregnati.
Andina ha mostrato ad esempio dei video postati sui social network da alcune maestre, che si sono sentite chiamare con nomi di assistenti vocali come Alexa, dai loro alunni. Questo significa che le figure femminili presenti nella vita di questi bambini, come la mamma e l’insegnante, vengono inconsciamente associate anche a questi dispositivi, proprio perché assimilabili a donne.
Step 3: best practice per creare prodotti AI privi di gender bias
Ma cosa fare per contrastare gli stereotipi di genere quando si “disegnano” questo tipo di tecnologie? Andina ha fornito dei suggerimenti:
- una delle cose fondamentali è interessarsi all’argomento e porsi il problema. Se continuiamo come finora niente cambierà;
- non dare nomi di donna a dispositivi di Intelligenza Artificiale;
- tenere a mente che gli algoritmi sono creati dall’uomo e per questo chi li realizza è responsabile di come funzionano;
- non utilizzare una voce femminile. Occorre essere creativi e prendere in considerazione, ad esempio, la voce genderless “Q”;
- non lavorare in posti in cui la maggior parte dei dipendenti sono uomini, è meglio preferire organizzazioni in cui c’è una leadership diversificata, questo sarà utile anche ad avere opinioni più varie e combattere meglio gli AI bias ;
- ricordare che anche nel nostro piccolo possiamo fare la differenza.
Inoltre, la speaker ha fornito una lista di “domande check” da tenere a mente quando si realizza un prodotto:
Questo prodotto/caratteristiche rinforza l’idea delle donne come passive, parte dello sfondo, oggetti per gli altri?
Nel suo marketing mette solo gli uomini in situazione di “fare” e le donne come aiutanti?
È stato sviluppato/creato/testato senza coinvolgere le donne?