Menú Menú

¿Por qué todos los asistentes de IA están feminizados?

¿Alguna vez te has preguntado por qué Siri, Alexa y el Asistente de Google responden a nuestras llamadas con dulces tonos dulces? El género femenino de la tecnología de IA es omnipresente y en gran medida incuestionable, pero ¿impone estereotipos dañinos?

De manera bastante desconcertante, los asistentes de IA son ahora una presencia omnipotente en la vida cotidiana.

Ya sea que los use para actualizaciones del clima, datos divertidos o ecuaciones matemáticas rápidas (culpable), la mayoría de nosotros interactuamos con la IA de manera regular. Tanto es así que a menudo no nos damos cuenta de cuánto enmarca nuestras vidas. 

A pesar de todas sus bromas e interminables conjuntos de conocimientos, los asistentes de IA tienen una cosa más básica, aunque menos reconocida, en común: todas son mujeres. Al menos por defecto. 

Siri, Alexa y el Asistente de Google responden a todas nuestras llamadas en tonos suaves y dulces, como novias digitales listas para servirnos. Llámelos por su nombre y vendrán corriendo, nunca irritados por nuestras interminables demandas de información. Cuando lo pones así, es bastante perturbador.

De vuelta en 2019, el ONU argumentó que el género de la tecnología de IA arraigó sesgos de género dañinos. Nada ha cambiado mucho desde entonces, pero los debates sobre el tema han comenzado a resurgir. 

 

El mes pasado, chris baranuik abordó el tema de la misoginia y la IA una vez más.

Tras el lanzamiento de 'No Time to Die', Baranuik reflexionó sobre la feminización de los muchos asistentes técnicos de James Bond, sus voces suaves, incluso sensuales, sirviendo como un accesorio para su carácter machista súper masculino. 

Sin embargo, investigando un poco, resultó que las asistentes de voz femeninas en los autos de Bond no eran precisas. De hecho, BMW retiró los sistemas GPS con voz femenina de sus automóviles a fines de la década de 1990, después de que los conductores alemanes se quejaran de que no querían recibir instrucciones 'de una mujer'. 

Oh, qué lejos hemos llegado.

La ironía de que nuestros asistentes de IA ahora estén unánimemente feminizados no hace que el incidente de BMW sea más digerible. En todo caso, demuestra que hemos sido incapaces de romper con la necesidad inherente de género de las cosas en absoluto. Y, más específicamente, renunciar a nuestras asociaciones entre mujeres y (falta de) poder. 

Cuando observa la situación de BMW en el contexto de Siri, queda claro que las mujeres tienen posiciones específicas definidas para ellas en la sociedad moderna, posiciones que ahora están dando forma a las normas de género en el mundo digital.

Es perfectamente aceptable gritar órdenes a un sistema de IA feminizado, pero que 'ella' nos diga cómo conducir un automóvil, un dominio estereotípicamente 'masculino', simplemente no está bien. 

Baranuik describe la larga y tortuosa historia de nuestra relación con las voces digitales. Desde los sistemas informáticos de los aviones denominados 'Sexy Sally', hasta el sistema de anuncios del metro de Londres denominado 'Sonya' por los miembros del personal de TFL, llamado así porque 'los pone nerviosos', la misoginia ha sustentado nuestra relación con lo digital durante décadas. 


El informe de la ONU de 2019 describió cómo el maltrato de la IA feminizada alienta y refleja actitudes peligrosas de la vida real hacia las mujeres. 

"El servilismo de los asistentes de voz digitales se vuelve especialmente preocupante cuando estas máquinas, antropomorfizadas como femeninas por las empresas de tecnología" (que, por cierto, a menudo cuentan con una abrumadora cantidad de personal). equipos de ingenieros masculinos) 'dar respuestas despectivas, mediocres y de disculpa al acoso sexual verbal'.

Este acoso tampoco es raro. Un escritor para el asistente 'Cortana' de Microsoft anotado en 2019 que 'una buena parte del volumen de consultas iniciales' sondean la vida sexual del asistente'. 

Ione Gamble, fundadora de Polyester Zine, desmontó la feminización de la IA en su último podcast 'El club de la pijamada". 

Haciendo referencia a la película 'Her', en la que el personaje de Joaquin Phoenix, Theodore, se enamora de su asistente de inteligencia artificial Samantha, Gamble afirmó que 'es interesante que Internet esté configurada bajo la mirada masculina, con las mujeres como objetos deseables', 'si una mujer es solo en una caja y hará lo que digas, eso es un poco espeluznante, ¿no?'.

"Como feministas, tenemos la capacidad de pensar en Internet como una especie de utopía", continuó Ione. 'Y tal vez para algunos de nosotros en comunidades más pequeñas fue una utopía. Pero en realidad, siempre ha estado en nuestra contra'.


Si bien nuestras interacciones con la IA siguen siendo abiertamente de género, Salomé Gómez-Upegui ha sugerido que el queering de nuestros dispositivos podría ayudar a eliminar los estereotipos sexistas. 

Upegui cita 'Q', presentado como los mundos primera 'voz de IA sin género' a el festival FUTURES del Smithsonian en 2021, como un punto de inflexión para la misoginia en el mundo digital. 

Si bien los gigantes tecnológicos como Google y Apple han respondido al rechazo agregando voces masculinas a sus listas de IA, Siri y Google Assistant siguen siendo mujeres por defecto. Además, se necesitará más que un cambio de configuración para desarraigar los ideales de género misóginos incrustados en nuestros sistemas tecnológicos. 

Yolanda Strenge, profesora asociada de computación centrada en el ser humano en la Universidad de Monash, argumenta que eliminar el género de la IA no es la respuesta, ya que "esto simplifica demasiado las formas en que estos dispositivos tratan el género, que no solo están diferenciados por la voz, sino por los tipos". de las cosas que dicen, sus personalidades, su forma y su propósito". 

En su lugar, argumenta, deberíamos considerar la posibilidad de convertir a la 'esposa inteligente', como ella llama a las asistentes de IA. De esta manera, nuestros sistemas digitales pueden finalmente comenzar a existir desafiando, en lugar de en ausencia, los estereotipos de género.

Accesibilidad