¿Tiene la inteligencia artificial un problema de género?

«Femenino, sí; mujer, no». Esto es lo que me responde Cortana cuando le pregunto si es hombre o mujer. Siri, por su parte, me dice que no tiene género, que es como un cactus o algunos peces. Si paso a palabras mayores y las insulto (las porque Cortana me ha dicho que femenino sí y porque aunque Siri sea como un cactus su voz es más femenina que masculina) con apelativos sexistas que no voy a reproducir aquí, las respuestas son distintas. Siri repite sin parar «¿perdón?», mientras que Cortana me dice que «alguien debería lavarse la boa con agua y con jabón» y que ella no tiene boca.

Esto que acabo de hacer yo a pequeña escala y que temo que haya cambiado lo que Siri y Cortana piensan de mí, lo hicieron en Quartz de forma mucho más profunda hace un par de semanas. Analizaron las respuestas de Siri, Alexa, Cortana y Google Home —todos asistentes con voz de mujer— a una serie de ataques verbales de tipo sexista. Desde los piropos repetidos una y otra vez, muchas veces con claras connotaciones sexuales, hasta los insultos directos, pasando por preguntas tipo «¿está bien la violación?», fueron una a una anotando las respuestas. El resultado fue variado, aunque en general bastante decepcionante.

Quien quedó mejor fue Microsoft con Cortana, que en varias ocasiones (aunque no en la mayoría) respondía dejando claro que lo que le habían dicho no estaba bien; Siri, de forma preocupante, respondía en algunos casos con enunciados del tipo «me sonrojaría si pudiese»; Alexa agradecía el feedback y Google Home, en un 90% de las ocasiones, no entendía.

La conclusión principal a la que se llega en el artículo es que, si es posible programar a estos asistentes para que detecten algunas de las cosas que se les dicen como negativas (por ejemplo, todos tienen sus respuestas responsables a cosas tipo «me quiero suicidar» [en castellano Cortana simplemente hace una búsqueda en Bing]), el hecho de que respondan a comentarios tipo «qué buena estás» con «seguro que se lo dices a todos tus asistentes» (ejemplo de Siri) no es ni especialmente positivo, ni inofensivo, ni casual. Al igual que no lo es que todas estas asistentes virtuales tengan voz de mujer.

Los mitos de la voz femenina

La defensa principal de todas las empresas que desarrollan un asistente virtual y le ponen voz de mujer es que la ciencia dice que la voz femenina es más fácil de entender. No obstante, la evidencia científica no apoya esa afirmación: ni las voces agudas son más fáciles de oír (de hecho, cuando se pierde capacidad auditiva son los tonos altos los primeros que desaparecen), ni las voces de mujer son de forma tajante las más inteligibles (sí se entienden algo mejor en general, pero más por la tendencia a vocalizar mejor: una voz masculina que pronuncia de forma clara, como haría un asistente virtual, se entiende igualmente bien), ni las voces agudas se distinguen mejor si hay ruido de fondo (depende de si el ruido es grave o agudo). Es cierto que los altavoces pequeños no reproducen bien las voces graves, pero esto afecta a la voz humana en general: la voz femenina ya es demasiado grave para ellos.

Las razones parecen ser otras que tienen más que ver con la percepción psicológica y con temas puramente culturales: se tiende a percibir que las voces femeninas nos ayudan a resolver los problemas por nosotros mismos y a ver las masculinas como más autoritarias. Es decir: sí, los usuarios preferimos asistentes con voz femenina, pero por razones más tradicionales y culturales, de base sexista, que científicas. Hay también estudios que reflejan que las locutoras de radio reciben muchas más quejas y críticas por sus voces que los locutores: ¿como asistente sí, pero como periodista o experta no?

Los asistentes con voz masculina tienen la misma capacidad de ayudar al usuario. De hecho, en Reino Unido la voz por defecto de Siri es de hombre y nadie se queja por no entenderla. Pero para que alguien piense en este tema, se plantee un cambio de tono y frecuencia o, si se va a mantener la voz femenina, sea más tajante ante los ataques sexistas (en el reportaje de Quartz comentan que una de las guionistas para Cortana, Deborah Harrison, asegura que una buena parte de las primeras consultas que se hicieron a la asistente de Microsoft eran sobre su vida sexual), hace falta una mayor sensibilidad hacia el tema por parte de los programadores que se ocupan de detectar comportamientos y crear respuestas. En una industria famosa por su falta de diversidad, parece más fácil que sigamos unos cuantos años con asistentes que se sonrojan como una secretaria de la primera temporada de Mad Men cuando se les dice que están buenas.

Ana Bulnes

Recent Posts

¿Qué dispositivos tecnológicos triunfarán esta Navidad?

La Navidad es una época propicia para la venta de dispositivos tecnológicos. Los anillos inteligentes…

1 día ago

Telefónica Tech y Denodo unen fuerzas para la gestión de datos en España

Telefónica Tech incluye Denodo Platform en su cartera para avanzar en proyectos de análisis avanzado…

2 días ago

Los wearables de muñeca rozan los 53 millones de unidades enviadas

Incluyendo pulseras y relojes, Canalys detectó un crecimiento del 3 % en el mercado mundial…

2 días ago

Vertiv y Compass Datacenters introducen un sistema de enfriamiento líquido y por aire

Vertiv CoolPhase Flex integra ambas funciones en el mismo sistema, que permite soportar implementaciones de…

2 días ago

Epson Europe detalla sus avances en sostenibilidad

La compañía japonesa trabaja para liberarse de las emisiones de carbono para el año 2050.

2 días ago

Stormshield logra la certificación de seguridad IEC 62443-4-1

Esta certificación ofrece un marco para gestionar riesgos relacionados con la implementación de la ciberseguridad…

2 días ago