Notasbit

Las mejores noticias de tecnología en un sólo lugar

Publicado por: Paréntesis

Publicado en: 23/05/2019 12:30

Escrito por: Anónimo

Alexa, Siri, Cortana y Assistant refuerzan prejuicios de género

Las voces femeninas de Alexa, Siri, Assistant y Cortana refuerzan los prejuicios de género, de acuerdo con el reporte titulado “I’d blush if I could” (“Me sonrojaría si pudiera”, en español), de las Naciones Unidas.

El documento enfatiza que la decisión de las tecnológicas, poner por default una voz femenina, refleja la idea de que los asistentes son mujeres subordinadas.

“El asistente respeta los comandos y responde a las consultas independientemente del tono o la hostilidad. En muchas comunidades, esto refuerza los prejuicios de género de que las mujeres son subordinadas y tolerantes al mal trato”, señala la investigación.

“I’d blush if I could” hace referencia a la respuesta que Siri solía dar cuando un usuario le hacía la afirmación “You’re a slut” (se ahorra la traducción por lo ofensiva de es la frase). Ante la crítica, se cambió por un “I don’t know how to respond to that”.

“La sumisión de los asistentes de voz digitales se vuelve especialmente preocupante cuando estas máquinas, antropomorfizadas como mujeres por las empresas de tecnología, dan respuestas de desvío, inexpresivas o de disculpa al acoso sexual verbal”, precisa el reporte.

La Unesco recomienda que los asistentes virtuales no tengan voz de mujer por defecto y enfatiza que las firmas tecnológicas deben explorar la posibilidad de diseñarlos con una voz neutral con respecto al género.

Asimismo, alienta a las compañías a programar sus desarrollos para …

Top noticias del 23 de Mayo de 2019