De acuerdo con un estudio de la UNESCO divulgado este miércoles, la mayor parte de los asistentes de digitales de voz contribuyen a reforzar estereotipos sexistas y están programados para asumir actitudes sumisas.
Subrayó que asistentes como Siri, de Apple; Alexam de Amazon y Cortana, de Microsoft, se concibieron con nombres y voces de mujer, para ser vistos como entes femeninos y ejercer la función de “ayudantes”; incluso se les diseñó para responder en forma cortés a los insultos, lo cual normaliza el acoso y los prejuicios de género. El análisis pone como ejemplo de ello el caso de Siri.
“Siri estaba programado previamente para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera”. La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, señala el estudio.
La UNESCO destaca en su reporte que los asistentes de voz representan la quinta parte de las búsquedas en internet, lo cual tiene un impacto cultural significativo y en la medida en que lleguen a más comunidades en el mundo, contribuye a afianzar la feminización de estos instrumentos y por lo tanto, también los sesgos de género.
“El mundo debe prestar mucha más atención a cómo, cuándo y si las tecnologías de IA (inteligencia artificial) tienen género y, lo que es más importante, quién lo define”, dijo Saniye Gulser Corat, directora de la UNESCO para la igualdad de género.
La agencia de la ONU hizo un llamado a las empresas tecnológicas a adoptar algunas medidas, como dejar de poner voz femenina por defecto a los asistentes digitales, explorar opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basados en el género.
Hasta el momento, ni Apple, Amazon o Microsoft han emitido pronunciamiento alguno respecto al reporte de la UNESCO.
(Con información de Reuters)
arg