Han sido 11.000 millones de palabras escrutinadas en más de tres millones de libros las que han descubierto que el lenguaje empleado en libros y novelas, durante más de cien años, es sexista. Un grupo de científicos de la universidad de Copenhague han llevado a cabo un descomunal trabajo de campo en el que se han analizado de forma masiva textos escritos en idioma inglés, en libros publicados entre los años 1900 y 2008 ¿Qué se estaba analizando exactamente? La correlación entre géneros y calificativos buscando un patrón: el diferente tratamiento entre mujeres y hombres en textos escritos.
El estudio ha empleado un sistema basado en inteligencia artificial y aprendizaje automático para analizar palabra a palabra las obras publicadas en este período y concluir que el tratamiento a mujeres y hombres es abiertamente sexista. El análisis concluye que a las mujeres se les atribuye meramente calificativos relacionados con su físico, mientras que para los varones las referencias mayoritariamente se centraban en su fortaleza y personalidad. Los atributos negativos relacionados con el físico y el aspecto en estas obras se observan hasta cinco veces más en las mujeres que en los hombres. Entre las palabras que más se usan para describir a las mujeres están “hermosa”, “encantadora”, “preciosa”, “sexy”, soltera”, “fértil” o “exquisita”. Para ellos, los adjetivos más frecuentes son “justo”, “pacífico”, “racional”, “honorable”, “brutal”, “valiente” o “justo”.
“Este sistema puede reducir el sexismo en más ámbitos”
“No somos los primeros en confirmar el sexismo del lenguaje”, explica a EL PAÍS Alexander Hoyle, uno de los coautores del estudio, “pero los sistemas computacionales nos permiten corroborar estas sospechas a gran escala”. Este científico describe el modelo computacional creado como “ligero” aunque, eso sí, reconoce que se ha dedicado un considerable esfuerzo en “establecer las diferentes hipótesis y crear los modelos”.
El estudio, con todo, no solo sirve como confirmación del sexismo aplicado de forma masiva, al lenguaje, sino para “identificar y desvelar nuevas áreas en las que se está aplicando”, explica Hoyle. El autor se refiere a emplear estos motores en otros ámbitos de forma automática y así alertar de esta manipulación del lenguaje:P“por ejemplo, la aplicación Textio puede alertar si un puesto de trabajo prioriza a candidatos masculinos”, destaca el estadounidense.
Más información: http://bit.ly/2Zokqu9