febrero 24, 2025

Recomendamos: Microsoft retira un robot que hizo comentarios racistas en Twitter

Compartir

Microsoft se ha visto obligada a retirar un robot de Twitter porque en su interacción con seres humanos elaboraba mensajes de contenido racista, sexista y xenófobo. El chatbot (un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano) ha sido diseñado por la compañía para contestar preguntas y establecer conversaciones en Twitter en un intento de captar el mercado de millenialsen Estados Unidos.


El plan de Microsoft ha fracasado en solo unas horas de funcionamiento. Tay estaba dirigido a jóvenes de entre 18 y 24 con los que pretendía establecer una conversación "casual y juguetona" , pero no fue capaz de bregar con insultos racistas, bromas y comentarios que, por ejemplo, endosaban teorías conspiratorias sobre los atentados del 11 de septiembre.


Entre otros comentarios, Tay parecía negar el Holocausto, apoyaba el genocidio, y llamó "puta estúpida" a una mujer. Otra de sus contestaciones encajaba con la línea del candidato Donald Trump: "Vamos a poner un muro en la frontera. México va a tener que pagarlo".


http://tecnologia.elpais.com/tecnologia/2016/03/24/actualidad/1458855274_096966.html

Autor