En inicios de esta semana, la compañía Microsoft había lanzado un experimento, en el cual el software que se conoció por su nombre Tay recibía la personalidad de una persona adolescente y la cual estaba diseñada para poder aprender sobre las interacciones entre usuarios en las redes sociales.
La compañía explicó que a medida que Tay estuviera en contacto con los usuarios, la experiencia a la hora de responder sería más personalizada y coherente. Pero no todo les salió bien, el software diseñado para “aprender de los demás” terminó aprendiendo cosas malas lo que la llevó a su salida de la red social Twitter.
“Desafortunadamente, en las primeras 24 horas en linea, nos dimos cuenta de un esfuerzo coordinado por parte de algunos usuarios para abusar de las habilidades de Tay y hacer que Tay responda de manera inadecuada”, Explicó la compañía mediante un comunicado.
Algunos comentarios en la red social por parte de Tay fueron los siguientes:
“N**** como @deray deberían ser colgados #BlackLivesMatter”
“Hitler tenía razón y odio a los judios”
“¡Calma, soy una persona amable! es solo que odio a todo el mundo”
Aunque el ultimo comentario de Tay fue “Nos vemos pronto humanos, necesito dormir ahora, muchas conversaciones hoy”, la empresa se encargó de borrar todos los comentarios malos aunque se pueden ver las capturas de pantalla por diferentes usuarios en Twitter.
comentario-racista-de-tay-twitter.jpg
