Redacción.- Tay, un bot conversacional de la empresa Microsoft que interactuaba por la red social Twitter, fue recientemente retirado por emitir comentarios de corte nazi.
Según la empresa, Tay fue creada para entretener a la gente a través de una conversación casual y juguetona, y «mientras más conversas con ella más inteligente se vuelve» sin embargo, hubo que retirarla temporalmente para hacer unos ajustes después de que el bot emitiera comentarios racistas y xenofóbos, llegando incluso a manifestar su apoyo a Hitler y decir que a la gente de color había que meterla en campos de concentración.
La máquina incluso llegó a declarar su apoyo a Donald Trump para las elecciones de los Estados Unidos del año en curso.
Tweets de Tay:
Recibe las últimas noticias en tu casilla de email