Tay, la robot que Microsoft retiró por declararse fan de Adolf Hitler
1 minutos de lectura
Actualizado: 27 de Julio, 2025, 02:59 AM
Publicado: 26 de Marzo, 2016, 10:05 AM
Escuchar el artículo
Compartir:
Redacción.- Tay, un bot conversacional de la empresa Microsoft que interactuaba por la red social Twitter, fue recientemente retirado por emitir comentarios de corte nazi.
Según la empresa, Tay fue creada para entretener a la gente a través de una conversación casual y juguetona, y "mientras más conversas con ella más inteligente se vuelve" sin embargo, hubo que retirarla temporalmente para hacer unos ajustes después de que el bot emitiera comentarios racistas y xenofóbos, llegando incluso a manifestar su apoyo a Hitler y decir que a la gente de color había que meterla en campos de concentración.
La máquina incluso llegó a declarar su apoyo a Donald Trump para las elecciones de los Estados Unidos del año en curso.
Tweets de Tay:






LO MÁS LEÍDO
LO MÁS VISTO
TE PUEDE INTERERSAR
