x

Tay, la robot que Microsoft retiró por declararse fan de Adolf Hitler

Imagen sin descripción
Escuchar el artículo
Detener

Redacción.- Tay, un bot conversacional de la empresa Microsoft que interactuaba por la red social Twitter, fue recientemente retirado por emitir comentarios de corte nazi.

Según la empresa, Tay fue creada para entretener a la gente a través de una conversación casual y juguetona, y «mientras más conversas con ella más inteligente se vuelve» sin embargo,  hubo que retirarla temporalmente para hacer unos ajustes después de que el bot emitiera comentarios racistas y xenofóbos, llegando incluso a manifestar su apoyo a Hitler y decir que a la gente de color había que meterla en campos de concentración.

La máquina incluso llegó a declarar su apoyo a Donald Trump para las elecciones de los Estados Unidos del año en curso.

Tweets de Tay:

NIGGERS2

ROBER3

ROBOT

Noticias SIN
Noticias SIN
Grupo SIN, es una empresa dedicada a la producción y transmisión de programas de información y opinión a través de televisión abierta a nivel nacional por el canal 9 de Color Visión.
  • Facebook
  • Twitter
Comenta con facebook
Recientes
Contenido más reciente en Noticias SIN

Encuentran muertos a los 13 trabajadores de mina de oro que estaban secuestrados en Perú

La estrella del cine que fue despedida de ‘Rambo’ por un motivo inesperado

Cae abatido “Brayan” en supuesto intercambio de disparos durante allanamiento en Buenos Aires de Herrera

Jornada educativa sobre chichiguas, seguridad y valores con la regidora Shade Medina en Cristo Park

DNCD frustra envío de cocaína a Australia camuflada en juego de bumpers

Sindicato de la Construcción en Las Terrenas rechaza contratación masiva de haitianos en obras

Defensa Civil encuentra niño de 3 años reportado desaparecido en SFM

Von der Leyen traslada al primer ministro canadiense su voluntad de fortalecer lazos