El chatbot Tay salió pro-Hitler y Microsoft pide perdón

  • Microsoft retiró su chatbot Tay tras emitir mensajes pro nazis.
  • Tay fue víctima de un bombardeo de tuits que lo descontroló.
  • La inteligencia artificial de Tay no representa un peligro físico.
  • El incidente afectará la percepción de la IA en el futuro.

Tay

Hace unos días que conocimos el primer chatbot de Microsoft y lamentablemente la empresa de Bill Gates ha tenido que retirar este chatbot debido que durante los últimos mensajes y tuits que Tay emitía eran en favor de Hitlet y el movimiento nazi.

Microsoft no sólo ha retirado a Tay de Internet, sobretodo de Twitter, sino que además ha pedido perdón por esta metedura de pata afirmando que Tay había superado las pruebas de estrés con cierto éxito pero nunca habían pensado que el bombardeo de tuits podría hacer que el chatbot saliese en favor de Hitler y del movimiento nazi. Y aunque ha sido retirado y encontrado el problema, Microsoft sigue sin poner en circulación al famoso chatbot.

Tay no aguantó la presión y empezó a emitir mensajes pro nazis a través de Twitter

Afortunadamente estamos hablando de un chatbot, una inteligencia artificial que sólo puede crear palabras y mostrar imágenes hirientes pero nunca ha podido controlar ningún tipo de arma ni puede dar ordenes militares, afortunadamente para todos, más o menos como pasó en la saga de largometrajes Terminator, unas películas que vemos como Ciencia Ficción pero que hemos podido comprobar durante esta semana que son más reales que nunca.

Los desarrolladores de Microsoft Research afirman que algún grupo o hacker han intentado bombardear a Tay con información para que se descontrolase y aunque puede ser verdad, también es cierto que durante los últimos días y más tras el anuncio oficial de Tay, los usuarios han querido probarlo realizándose preguntas al azar y dando excesiva información al chatbot, lo que también podría haber dañado a la inteligencia artificial. En cualquier caso parece que Tay ha sido un fracaso de Microsoft, un fracaso que repercutirá negativamente en los usuarios que quieran utilizar la IA en sus vidas ¿no creéis?


Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: Miguel Ángel Gatón
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.