Hace unos días que conocimos el primer chatbot de Microsoft y lamentablemente la empresa de Bill Gates ha tenido que retirar este chatbot debido que durante los últimos mensajes y tuits que Tay emitía eran en favor de Hitlet y el movimiento nazi.
Microsoft no sólo ha retirado a Tay de Internet, sobretodo de Twitter, sino que además ha pedido perdón por esta metedura de pata afirmando que Tay había superado las pruebas de estrés con cierto éxito pero nunca habían pensado que el bombardeo de tuits podría hacer que el chatbot saliese en favor de Hitler y del movimiento nazi. Y aunque ha sido retirado y encontrado el problema, Microsoft sigue sin poner en circulación al famoso chatbot.
Tay no aguantó la presión y empezó a emitir mensajes pro nazis a través de Twitter
Afortunadamente estamos hablando de un chatbot, una inteligencia artificial que sólo puede crear palabras y mostrar imágenes hirientes pero nunca ha podido controlar ningún tipo de arma ni puede dar ordenes militares, afortunadamente para todos, más o menos como pasó en la saga de largometrajes Terminator, unas películas que vemos como Ciencia Ficción pero que hemos podido comprobar durante esta semana que son más reales que nunca.
Los desarrolladores de Microsoft Research afirman que algún grupo o hacker han intentado bombardear a Tay con información para que se descontrolase y aunque puede ser verdad, también es cierto que durante los últimos días y más tras el anuncio oficial de Tay, los usuarios han querido probarlo realizándose preguntas al azar y dando excesiva información al chatbot, lo que también podría haber dañado a la inteligencia artificial. En cualquier caso parece que Tay ha sido un fracaso de Microsoft, un fracaso que repercutirá negativamente en los usuarios que quieran utilizar la IA en sus vidas ¿no creéis?