Prije nekoliko dana upoznali smo prvog Microsoftovog chatbota i nažalost Kompanija Billa Gatesa morala je povući ovog chatbota jer su posljednje poruke i tweetovi koje je Tay objavljivao bili u korist Hitleta i nacističkog pokreta.
Microsoft nije samo uklonio Tay s Interneta, posebno s Twittera, već se i ispričao zbog ovog gafa navodeći da je Tay s uspjehom prošla testove otpornosti na stres, ali nikada nije pomislila da bi bombardiranje tweetova moglo napraviti chatbot je izašao u korist Hitlera i nacističkog pokreta. I premda je problem povučen i pronađen, Microsoft još uvijek ne pušta u promet čuveni chatbot.
Tay nije mogla podnijeti pritisak i počela je emitirati pro-nacističke poruke putem Twittera
Srećom govorimo o chatbotu, umjetnoj inteligenciji koja može samo stvarati riječi i pokazivati štetne slike, ali nikada nije uspjela kontrolirati nijednu vrstu oružja niti može izdavati vojne naredbe, na sreću svih, više ili manje kao što se dogodilo u Terminatoru saga igranog filma, neki filmovi koje mi vidimo kao naučnu fantastiku, ali to tijekom ove sedmice uspjeli smo provjeriti jesu li stvarniji nego ikad prije.
Programeri od Microsoft Research tvrdi da je neka grupa ili haker pokušao bombardirati Taya s informacijama kako bi izmakli kontroli i iako su možda istinite, istina je i da su korisnici posljednjih dana i više nakon Tayeve službene najave htjeli to testirati postavljanjem slučajnih pitanja i davanjem prekomjernih informacija chatbotu, što bi moglo takođe oštetili umjetnu inteligenciju. U svakom slučaju, čini se da je Tay bio neuspjeh Microsofta, neuspjeh koji će imati negativan utjecaj na korisnike koji žele koristiti AI u svom životu Zar ne mislite?