Prije nekoliko dana upoznali smo prvog Microsoftovog chatbota i nažalost Tvrtka Billa Gatesa morala je povući ovog chatbota jer su tijekom posljednjih poruka i tweetova koje je Tay emitirao bili naklonjeni Hitletu i nacističkom pokretu.
Microsoft nije samo uklonio Tay s interneta, posebno s Twittera, već se i ispričao zbog ovog gafa navodeći da je Tay s uspjehom prošla testove otpornosti na stres, ali nikada nije pomislio da bi bombardiranje tweetova moglo dovesti do chatbot je izašao u korist Hitlera i nacističkog pokreta. I premda je problem povučen i pronađen, Microsoft još uvijek ne stavlja u promet slavni chatbot.
Tay nije mogla podnijeti pritisak i počela je emitirati pro-nacističke poruke putem Twittera
Srećom govorimo o chatbotu, umjetnoj inteligenciji koja može samo stvarati riječi i pokazivati štetne slike, ali nikada nije uspjela kontrolirati nijednu vrstu oružja niti može izdavati vojne zapovijedi, na sreću svih, više ili manje kao što se dogodilo u Terminatoru saga igranog filma, neki filmovi koje smatramo znanstvenom fantastikom, ali to tijekom ovog tjedna uspjeli smo provjeriti jesu li stvarniji nego ikad.
Programeri za Microsoft Research tvrdi da je neka skupina ili haker pokušao bombardirati Taya s informacijama kako bi izmakli kontroli i premda su možda istinite, istina je i da su ih posljednjih dana i više nakon Tayeve službene najave korisnici htjeli testirati postavljanjem slučajnih pitanja i davanjem pretjeranih informacija chatbotu, što bi moglo također oštetili umjetnu inteligenciju. U svakom slučaju, čini se da je Tay propao Microsoft, neuspjeh koji će imati negativan utjecaj na korisnike koji žele koristiti AI u svom životu Zar ne mislite?