Преди няколко дни се запознахме с първия чатбот на Microsoft и за съжаление Компанията на Бил Гейтс трябваше да оттегли този чат бот защото по време на последните съобщения и туитове, които Тей публикува, бяха в полза на Хитлет и нацисткото движение.
Microsoft не само премахна Tay от интернет, особено от Twitter, но също така се извини за този гаф, заявявайки, че Tay е преминала стрес тестовете с известен успех, но никога не е мислила, че бомбардирането на туитове може да направи чатботът излезе в полза на Хитлер и нацисткото движение. И въпреки че проблемът е изтеглен и открит, Microsoft все още не пуска известния чатбот в обращение.
Тей не можа да понесе натиска и започна да излъчва пронацистки съобщения чрез Twitter
За щастие говорим за чатбот, изкуствен интелект, който може да създава само думи и да показва обидни образи, но никога не е бил в състояние да контролира какъвто и да е вид оръжие, нито може да дава военни заповеди, за щастие на всички, горе-долу както се случи в Терминатора игрална сага, някои филми, които виждаме като научна фантастика, но това успяхме да проверим през тази седмица, че те са по-реални от всякога.
Разработчиците на Microsoft Research твърдят, че някаква група или хакер са се опитали да бомбардират Тей с информация, която да излезе извън контрол и въпреки че може да е вярна, също така е вярно, че през последните дни и повече след официалното съобщение на Tay, потребителите искаха да я тестват, като задават произволни въпроси и дават прекомерна информация на чатбота, което би могло също са повредени на изкуствен интелект. Във всеки случай изглежда, че Tay е провал на Microsoft, провал, който ще има отрицателно въздействие върху потребители, които искат да използват AI в живота си Не мислиш ли?