Kilka dni temu poznaliśmy pierwszego chatbota Microsoftu i niestety Firma Billa Gatesa musiała zrezygnować z tego chatbota ponieważ podczas ostatnich wiadomości i tweetów, które wysłał Tay, były na korzyść Hitleta i ruchu nazistowskiego.
Microsoft nie tylko usunął Tay z Internetu, zwłaszcza z Twittera, ale także przeprosił za ten błąd, stwierdzając, że Tay przeszedł testy warunków skrajnych z pewnym sukcesem, ale nigdy nie przypuszczał, że bombardowanie tweetów może spowodować chatbot wyszedł na korzyść Hitlera i ruchu nazistowskiego. I chociaż problem został usunięty i znaleziony, Microsoft nadal nie wprowadza do obiegu słynnego chatbota.
Tay nie mógł znieść presji i zaczął nadawać pro-nazistowskie wiadomości za pośrednictwem Twittera
Na szczęście mówimy o chatbocie, sztucznej inteligencji, która może tylko tworzyć słowa i pokazywać krzywdzące obrazy, ale nigdy nie była w stanie kontrolować żadnego rodzaju broni ani wydawać rozkazów wojskowych, na szczęście dla wszystkich, mniej więcej tak, jak to miało miejsce w filmie fabularnym Terminator. saga, niektóre filmy, które postrzegamy jako science fiction, ale to mogliśmy zweryfikować w tym tygodniu, że są one bardziej prawdziwe niż kiedykolwiek.
Twórcy Microsoft Research twierdzi, że jakaś grupa lub haker próbował zbombardować Tay z informacjami, które wymkną się spod kontroli i chociaż może to być prawdą, prawdą jest również, że w ostatnich dniach, a nawet po oficjalnym ogłoszeniu Taya, użytkownicy chcieli je przetestować, zadając losowe pytania i przekazując chatbotowi nadmierne informacje, co mogłoby również uszkodziły sztuczną inteligencję. W każdym razie wydaje się, że Tay był porażką Microsoftu, porażką, która negatywnie wpłynie na użytkowników, którzy chcą w swoim życiu korzystać ze sztucznej inteligencji Nie myślisz, że?