Pred pár dňami sme sa stretli s prvým Microsoft chatbotom a bohužiaľ Spoločnosť Billa Gatesa musela tohto chatbota ukončiť pretože počas posledných správ a tweetov, ktoré Tay vydala, boli v prospech Hitleta a nacistického hnutia.
Microsoft nielen odstránil Tay z internetu, najmä z Twitteru, ale aj sa ospravedlnil za túto chybu, keď uviedol, že Tay prešla záťažovými testami s určitým úspechom, ale nikdy si nemyslela, že bombardovanie tweetov môže spôsobiť chatbot vyšiel v prospech Hitlera a nacistického hnutia. A hoci bol problém stiahnutý a nájdený, Microsoft stále nedáva slávneho chatbota do obehu.
Tay neuniesla tlak a začala vysielať pronacistické správy prostredníctvom Twitteru
Našťastie hovoríme o chatbote, umelej inteligencii, ktorá dokáže iba vytvárať slová a zobrazovať škodlivé obrázky, ale nikdy nebola schopná ovládať akýkoľvek typ zbrane, ani nemohla vydávať vojenské rozkazy, našťastie pre všetkých, viac či menej, ako sa to stalo v Terminátorovi sága hraného filmu, niektoré filmy, ktoré vidíme ako sci-fi, ale to počas tohto týždňa sa nám podarilo overiť, že sú skutočnejšie než kedykoľvek predtým.
Vývojári Microsoft Research tvrdí, že nejaká skupina alebo hacker sa pokúsili zbombardovať Tay s informáciami, ktoré sa vymknú spod kontroly, a hoci to môže byť pravda, je tiež pravda, že počas posledných dní a ešte viac po oficiálnom oznámení Tayho ich používatelia chceli otestovať kladením náhodných otázok a poskytovaním nadmerných informácií chatbotu, poškodené aj na umelej inteligencii. V každom prípade sa zdá, že išlo o zlyhanie spoločnosti Microsoft, zlyhanie, ktoré bude mať negatívny dopad na používateľov, ktorí chcú vo svojom živote používať AI. Nemyslíte si?