Néhány nappal ezelőtt találkoztunk az első Microsoft chatbottal és sajnos Bill Gates cégének nyugdíjaznia kellett ezt a chatbotot mert a Tay által kiadott utolsó üzenetek és tweetek során a Hitlet és a náci mozgalom mellett álltak.
A Microsoft nem csak eltávolította Tay-t az internetről, különösen a Twitterről, hanem bocsánatot kért emiatt a hangulatért, kijelentve, hogy Tay némi sikerrel teljesítette a stresszteszteket, de soha nem gondolta volna, hogy a tweetek bombázása előidézheti a chatbot Hitler és a náci mozgalom mellett állt ki. És bár a problémát visszavonták és megtalálták, a Microsoft még mindig nem hozza forgalomba a híres chatbotot.
Tay nem tudta elviselni a nyomást és elkezdte a náci-barát üzeneteket sugározni a Twitteren
Szerencsére egy chatbotról beszélünk, egy olyan mesterséges intelligenciáról, amely csak szavakat képes létrehozni és bántó képeket képes bemutatni, de soha nem volt képes bármilyen fegyvert irányítani vagy katonai parancsokat adni, szerencsére mindenki számára, nagyjából úgy, ahogy a Terminator játékfilmjében történt saga, néhány film, amelyet tudományos fantasztikusnak tekintünk, de ez a héten igazolni tudtuk, hogy valóságosabbak, mint valaha.
A fejlesztők a A Microsoft Research állítása szerint néhány csoport vagy hacker megpróbálta bombázni Tay-t információval, hogy kijusson az irányításból, és bár igaz lehet, az is igaz, hogy a Tay hivatalos bejelentését követő utolsó napokban és még sok másban a felhasználók azt akarták tesztelni, hogy véletlenszerű kérdéseket tettek fel és túl sok információt adtak a chatbotnak, ami szintén károsították a mesterséges intelligenciát. Mindenesetre úgy tűnik, hogy Tay a Microsoft kudarca volt, amely kudarc negatív hatással lesz azokra a felhasználókra, akik életük során szeretnék használni az AI-t. Nem gondolod?