Несколько дней назад мы встретили первого чат-бота Microsoft и, к сожалению, Компании Билла Гейтса пришлось отказаться от этого чат-бота потому что в последних сообщениях и твитах, которые Тай распространял, они высказывались в пользу Гитлета и нацистского движения.
Microsoft не только удалила Тэя из Интернета, особенно из Twitter, но и извинилась за эту ошибку, заявив, что Тай успешно прошел стресс-тесты, но никогда не думал, что бомбардировка твитов может сделать чат-бот выступил в пользу Гитлера и нацистского движения. И хотя проблема снята и обнаружена, Microsoft до сих пор не выпускает знаменитого чат-бота в оборот.
Тай не выдержал давления и начал транслировать пронацистские сообщения через Twitter.
К счастью, мы говорим о чат-боте, искусственном интеллекте, который может только создавать слова и показывать обидные изображения, но никогда не мог управлять каким-либо оружием и не может отдавать военные приказы, к счастью для всех, более или менее, как это произошло в Терминаторе. художественные саги, некоторые фильмы, которые мы считаем научной фантастикой, но которые на этой неделе мы смогли убедиться, что они более реальны, чем когда-либо.
Разработчики Microsoft Research утверждает, что какая-то группа или хакер пытались взорвать Тэя. с информацией, чтобы выйти из-под контроля, и хотя это может быть правдой, также верно и то, что в течение последних дней и более после официального объявления Тэя пользователи хотели проверить его, задавая случайные вопросы и предоставляя чрезмерную информацию чат-боту, что могло также нанесли ущерб искусственному интеллекту. В любом случае, похоже, что Тай был провалом Microsoft, провалом, который негативно повлияет на пользователей, которые хотят использовать ИИ в своей жизни. Вы так не думаете?