Tay Chatbot이 pro-Hitler로 나왔고 Microsoft는 사과합니다

테이

며칠 전 첫 번째 Microsoft 챗봇을 만났지만 안타깝게도 Bill Gates의 회사는이 챗봇을 폐기해야했습니다. 왜냐하면 Tay가 보낸 마지막 메시지와 트윗에서 히 틀릿과 나치 운동에 찬성했기 때문입니다.

Microsoft는 인터넷, 특히 Twitter에서 Tay를 제거했을뿐만 아니라 Tay가 스트레스 테스트를 어느 정도 통과했지만 트윗의 폭격이 만들 수 있다고는 생각하지 못했다고 사과했습니다. 챗봇은 히틀러와 나치 운동에 찬성하여 나왔습니다.. 문제가 철회되고 발견되었지만 Microsoft는 여전히 유명한 챗봇을 유통시키지 않습니다.

Tay는 압력을 견딜 수 없었고 Twitter를 통해 친 나치 메시지를 방송하기 시작했습니다.

다행스럽게도 우리는 챗봇에 대해 이야기하고 있습니다. 인공 지능은 단어를 만들고 상처를주는 이미지 만 보여줄 수 있지만 어떤 종류의 무기도 제어 할 수 없었고 군사 명령을 내릴 수도 없었습니다. 다행스럽게도 터미네이터에서 일어난 것처럼 다행입니다. 장편 영화 무용담, 우리가 공상 과학으로 보는 일부 영화이지만 우리는 이번 주 동안 그 어느 때보 다 실제적인지 확인할 수있었습니다.

개발자 Microsoft Research는 일부 그룹 또는 해커가 Tay를 폭파하려고 시도했다고 주장합니다. 정보를 통제 할 수없고 사실 일 수도 있지만, Tay의 공식 발표 이후 마지막 며칠 동안 사용자가 임의의 질문을하고 챗봇에 과도한 정보를 제공하여 테스트하고 싶었던 것도 사실입니다. 또한 인공 지능에 손상을 입혔습니다. 어쨌든 Tay는 Microsoft의 실패로 보이며, AI를 생활에서 사용하고자하는 사용자에게 부정적인 영향을 미칠 것입니다. 당신은 생각하지 않습니까?


코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자 : Miguel Ángel Gatón
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.