Vor ein paar Tagen haben wir den ersten Microsoft Chatbot getroffen und leider Die Firma von Bill Gates musste diesen Chatbot zurückziehen denn während der letzten Nachrichten und Tweets, die Tay ausstrahlte, waren sie für Hitlet und die Nazibewegung.
Microsoft hat Tay nicht nur aus dem Internet entfernt, insbesondere von Twitter, sondern sich auch für diese Gaffe entschuldigt, die besagt, dass Tay die Stresstests mit einigem Erfolg bestanden hat, aber nie gedacht hat, dass das Bombardement von Tweets dazu führen könnte Der Chatbot sprach sich für Hitler und die Nazibewegung aus. Und obwohl das Problem zurückgezogen und festgestellt wurde, bringt Microsoft den berühmten Chatbot immer noch nicht in Umlauf.
Tay konnte den Druck nicht ertragen und begann, Pro-Nazi-Nachrichten über Twitter zu senden
Glücklicherweise handelt es sich um einen Chatbot, eine künstliche Intelligenz, die nur Wörter erzeugen und verletzende Bilder zeigen kann, aber nie in der Lage war, irgendeine Art von Waffe zu kontrollieren oder militärische Befehle zu erteilen, zum Glück für alle, mehr oder weniger wie im Terminator-Spielfilm Saga, einige Filme, die wir als Science Fiction sehen, aber das Wir konnten in dieser Woche überprüfen, ob sie realer sind als je zuvor.
Die Entwickler von Microsoft Research behauptet, dass eine Gruppe oder ein Hacker versucht haben, Tay zu bombardieren Mit Informationen, die außer Kontrolle geraten sollen, und obwohl dies wahr sein mag, ist es auch wahr, dass Benutzer in den letzten Tagen und mehr nach Tay's offizieller Ankündigung diese testen wollten, indem sie zufällige Fragen stellten und dem Chatbot übermäßige Informationen gaben, was möglich war haben auch künstliche Intelligenz beschädigt. Auf jeden Fall scheint Tay ein Fehler von Microsoft gewesen zu sein, ein Fehler, der sich negativ auf Benutzer auswirkt, die KI in ihrem Leben verwenden möchten Denkst du nicht?