Πριν από λίγες μέρες συναντηθήκαμε με το πρώτο chatbot της Microsoft και δυστυχώς Η εταιρεία του Bill Gates έπρεπε να αποσύρει αυτό το chatbot γιατί κατά τη διάρκεια των τελευταίων μηνυμάτων και tweets που εκπέμπει ο Tay ήταν υπέρ του Χίτλετ και του ναζιστικού κινήματος.
Η Microsoft όχι μόνο απομάκρυνε τον Tay από το Διαδίκτυο, ειδικά από το Twitter, αλλά ζήτησε επίσης συγνώμη για αυτό το χάος δηλώνοντας ότι ο Tay είχε περάσει με επιτυχία τις δοκιμασίες άγχους, αλλά δεν είχε σκεφτεί ποτέ ότι ο βομβαρδισμός των tweets θα μπορούσε το chatbot βγήκε υπέρ του Χίτλερ και του ναζιστικού κινήματος. Και παρόλο που το πρόβλημα έχει αποσυρθεί και βρεθεί, η Microsoft εξακολουθεί να μην θέτει σε κυκλοφορία το περίφημο chatbot.
Ο Tay δεν μπορούσε να αντέξει την πίεση και άρχισε να μεταδίδει μηνύματα υπέρ των ναζί μέσω του Twitter
Ευτυχώς μιλάμε για ένα chatbot, μια τεχνητή νοημοσύνη που μπορεί μόνο να δημιουργήσει λέξεις και να δείξει βλαβερές εικόνες, αλλά ποτέ δεν μπόρεσε να ελέγξει οποιοδήποτε είδος όπλου ούτε μπορεί να δώσει στρατιωτικές εντολές, ευτυχώς για όλους, λίγο πολύ όπως συνέβη στον Εξολοθρευτή παρουσιάζουν έπος ταινίας, μερικές ταινίες που βλέπουμε ως επιστημονική φαντασία, αλλά αυτό καταφέραμε να επαληθεύσουμε αυτήν την εβδομάδα ότι είναι πιο αληθινά από ποτέ.
Οι προγραμματιστές του Η Microsoft Research ισχυρίζεται ότι κάποια ομάδα ή χάκερ προσπάθησαν να βομβαρδίσουν τον Tay με πληροφορίες για να ξεφύγουν από τον έλεγχο και παρόλο που μπορεί να είναι αλήθεια, είναι επίσης αλήθεια ότι τις τελευταίες ημέρες και περισσότερο μετά την επίσημη ανακοίνωση του Tay, οι χρήστες ήθελαν να το δοκιμάσουν ρωτώντας τυχαίες ερωτήσεις και δίνοντας υπερβολικές πληροφορίες στο chatbot, το οποίο θα μπορούσε έχουν επίσης καταστραφεί στην τεχνητή νοημοσύνη. Σε κάθε περίπτωση, φαίνεται ότι ο Tay ήταν μια αποτυχία της Microsoft, μια αποτυχία που θα έχει αρνητικό αντίκτυπο στους χρήστες που θέλουν να χρησιμοποιούν AI στη ζωή τους Δεν νομίζετε?