Beberapa hari yang lalu kami bertemu dengan chatbot Microsoft pertama dan malangnya Syarikat Bill Gates terpaksa mengundurkan chatbot ini kerana semasa mesej dan tweet terakhir yang dikeluarkan Tay memihak kepada Hitlet dan gerakan Nazi.
Microsoft tidak hanya mengeluarkan Tay dari Internet, terutama dari Twitter, tetapi juga telah meminta maaf atas kesalahan ini yang menyatakan bahawa Tay telah lulus ujian tekanan dengan beberapa kejayaan tetapi tidak pernah menyangka bahawa pengeboman tweet dapat membuat chatbot keluar memihak kepada Hitler dan gerakan Nazi. Dan walaupun masalah itu telah ditarik dan dijumpai, Microsoft masih tidak menggunakan chatbot yang terkenal.
Tay tidak dapat menahan tekanan dan mula menyiarkan mesej pro-Nazi melalui Twitter
Nasib baik kita bercakap tentang chatbot, kecerdasan buatan yang hanya dapat membuat kata-kata dan menunjukkan gambar yang menyakitkan tetapi tidak pernah dapat mengawal apa-apa jenis senjata dan juga tidak dapat memberikan perintah ketenteraan, untungnya untuk semua orang, lebih kurang seperti yang berlaku di Terminator menampilkan saga filem, beberapa filem yang kita lihat sebagai Fiksyen Sains tetapi itu kami dapat mengesahkan sepanjang minggu ini bahawa ia lebih nyata daripada sebelumnya.
Pemaju Microsoft Research mendakwa bahawa beberapa kumpulan atau penggodam telah cuba mengebom Tay dengan maklumat untuk tidak terkawal dan walaupun mungkin benar, itu juga benar bahawa pada hari-hari terakhir dan lebih banyak lagi setelah pengumuman rasmi Tay, pengguna ingin mengujinya dengan mengemukakan soalan rawak dan memberikan maklumat yang berlebihan kepada chatbot, yang dapat juga telah merosakkan kecerdasan buatan. Bagaimanapun, nampaknya Tay telah menjadi kegagalan Microsoft, kegagalan yang akan memberi kesan negatif kepada pengguna yang ingin menggunakan AI dalam kehidupan mereka Tidakkah anda berfikir?