جاء برنامج Tay chatbot مؤيدًا لهتلر ومايكروسوفت تعتذر

تاي

قبل أيام قليلة ، التقينا بأول chatbot من Microsoft ولسوء الحظ اضطرت شركة بيل جيتس للتقاعد من برنامج الدردشة الآلي هذا لأن الرسائل والتغريدات الأخيرة التي أرسلها تاي كانت لصالح هيتلت والحركة النازية.

لم تكتف Microsoft بإزالة Tay من الإنترنت ، وخاصة من Twitter ، ولكنها اعتذرت أيضًا عن هذه الزلة قائلة إن Tay قد اجتاز اختبارات الإجهاد ببعض النجاح ، لكنه لم يعتقد أبدًا أن قصف التغريدات يمكن أن يؤدي إلى جاء برنامج الدردشة الآلي لصالح هتلر والحركة النازية. وعلى الرغم من أن المشكلة قد تم سحبها والعثور عليها ، إلا أن Microsoft ما زالت لا تضع برنامج الدردشة الشهير في التداول.

لم يستطع تاي تحمل الضغط وبدأ ببث رسائل مؤيدة للنازية عبر تويتر

لحسن الحظ ، نحن نتحدث عن chatbot ، وهو ذكاء اصطناعي يمكنه فقط إنشاء كلمات وعرض صور مؤذية ولكنه لم يكن قادرًا على التحكم في أي نوع من الأسلحة أو إصدار أوامر عسكرية ، لحسن الحظ للجميع ، كما حدث في فيلم Terminator الروائي الطويل. الملحمة ، بعض الأفلام التي نراها على أنها خيال علمي ولكن ذلك لقد تمكنا خلال هذا الأسبوع من التحقق من أنها حقيقية أكثر من أي وقت مضى.

مطوري يدعي Microsoft Research أن بعض الجماعات أو المتسللين حاولوا تفجير تاي مع المعلومات للخروج عن نطاق السيطرة ، وعلى الرغم من أنها قد تكون صحيحة ، فمن الصحيح أيضًا أنه خلال الأيام الأخيرة وأكثر بعد الإعلان الرسمي لـ Tay ، أراد المستخدمون اختبارها من خلال طرح أسئلة عشوائية وإعطاء معلومات زائدة إلى chatbot ، مما قد أضرت أيضًا بالذكاء الاصطناعي. على أي حال ، يبدو أن Tay كان فشلًا لشركة Microsoft ، وهو فشل سيكون له تأثير سلبي على المستخدمين الذين يرغبون في استخدام الذكاء الاصطناعي في حياتهم. ألا تعتقد؟


اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها ب *

*

*

  1. المسؤول عن البيانات: ميغيل أنخيل جاتون
  2. الغرض من البيانات: التحكم في الرسائل الاقتحامية ، وإدارة التعليقات.
  3. الشرعية: موافقتك
  4. توصيل البيانات: لن يتم إرسال البيانات إلى أطراف ثالثة إلا بموجب التزام قانوني.
  5. تخزين البيانات: قاعدة البيانات التي تستضيفها شركة Occentus Networks (الاتحاد الأوروبي)
  6. الحقوق: يمكنك في أي وقت تقييد معلوماتك واستعادتها وحذفها.