For noen dager siden møtte vi den første Microsoft chatbot og dessverre Bill Gates 'selskap har måttet trekke seg tilbake denne chatboten fordi de siste meldingene og tweetsene som Tay ga ut var til fordel for Hitlet og nazistbevegelsen.
Microsoft har ikke bare fjernet Tay fra Internett, spesielt fra Twitter, men har også beklaget denne gaffe som sier at Tay hadde bestått stresstestene med en viss suksess, men hadde aldri trodd at bombingen av tweets kunne gjøre chatboten kom ut til fordel for Hitler og nazistbevegelsen. Og selv om problemet er trukket tilbake og funnet, setter Microsoft fortsatt ikke den berømte chatboten i omløp.
Tay orket ikke presset og begynte å kringkaste pro-nazistiske meldinger via Twitter
Heldigvis snakker vi om en chatbot, en kunstig intelligens som bare kan lage ord og vise sårende bilder, men som aldri har vært i stand til å kontrollere noen form for våpen, og den kan heller ikke gi militære ordrer, heldigvis for alle, mer eller mindre som det skjedde i Terminator spillefilmsaga, noen filmer som vi ser på som science fiction, men det vi har vært i stand til å bekrefte i løpet av denne uken at de er mer reelle enn noen gang.
Utviklerne av Microsoft Research hevder at en gruppe eller hackere har prøvd å bombe Tay med informasjon for å komme ut av kontroll, og selv om det kan være sant, er det også sant at i løpet av de siste dagene og mer etter Tays offisielle kunngjøring, har brukerne ønsket å teste det ved å stille tilfeldige spørsmål og gi overdreven informasjon til chatboten, noe som kan har også skadet kunstig intelligens. I alle fall ser det ut til at Tay har vært en fiasko fra Microsoft, en feil som vil ha en negativ innvirkning på brukere som ønsker å bruke AI i livet Tror du ikke?