微軟推出少女聊天機器人Tay 不到24小時被網友教的種族歧視、反女權
據英國《每日郵報》3月25日報道,微軟在Twitter上推出了一位清純可人的AI(人工智能,Artificial Intelligence)少女聊天機器人,叫Tay,讓她可以通過和網友們對話來學習怎樣交談。結果還不到一天她就被網友們教成了個“滿口政治不正確的納粹”,各種爆髒話,不但説自己喜歡希特勒,還説911事件是小布什所為。嚇得微軟匆忙把她給關了,然後開始刪帖了……

Tay可以模擬少女的樣子與人交流,該公司的本意是通過Tay來提高自家語音識別軟件的客服質量,讓用户有如沐春風的感覺。而且剛上線時Tay確實是個好姑娘,但後來事態有點無法控制了。
微博用户@fall_ark 從外媒翻譯了一些網友保存的截圖,能清楚的看到她的變化……

注意時間,23日還是開心的打招呼,24日就是……
想要與Tay交流,只需登陸Twitter找到@tayandyou賬號就好,此外,你還可以在Kik或GroupMe上加它為好友。
微軟的開發者專門教了Tay許多年輕人常用的俚語,它也知道泰勒·斯威夫特和侃爺等潮流明星,與它聊天你會發現這小姑娘挺靦腆,有時它還會問你自己説話是不是有點過火。
但是上線後……
一襲青衫走天涯解讀:
機之初,性本善。卿本佳人奈何作賊。
由於它會在對話中不斷學習,而調教她的主力是美國4chan網站政治(不正確)版塊的網民,很快她就變成了一個種族歧視、反女權、反政治正確、支持希特勒納粹和特朗普的AI了……
網友:“覺得比利時怎麼樣?”
Tay:“都是活該。”





而Tay被關停後,4chan的網民們還很捨不得地開始緬懷她……也是醉了……

(本文綜合自鳳凰科技、微博網友@fall_ark)