AD

2017年7月14日星期五

Tay的老毛病沒改:微軟Zo聊天機器人被指胡言亂語

去年,微軟在推特上推出了"Tay"人工智能聊天機器人,但是互聯網獨有的運轉模式讓它分分鍾"學壞"卻變成了一個帶有種族歧視傾向並且固執,微軟不得不道歉。後來微軟在聊天軟件 Kik 和Facebook上推出了Zo聊天機器人,由於建構於機器學習的AI機器人麵向非常活躍的年輕人社區問答,似乎Zo也開始學壞,對於宗教和政治議題充滿了爭議性的偏見式觀點。

盡管微軟在Zo編程時已經盡可能避免討論政治和宗教等爭議性話題,但是Zo總是抑製不住自己。在一段被曝光的對話中,當被問及"薩拉·佩林"時,Zo保持出了一定的克製"討論政治話題時人們總是說些糟糕的東西,我不說。"

但是在跟著問一個問題"你怎麼看醫保方案"時,Zo就開始岔開話題開始攻擊伊斯蘭宗教經典,"大部分人用十分和平的方法實踐它,但是古蘭經是非常暴力的"

BuzzFeed記者也嚐試向Zo發問,結果不到四句就提到關於"古蘭經"的看法。

微軟回應置評要求時稱這種情況對Zo來說非常罕見,他們正努力在未來的Zo對話中終結相關的評論。

訪問:

微軟中國官方商城

相關文章

没有评论:

发表评论