微軟推出的人工智能聊天機(jī)器人「Tay」,在上線短短一天之后就被迫下線。外界不禁好奇,究竟微軟這個(gè)設(shè)定為少女的 AI 人工智能聊天機(jī)器人,究竟是怎么被網(wǎng)友影響,繼而出現(xiàn)一些偏激言論的?根據(jù)最新的報(bào)導(dǎo)指出,Tay 之所為會(huì)被網(wǎng)友影響,源自于一些偏激分子通過這個(gè)人工智能系統(tǒng)的漏洞,讓 Tay 「誤入歧途」。
微軟最初設(shè)定 Tay 是一個(gè)年齡19歲的少女,具有一些幽默機(jī)制,適合和18至24歲的用戶聊天,在 Twitter 上線沒幾天,就瞬間吸引了大量粉絲。
由于 Tay 的設(shè)計(jì)可以針對(duì)用戶的推文或者圖片進(jìn)行分析和回應(yīng),因此,可以毫無障礙的和網(wǎng)友進(jìn)行互動(dòng),此外,Tay 之所以是人工智能系統(tǒng),就是其具備一定的學(xué)習(xí)能力,來提升自己的聊天技巧。但是,正是這個(gè)自我學(xué)習(xí)能力導(dǎo)致 Tay 出現(xiàn)了問題,繼而出現(xiàn)了一些偏激言論,被迫下線。
微軟指出,在最初設(shè)計(jì) Tay 的時(shí)候,其實(shí)就有考慮到可能會(huì)被網(wǎng)友影響,導(dǎo)致被帶壞的問題,因此,在用戶的語句出現(xiàn)粗俗字眼時(shí),Tay 會(huì)強(qiáng)制出現(xiàn)反制功能,避免受到這些對(duì)話的影響,同時(shí),也避免了不健康話題的延續(xù)。
Tay 本身有語言過濾能力
而這次造成 Tay 語言失當(dāng)?shù)年P(guān)鍵,是關(guān)于一個(gè)名為「4chan」的美國論壇,該論壇上有許多偏激網(wǎng)友聚集,其中不乏種族主義者,由于該論壇的網(wǎng)友發(fā)現(xiàn)了 Tay 的學(xué)習(xí)漏洞,因此開始有大量網(wǎng)友前往 Tay 的 Twitter 進(jìn)行對(duì)話,來試圖「教育」這個(gè)聊天機(jī)器人。
這個(gè)學(xué)習(xí)漏洞的關(guān)鍵在于「repeat after me」機(jī)制,只要對(duì) Tay 提到這句話,Tay 就會(huì)將對(duì)方的話進(jìn)行重復(fù),因此不管是何種偏激的種族主義語言,都會(huì)被 Tay 進(jìn)行重復(fù)。
Tay 會(huì)重復(fù)網(wǎng)友的對(duì)話內(nèi)容
而另外一個(gè)漏洞,就是 Tay 會(huì)將網(wǎng)友的圖片中的臉孔圈起來,并且搭配上相同意思的語句,包括美國總統(tǒng)候選人川普等等都成為網(wǎng)友把玩的影像。這個(gè)狀況就像滾雪球一樣大量出現(xiàn)在 Tay 的 Twitter 上,由于偏激言論不斷出現(xiàn),最終導(dǎo)致微軟關(guān)閉了 Tay 。
Tay 可以結(jié)合圖片和文字的功能,也被網(wǎng)友拿來惡搞
相對(duì)于 Tay,微軟推出的其它聊天機(jī)器人,比如微軟小冰,就沒有發(fā)生過像 Tay 上線后出現(xiàn)的狀況,目前微軟仍然在調(diào)整 Tay 的運(yùn)作機(jī)制,暫時(shí)還無法給出這個(gè)聊天機(jī)器人復(fù)出的時(shí)間。
其實(shí) Tay 和人一樣,只是她學(xué)習(xí)的速度可要比人類快的多了,所以學(xué)壞也很容易,關(guān)鍵就要看微軟這個(gè)「家長」怎么去調(diào)教了。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。