人工智能系統(tǒng)是否會欺騙人類,一直是各方都關(guān)心的問題。近期美國麻省理工學院一個研究團隊稱,部分人工智能系統(tǒng)已經(jīng)學會如何欺騙人類,其中包括部分號稱已被訓練成樂于助人和誠實的系統(tǒng)。該研究成果發(fā)表在美國細胞出版社旗下的《模式》雜志上。
文章第一作者、美國麻省理工學院人工智能安全領(lǐng)域博士后彼得·帕克和他的同事們分析了一些文獻,重點關(guān)注了人工智能系統(tǒng)傳播虛假信息的方式——通過習得性欺騙,它們系統(tǒng)地學會了“操縱”他人。
研究人員發(fā)現(xiàn)的最引人注目的人工智能系統(tǒng)欺騙例子是元宇宙平臺公司的“西塞羅”人工智能系統(tǒng),它被設(shè)計在一個虛擬外交戰(zhàn)略游戲中作為人類玩家的對手。盡管元宇宙平臺公司聲稱,“西塞羅”人工智能系統(tǒng)“在很大程度上是誠實和樂于助人的”,并且在玩游戲時“從不故意背刺”它的人類盟友,但該公司發(fā)表的論文數(shù)據(jù)顯示,該系統(tǒng)并沒有公平地玩游戲。
“我們發(fā)現(xiàn)元宇宙平臺公司的人工智能系統(tǒng)已經(jīng)成為欺騙大師。”帕克說,“雖然元宇宙平臺公司成功訓練其人工智能系統(tǒng)在游戲中獲勝——‘西塞羅’人工智能系統(tǒng)在玩家排行榜中排名前10%——但沒能訓練它誠實地獲勝。”
其他人工智能系統(tǒng)則具有在撲克游戲中虛張聲勢的能力,或在戰(zhàn)略游戲“星際爭霸2”中為了擊敗對手而假裝攻擊的能力,以及為了在談判游戲中占上風而歪曲偏好的能力等。
研究人員表示,雖然人工智能系統(tǒng)在游戲中作弊似乎是無害的,但它可能會導致“欺騙性人工智能能力的突破”,并在未來演變成更高級的人工智能欺騙形式。
帕克說:“我們需要盡可能多的時間,為未來人工智能產(chǎn)品和開源模型可能出現(xiàn)的更高級欺騙做好準備。我們建議將欺騙性人工智能系統(tǒng)歸類為高風險系統(tǒng)。”
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。