6月5日,知名人工智能公司現(xiàn)員工與前員工發(fā)表了一封公開信,警告該行業(yè)缺乏安全監(jiān)督,并呼吁加強對舉報人的保護。這封呼吁《對人工智能提出警告的權(quán)利》的公開信,是人工智能行業(yè)員工就人工智能的危險的一次公開發(fā)聲,11名現(xiàn)任與前OpenAI員工、兩名谷歌DeepMind員工在這封信上簽了名。
信中指出,“人工智能公司掌握著大量非公開信息,這些信息涉及其系統(tǒng)的能力和局限性、保護措施的充分性以及不同種類危害的風(fēng)險水平。然而,這些公司目前只有微弱的義務(wù)與政府分享部分信息,而沒有義務(wù)與民間社會分享信息。我們認為不能依靠它們?nèi)孔栽阜窒磉@些信息”。
OpenAI在一份聲明中為自己的做法進行了辯護,稱公司有舉報熱線等渠道來報告公司存在的問題,并且在有適當(dāng)?shù)谋U洗胧┲安粫l(fā)布新技術(shù)。谷歌未立即回應(yīng)置評請求。
OpenAI發(fā)言人表示,“我們?yōu)樘峁┳钣心芰妥?a href=http://www.yizongshi.cn/index.php?m=content&c=index&a=infolist2021&typeid=1&siteid=1&type=keyword&serachType=2&key=%E5%AE%89%E5%85%A8 style='color:#57A306' target='_blank'>安全的AI系統(tǒng)的記錄感到自豪,并相信我們在應(yīng)對風(fēng)險方面的科學(xué)方法。鑒于這項技術(shù)的重要性,我們同意進行嚴格的辯論是至關(guān)重要的,并且我們將繼續(xù)與政府、民間社會和世界其他社區(qū)接觸,”
對人工智能潛在危害的擔(dān)憂已經(jīng)存在了幾十年,但近年來的人工智能繁榮加劇了這些擔(dān)憂,使監(jiān)管機構(gòu)措手不及,難以跟上技術(shù)進步的步伐。盡管AI公司公開表示承諾安全開發(fā)技術(shù),但研究人員和員工警告稱,缺乏監(jiān)督可能會加劇現(xiàn)有的社會危害或創(chuàng)造全新的問題。
由現(xiàn)任和前AI公司員工簽署的這封信首次由《紐約時報》報道,呼吁加強對在先進AI公司工作并決定提出安全問題的員工的保護。它要求公司承諾四項關(guān)于透明度和問責(zé)制的原則,包括一項規(guī)定,即公司不得強迫員工簽署任何禁止公開AI風(fēng)險相關(guān)問題的非貶損協(xié)議,并建立一個機制,使員工能夠匿名向董事會成員分享擔(dān)憂。
“只要這些公司沒有有效的政府監(jiān)督,現(xiàn)任和前任員工是少數(shù)能對公眾負責(zé)的人之一,”信中寫道。“然而,嚴格的保密協(xié)議阻止我們表達我們的擔(dān)憂,除了對那些可能未能解決這些問題的公司。”
OpenAI等公司還采取了積極的策略,防止員工自由談?wù)撍麄兊墓ぷ鳌?jù)Vox上周報道,OpenAI讓離職員工簽署極其嚴格的保密文件,否則將失去所有已歸屬的權(quán)益。OpenAI首席執(zhí)行官Sam Altman在報道后道歉,稱他將改變離職程序。
在兩名OpenAI高層員工、聯(lián)合創(chuàng)始人Ilya Sutskever和關(guān)鍵安全研究員Jan Leike上月辭職后,這封公開信發(fā)布了。Leike在離職后聲稱OpenAI已放棄了安全文化,轉(zhuǎn)而追求“閃亮的產(chǎn)品”。
周二的公開信呼應(yīng)了Leike的一些聲明,稱公司沒有表現(xiàn)出對其運營透明的義務(wù)。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。