由于無(wú)人駕駛汽車的無(wú)人操作與各國(guó)現(xiàn)有道路交通法規(guī)抵觸,相應(yīng)立法和規(guī)范一直是其發(fā)展的重要前提條件。圖為無(wú)人駕駛汽車的探測(cè)方式模擬圖。
人工智能可以同聲傳譯、寫新聞稿、協(xié)助醫(yī)生看病、讓機(jī)器人臉識(shí)別的精度高于人類、甚至寫詩(shī)和戰(zhàn)勝圍棋世界冠軍,其應(yīng)用可謂“百花齊放”。
數(shù)據(jù)顯示,截至2017年6月,全球人工智能企業(yè)總數(shù)達(dá)到2542家,預(yù)計(jì)到2030年,人工智能將為世界經(jīng)濟(jì)貢獻(xiàn)15.7萬(wàn)億美元
在今年7月國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱《規(guī)劃》)中提出,到2020年,我國(guó)人工智能核心產(chǎn)業(yè)規(guī)模超過(guò)1500億元,帶動(dòng)相關(guān)產(chǎn)業(yè)規(guī)模超過(guò)1萬(wàn)億元。頂層設(shè)計(jì)相繼出臺(tái),巨頭發(fā)力布局生態(tài),資本市場(chǎng)熱情洋溢,細(xì)分行業(yè)獨(dú)角獸不斷涌現(xiàn),人工智能這片“花海”已不止“看上去很美”。
但“花海”之下仍有“荊棘”。市場(chǎng)研究機(jī)構(gòu)埃森哲大中華區(qū)信息技術(shù)服務(wù)總裁陳笑冰坦言:“人工智能也將會(huì)引發(fā)新的安全和倫理問(wèn)題,鑒于未來(lái)人工智能將深入生活,政府也需要切實(shí)為人工智能制定監(jiān)管規(guī)則,保證人工智能應(yīng)用合理合規(guī)發(fā)展。”《規(guī)劃》也同時(shí)提出:“人工智能發(fā)展的不確定性帶來(lái)新挑戰(zhàn)。人工智能是影響面廣的顛覆性技術(shù),可能帶來(lái)改變就業(yè)結(jié)構(gòu)、沖擊法律與社會(huì)倫理、侵犯?jìng)€(gè)人隱私、挑戰(zhàn)國(guó)際關(guān)系準(zhǔn)則等問(wèn)題,將對(duì)政府管理、經(jīng)濟(jì)安全和社會(huì)穩(wěn)定乃至全球治理產(chǎn)生深遠(yuǎn)影響。”
人工智能發(fā)展將面對(duì)怎樣的挑戰(zhàn)與風(fēng)險(xiǎn)?又應(yīng)該設(shè)立怎樣的“游戲規(guī)則”,讓新技術(shù)能夠與人類社會(huì)良性互動(dòng)?
監(jiān)管剛剛起步
人工智能不斷融入人類生活的同時(shí),也引發(fā)公眾對(duì)人工智能的憂慮。對(duì)此,專家表示,應(yīng)該建立監(jiān)管機(jī)構(gòu)來(lái)引導(dǎo)、促進(jìn)和保障人工智能的健康發(fā)展
此前有報(bào)道稱,“臉書”人工智能研究所中的兩個(gè)聊天機(jī)器人“失控”,發(fā)展出了人類無(wú)法理解的語(yǔ)言,“被迫關(guān)閉”引發(fā)了廣泛關(guān)注。盡管隨后被證明是一場(chǎng)“烏龍”,只是因?yàn)楣こ處熗浖尤?ldquo;使用英語(yǔ)語(yǔ)法”這一條件。
但對(duì)事實(shí)的夸大報(bào)道,也顯示出媒體和公眾對(duì)人工智能的憂慮。在北京市中盾律師事務(wù)所律師陳濤看來(lái),隨著人工智能深入融入生產(chǎn)和生活,必須以立法來(lái)對(duì)其安全性進(jìn)行監(jiān)管,給公眾吃下“定心丸”?;ヂ?lián)網(wǎng)汽車的特斯拉埃隆·馬斯克也表示,我們應(yīng)該警惕人工智能崛起的潛在風(fēng)險(xiǎn),并建立監(jiān)管機(jī)構(gòu)來(lái)引導(dǎo)這項(xiàng)強(qiáng)大技術(shù)的發(fā)展。
對(duì)人工智能進(jìn)行立法監(jiān)管,首先要解決人工智能使用中基本的安全問(wèn)題,以及使用者與服務(wù)提供者的責(zé)任界定問(wèn)題。以無(wú)人駕駛汽車為例,上路前,對(duì)其安全性如何全面評(píng)判?一旦無(wú)人駕駛汽車出現(xiàn)事故,如何判斷使用者、軟件提供商以及車輛制造商等多方主體的責(zé)任,如何在后續(xù)賠償和保險(xiǎn)理賠中進(jìn)行規(guī)定?實(shí)際上,立法監(jiān)管不僅降低風(fēng)險(xiǎn),也讓服務(wù)企業(yè)能夠“有據(jù)可依”,從而促進(jìn)和保障人工智能的健康發(fā)展。
從目前來(lái)看,各個(gè)國(guó)家的人工智能監(jiān)管都剛剛被提上日程。在美國(guó),2016年10月,總統(tǒng)行政辦公室和國(guó)家科技委員會(huì)發(fā)布了兩份重量級(jí)報(bào)告:《美國(guó)國(guó)家人工智能研究發(fā)展戰(zhàn)略規(guī)劃》與《為未來(lái)的人工智能做好準(zhǔn)備》,后者提出了發(fā)展人工智能的7項(xiàng)關(guān)鍵戰(zhàn)略,在第三條“社會(huì)影響戰(zhàn)略”中,提出“理解和確定人工智能在法律、倫理和社會(huì)領(lǐng)域中的影響”;在第四條“安全戰(zhàn)略”中,則提出“確保人工智能系統(tǒng)的安全和對(duì)公眾的隱私保護(hù)”。
在歐盟,2016年歐盟法律事務(wù)委員會(huì)向歐盟提交了《歐盟機(jī)器人民事法律規(guī)則》,針對(duì)基于人工智能控制的機(jī)器人,提出了使用的責(zé)任規(guī)則、倫理原則、對(duì)人類自身和財(cái)產(chǎn)的傷害賠償?shù)缺O(jiān)管原則。英國(guó)下議院科學(xué)技術(shù)委員會(huì)在今年4月表示,也將開(kāi)展關(guān)于人工智能監(jiān)管的研究。
在我國(guó),《規(guī)劃》中同樣提出,到2020年,“部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立”。其中特別提出,要“開(kāi)展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問(wèn)題研究,建立追溯和問(wèn)責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”,“重點(diǎn)圍繞自動(dòng)駕駛、服務(wù)機(jī)器人等應(yīng)用基礎(chǔ)較好的細(xì)分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ)”。
不過(guò),對(duì)人工智能的監(jiān)管也不能“閉門造車”。“立法的前提是了解人工智能的科學(xué)規(guī)律,需要充分準(zhǔn)備、摸索和積累,對(duì)技術(shù)進(jìn)步充分了解,同時(shí)考慮公眾的實(shí)際需求。”陳濤表示。
安全仍有漏洞
安全是人工智能面臨的巨大挑戰(zhàn)。這其中既包括在應(yīng)用層面的傳統(tǒng)黑客攻擊方式,也存在著對(duì)基礎(chǔ)設(shè)施方面進(jìn)行的數(shù)據(jù)庫(kù)、云服務(wù)等攻擊。但更關(guān)鍵的安全問(wèn)題是從最核心的算法層面發(fā)起攻擊
兩張人眼看起來(lái)一模一樣的熊貓圖片,一張被神經(jīng)網(wǎng)絡(luò)正確識(shí)別為“熊貓”,另外一張卻因?yàn)楸患由狭巳搜垭y以察覺(jué)的微小擾動(dòng),就被神經(jīng)網(wǎng)絡(luò)以99.3%的置信度識(shí)別為“長(zhǎng)臂猿”——這就是可以“愚弄”人工智能的對(duì)抗樣本,直接折射出人工智能所面對(duì)的安全問(wèn)題縮影。
專注于互聯(lián)網(wǎng)安全的極棒實(shí)驗(yàn)室總監(jiān)王海兵告訴《經(jīng)濟(jì)日?qǐng)?bào)》記者:“安全是人工智能面臨的巨大挑戰(zhàn)。”他表示,一方面,人工智能要面對(duì)傳統(tǒng)的黑客攻擊方式,比如在應(yīng)用層面,可以攻擊它的操作系統(tǒng)或者邏輯漏洞。“比如說(shuō),通過(guò)對(duì)智能門鎖的攻擊,就能實(shí)現(xiàn)任意人臉都可以通過(guò)門禁。”在人工智能的基礎(chǔ)設(shè)施方面,則可以對(duì)人工智能使用的數(shù)據(jù)庫(kù)、云服務(wù)等進(jìn)行攻擊,“比如說(shuō),機(jī)器視覺(jué)經(jīng)常調(diào)用的OpenCv庫(kù),機(jī)器學(xué)習(xí)用到的TensorFlow框架,人工智能的從業(yè)者可以直接調(diào)用這些服務(wù),但不幸的是,這些基礎(chǔ)設(shè)施同樣有漏洞。”王海兵說(shuō)。
然而,人工智能所面對(duì)的更關(guān)鍵安全問(wèn)題,正是諸如熊貓圖片這樣的對(duì)抗樣本。王海兵表示:“用對(duì)抗樣本攻擊人工智能,其實(shí)就是從最核心的算法層面來(lái)攻擊它。”
美國(guó)加州大學(xué)伯克利分校教授宋曉冬這樣介紹對(duì)抗樣本攻擊的危害:“比如,無(wú)人駕駛汽車根據(jù)交通標(biāo)示進(jìn)行決策。如果交通標(biāo)示是一個(gè)對(duì)抗樣本,那么人類可以完全不受干擾,但無(wú)人駕駛汽車卻可能將它完全識(shí)別成錯(cuò)誤信息,這將帶來(lái)嚴(yán)重后果。”實(shí)際上,美國(guó)伊利諾伊大學(xué)的一項(xiàng)測(cè)試已經(jīng)證明,自動(dòng)駕駛系統(tǒng)有可能被對(duì)抗樣本“蒙騙”。
“但公眾不用過(guò)于擔(dān)心,至少現(xiàn)在來(lái)看,針對(duì)自動(dòng)駕駛的對(duì)抗樣本對(duì)抗性很差。比如,它只能在0.5米的距離內(nèi)讓自動(dòng)駕駛系統(tǒng)錯(cuò)判,但自動(dòng)駕駛場(chǎng)景畢竟是逐漸接近交通標(biāo)識(shí)的。”王海兵也表示,“未來(lái)會(huì)不會(huì)有更完美的對(duì)抗樣本,仍是未知數(shù)”。
人工智能面對(duì)眾多安全問(wèn)題,對(duì)此,開(kāi)發(fā)者也在努力總結(jié)與之對(duì)抗的手段。智能家居生產(chǎn)廠商BroadLink高級(jí)副總裁康海洋表示:“我們會(huì)將多方數(shù)據(jù)融合和統(tǒng)一分析,以提升數(shù)據(jù)的可信程度,同時(shí)也在盡量讓整個(gè)系統(tǒng)變得更加透明。此外,我們還會(huì)及時(shí)銷毀所有能銷毀的數(shù)據(jù),減少用戶被攻擊的可能性。”
倫理尚待明確
告訴人工智能何為“正確”,正在成為當(dāng)務(wù)之急。如果不對(duì)其進(jìn)化方向和目標(biāo)形成共識(shí),人工智能的倫理規(guī)則將無(wú)法“落地”
如果保持前行,會(huì)撞上沿途的5位行人;如果避開(kāi)他們,就會(huì)撞上路邊的墻,車中的兩名乘客則可能有生命危險(xiǎn)。在這種情況下,指揮自動(dòng)駕駛的人工智能應(yīng)該如何選擇?英國(guó)倫敦瑪麗女王大學(xué)高級(jí)講師雅思密·艾登表示:“如果是人類駕駛員,大可以直接撞上行人,并表示‘是他們自己突然跳出來(lái)的’,但人工智能在道德上很難獲得這么奢侈的原諒。”
這只是人工智能所處倫理困境的冰山一角。今年以來(lái),麻省理工和哈佛大學(xué)聯(lián)合推出了人工智能倫理研究計(jì)劃,微軟和谷歌等巨頭也成立了人工智能倫理委員會(huì),告訴人工智能何為“正確”,正在成為當(dāng)務(wù)之急?!痘ヂ?lián)網(wǎng)進(jìn)化論》一書的作者、計(jì)算機(jī)博士劉鋒坦言:“盡管大方向上說(shuō),人工智能應(yīng)當(dāng)以造福人類為前提,但如果不對(duì)進(jìn)化方向和目標(biāo)形成共識(shí),人工智能的倫理規(guī)則將無(wú)法‘落地’。”
對(duì)于人工智能來(lái)說(shuō),“倫理正確”的核心是正確的“算法”。美國(guó)一些法院使用的一個(gè)人工智能犯罪風(fēng)險(xiǎn)評(píng)估算法COMPAS,被第三方機(jī)構(gòu)認(rèn)為對(duì)黑人造成了系統(tǒng)性歧視。業(yè)界因此懷疑,小眾人群有可能因?yàn)閭€(gè)體差異而承受“算法的歧視”。騰訊研究院研究員曹建峰表示,如果算法本身有問(wèn)題,一旦將算法應(yīng)用在犯罪評(píng)估、信用貸款、雇傭評(píng)估等關(guān)乎人身利益的場(chǎng)合,“因?yàn)樗且?guī)?;\(yùn)作的,并不是僅僅針對(duì)某一個(gè)人,可能影響具有類似情況的一群人或者種族的利益。規(guī)模性是很大的”。
此外,還有來(lái)自數(shù)據(jù)的風(fēng)險(xiǎn)。以色列歷史學(xué)家尤瓦爾·赫拉利表示,“人工智能技術(shù)的一個(gè)潛在結(jié)果是:促成數(shù)據(jù)集中到某一個(gè)地方,也進(jìn)而導(dǎo)致權(quán)力的集中”。比如,大量互聯(lián)網(wǎng)數(shù)據(jù)集中在少數(shù)幾家巨頭的手中,人工智能技術(shù)是否會(huì)因此遭到壟斷?“AlphaGo之父”哈薩比斯就曾表示:“我提醒諸位,必須正確地使用人工智能。”他告訴記者,“人工智能技術(shù)不能僅為少數(shù)公司和少數(shù)人所使用,必須共享”。
AlphaGo超越了人類幾千年來(lái)對(duì)圍棋的理解,但人類并非能完全理解AlphaGo為何會(huì)如此決策。從這一點(diǎn)來(lái)看,人工智能像個(gè)“魔盒”,這也讓透明性成為人工智能倫理中的重要組成部分。英國(guó)阿蘭圖靈研究所科研主管安德魯·布萊克表示,算法可問(wèn)責(zé)性的存在至關(guān)重要。“透明性規(guī)則應(yīng)被作為倫理道德準(zhǔn)則,編入算法之中,這樣人們才能更為清晰地認(rèn)知人工智能的社會(huì)影響,并在問(wèn)題發(fā)生之時(shí)能夠及時(shí)找出原因,調(diào)整策略。”
分享到微信 ×
打開(kāi)微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁(yè)分享至朋友圈。