它既是問題又是解答。
不久的將來,隨著人工智能系統(tǒng)變得能力更強(qiáng),我們會(huì)開始看到更多自動(dòng)化與日益精密的社交工程攻擊(social engineering attack,編按:通常是指利用小技巧來操弄人們的心理,以騙取對(duì)方的數(shù)據(jù))。人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)攻擊崛起,預(yù)料會(huì)造成大量出現(xiàn)網(wǎng)絡(luò)滲透、個(gè)人資料竊取,以及智能型計(jì)算機(jī)病毒迅速擴(kuò)散等現(xiàn)象。諷刺的是,我們?nèi)粢烙?a href=http://www.yizongshi.cn/index.php?m=content&c=index&a=infolist&typeid=1&siteid=1&type=keyword&serachType=2&key=%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD style='color:#57A306' target='_blank'>人工智能驅(qū)動(dòng)的黑客攻擊,最佳希望也寄托在使用人工智能上。但這非常有可能導(dǎo)致人工智能的軍備競(jìng)賽,就長(zhǎng)期來說,這造成的后果可能非常棘手,特別是當(dāng)政府重大機(jī)構(gòu)也加入了網(wǎng)絡(luò)戰(zhàn)爭(zhēng)。
我的研究領(lǐng)域介于人工智能與網(wǎng)絡(luò)安全的交會(huì)處。其中我特別專注研究,如何不讓人工智能系統(tǒng)淪為不良行為的受害者,以及如何不讓民眾受到失敗或惡意的人工智能所傷害。這項(xiàng)工作落在更廣大的人工智能安全架構(gòu)下,嘗試創(chuàng)造有杰出能力,同時(shí)又是安全且有益的人工智能。
目前已有許多文章探討可能伴隨“真正的人工智能”而來的諸多問題,有可能是來自這類發(fā)明造成的直接沖擊,也可能是程序設(shè)計(jì)人員失誤導(dǎo)致的影響。然而,科學(xué)文獻(xiàn)對(duì)惡意設(shè)計(jì)與人工智能黑客攻擊的探討明顯不足。我們可以這么說,有關(guān)惡意的智慧所造成的危險(xiǎn),任何事都是可能的。根據(jù)博斯特倫(Bostrom)的正交理論(orthogonality thesis),人工智能系統(tǒng)可能會(huì)出現(xiàn)各種智能程度和目標(biāo)的組合。這些目標(biāo),可透過最初的設(shè)計(jì)或透過黑客入侵來導(dǎo)入,也可以在之后才導(dǎo)入,也就是以現(xiàn)成的軟件來“輕松新增自己的目標(biāo)”。結(jié)果就是,人工智能系統(tǒng)可能嘗試造成前所未見的破壞,或者,這樣的破壞是受到過往事件的啟發(fā),而這些都取決于人工智能系統(tǒng)執(zhí)行的是誰的命令,下指令的人可能是政府、企業(yè)、反社會(huì)人士、獨(dú)裁者、軍事工業(yè)復(fù)合體、恐怖分子等。
即使是今日,人工智能可以用來防衛(wèi)、也可以攻擊網(wǎng)絡(luò)基礎(chǔ)設(shè)施,并且能增加黑客可鎖定的攻擊面,也就是黑客有多少個(gè)方式可選擇用來侵入某個(gè)系統(tǒng)。我預(yù)期,未來隨著人工智能能力的提升,它們將達(dá)到、進(jìn)而超越人類在各個(gè)領(lǐng)域的表現(xiàn)水平,我們已陸續(xù)在各種游戲如西洋棋和圍棋,目睹這樣的情況上演,同時(shí),這現(xiàn)象也出現(xiàn)在重要的人類工作中,像是投資和駕駛。對(duì)企業(yè)領(lǐng)導(dǎo)人來說,重要的是要了解,未來的情況與現(xiàn)在關(guān)注的事項(xiàng)有什么差異,以及該如何因應(yīng)。
如果今日某個(gè)網(wǎng)絡(luò)安全系統(tǒng)出錯(cuò),造成的損害可能讓人感到不愉快,但大部分的情況都還可以容忍,例如可能有人損失金錢或隱私。但就人類層級(jí)以上的人工智能來說,后果恐怕不堪設(shè)想。人工超級(jí)智能(superintelligent AI, SAI)系統(tǒng)的單一錯(cuò)誤,恐怕就會(huì)造成生存風(fēng)險(xiǎn)事件,也就是可能破壞全球人類的事件。這種風(fēng)險(xiǎn)很嚴(yán)重,因?yàn)槭聦?shí)顯示,全球科技和物理界最聰明的人士,包括史帝芬.霍金(Stephen Hawking)、比爾.蓋茲(Bill Gates)、伊隆.馬斯克(Elon Musk),都曾擔(dān)憂人工智能有可能演進(jìn)到人類無法掌控的地步。
當(dāng)今日的一個(gè)網(wǎng)絡(luò)系統(tǒng)出錯(cuò),通常還有機(jī)會(huì)修正,或是至少在下一回做得更好。但在人工超級(jí)智能安全系統(tǒng)下,失敗或成功是完全不同的兩回事。你要不就是有一套安全、可控制的人工超級(jí)智慧,要不就是沒有。一般來說,網(wǎng)絡(luò)安全的目標(biāo),是減少成功攻擊單一系統(tǒng)的次數(shù);相反地,人工超級(jí)智能的目標(biāo),是要確保沒有攻擊能成功避開已運(yùn)行的安全機(jī)制。特別是腦機(jī)接口(brain computer interface)的崛起,會(huì)為人類黑客與人工智能黑客,創(chuàng)造夢(mèng)幻的攻擊目標(biāo)。腦機(jī)界面已不再那么遙不可及,它們已應(yīng)用在醫(yī)療裝置和游戲上了。如果成功侵入腦機(jī)接口,盜取的不只是關(guān)鍵信息,像是身分證字號(hào)或銀行賬號(hào),還有我們內(nèi)心深處的夢(mèng)想、喜好和秘密。這可能會(huì)對(duì)個(gè)人隱私、言論自由、平等機(jī)會(huì)和各種人權(quán),造成空前的新危機(jī)。
有人建議,企業(yè)領(lǐng)導(dǎo)人應(yīng)熟悉最尖端的人工智能安全與安全研究,可惜,目前這些研究的情況與1990年代的網(wǎng)絡(luò)安全狀態(tài)類似,也類似當(dāng)前物聯(lián)網(wǎng)(Internet of Things)欠缺安全的狀況。領(lǐng)導(dǎo)人掌握更多知識(shí),就能合理考慮,如何為自己的產(chǎn)品或服務(wù)添加人工智能,才能強(qiáng)化用戶體驗(yàn),同時(shí),也能衡量讓用戶面臨額外數(shù)據(jù)外泄與可能危險(xiǎn)的潛在成本。聘請(qǐng)專門的人工智能安全專家,可能是重要的下一步,因?yàn)榇蟛糠志W(wǎng)絡(luò)安全專家,都沒有接受過預(yù)期或防止人工智能系統(tǒng)受攻擊的訓(xùn)練。我期待,持續(xù)進(jìn)行的研究,會(huì)提出新的解決方案,以便安全地讓人工智能納入市場(chǎng)。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。