會(huì)計(jì)和金融等強(qiáng)監(jiān)管行業(yè)的高管表示,數(shù)據(jù)科學(xué)家和非技術(shù)業(yè)務(wù)經(jīng)理都必須能理解算法決策背后的流程。這至關(guān)重要。這樣的理解在防范潛在道德違規(guī)和監(jiān)管違規(guī)方面可能會(huì)帶來(lái)深遠(yuǎn)影響,尤其考慮到企業(yè)級(jí)人工智能算法正變得越來(lái)越普遍。
畢馬威創(chuàng)新和企業(yè)解決方案部門負(fù)責(zé)智能自動(dòng)化、認(rèn)知和人工智能的高管維諾德·斯瓦米納桑(Vinodh Swaminathan)表示:“我認(rèn)為,除非具備這種解釋能力,否則人工智能在企業(yè)中的規(guī)模不可能超過(guò)數(shù)百個(gè)試點(diǎn)應(yīng)用。”
對(duì)人工智能的解釋問(wèn)題已經(jīng)促使IBM和谷歌等公司在云計(jì)算人工智能服務(wù)產(chǎn)品中引入透明度和道德倫理工具。
IBM商業(yè)價(jià)值研究所近期的一項(xiàng)研究調(diào)查了5000名企業(yè)高管。約60%的受訪者表示,他們關(guān)心如何解釋人工智能使用數(shù)據(jù)作出決策,以達(dá)到監(jiān)管和合規(guī)標(biāo)準(zhǔn)。這個(gè)比例較2016年時(shí)的29%大幅上升。
甚至對(duì)數(shù)據(jù)科學(xué)家和相關(guān)企業(yè)高管來(lái)說(shuō),人工智能的決策過(guò)程有時(shí)都是“黑盒”。在深度學(xué)習(xí)工具,例如用于模式識(shí)別的神經(jīng)網(wǎng)絡(luò)中尤其如此。這樣的神經(jīng)網(wǎng)絡(luò)試圖模擬人腦的運(yùn)轉(zhuǎn)方式。
盡管這些系統(tǒng)可以以前所未有的準(zhǔn)確率和速度得出結(jié)論,但外界并不總是非常清楚,計(jì)算網(wǎng)絡(luò)是如何做出具體的決策。
畢馬威內(nèi)部的數(shù)據(jù)科學(xué)家正在開(kāi)發(fā)自主的可解釋性工具,此外該公司也在利用IBM新的透明度工具。斯瓦米納桑表示,這樣做的目的是確保技術(shù)和業(yè)務(wù)兩方面的員工都能“打開(kāi)黑盒”,準(zhǔn)確地了解人工智能算法是如何做出結(jié)論的。
IBM上周發(fā)布了新的云計(jì)算人工智能工具,可以向用戶展示哪些主要因素影響了人工智能做出的建議。這些工具還可以實(shí)時(shí)分析人工智能決策,以識(shí)別固有偏見(jiàn),并推薦數(shù)據(jù)和方法來(lái)解決這些偏見(jiàn)。IBM負(fù)責(zé)認(rèn)知解決方案的高級(jí)副總裁大衛(wèi)·肯尼(David Kenny)表示,這些工具可以與IBM人工智能服務(wù),以及谷歌等其他云計(jì)算服務(wù)提供商的工具配合使用。
谷歌研究科學(xué)家和軟件工程師發(fā)布的博文則顯示,谷歌去年開(kāi)始為開(kāi)源的機(jī)器學(xué)習(xí)代碼發(fā)布新工具,“作為更廣泛研究的一部分,滿足對(duì)可解釋性的政策目標(biāo)”。谷歌本月早些時(shí)候發(fā)布的另一款人工智能工具允許非程序員檢查和調(diào)試機(jī)器學(xué)習(xí)系統(tǒng),以評(píng)估算法的公平性。
微軟正通過(guò)Azure來(lái)提供人工智能服務(wù)。該公司發(fā)言人表示,人工智能系統(tǒng)的設(shè)計(jì)需要有公平、透明和安全的保護(hù),從而確保信任。微軟正在這方面做出持續(xù)的努力。亞馬遜沒(méi)有對(duì)此問(wèn)題做出回應(yīng)。
來(lái)自強(qiáng)監(jiān)管金融行業(yè)的Capital One Financial Corp和美國(guó)銀行正在研究,如何解釋人工智能算法得出答案的背后原理。兩家公司都表示,目標(biāo)是利用人工智能來(lái)優(yōu)化對(duì)欺詐的監(jiān)測(cè),但首先它們需要了解這些算法是如何工作的。
分享到微信 ×
打開(kāi)微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁(yè)分享至朋友圈。