人工智能時(shí)代已經(jīng)到來,相關(guān)法律政策的制定與實(shí)施已是刻不容緩。本文分別從人工智能應(yīng)用中面臨的法律政策問題、各國對(duì)人工智能法律政策問題的探索、對(duì)人工智能進(jìn)行法律政策保護(hù)的思考這三個(gè)方面進(jìn)行分析。
近年來,人工智能獲得了各界的高度關(guān)注和快速發(fā)展,其在智力游戲、自動(dòng)駕駛、語音和分別從圖像識(shí)別、翻譯等諸多領(lǐng)域取得重大突破,谷歌、臉書、微軟等科技公司收購人工智能創(chuàng)業(yè)公司的速度已經(jīng)快趕上這些公司的創(chuàng)立速度。各國政府(比如美國、英國等)以及一些社會(huì)公共機(jī)構(gòu)(比如UN、IEEE等)也開始積極關(guān)注人工智能的法律、倫理、社會(huì)、經(jīng)濟(jì)等影響,密集出臺(tái)戰(zhàn)略文件和報(bào)告。
借鑒發(fā)達(dá)國家和國際社會(huì)已有經(jīng)驗(yàn)和案例,對(duì)中國企業(yè)提前預(yù)判后續(xù)可能面臨的前瞻性法律政策問題有所裨益。
一、人工智能應(yīng)用中面臨的法律政策問題
1、圖像識(shí)別領(lǐng)域
圖像識(shí)別領(lǐng)域面臨的用戶隱私保護(hù)和種族歧視等問題突出。
一方面,圖像識(shí)別軟件的不包容和歧視的問題已經(jīng)出現(xiàn),比如,谷歌公司的圖片軟件曾錯(cuò)將黑人的照片標(biāo)記為“大猩猩”,F(xiàn)lickr的自動(dòng)標(biāo)記系統(tǒng)亦曾錯(cuò)將黑人的照片標(biāo)記為“猿猴”或者“動(dòng)物”。
另一方面,社交媒體的圖片標(biāo)簽或者自動(dòng)標(biāo)記功能可能引發(fā)關(guān)于用戶隱私的爭議,比如,F(xiàn)acebook的圖片標(biāo)記功能利用人臉識(shí)別技術(shù)就圖片中的人像向用戶進(jìn)行“標(biāo)簽推薦”,這被認(rèn)為是在未獲用戶明確同意的情況下收集用戶的“臉紋”等生物識(shí)別信息,違反了美國伊利諾伊州的《生物識(shí)別信息隱私法》,而被用戶提起隱私侵權(quán)訴訟,谷歌等企業(yè)的類似技術(shù)也引發(fā)了類似訴訟。因此,在歐盟、加拿大等地區(qū),F(xiàn)acebook不得不暫停這項(xiàng)技術(shù)。
2、語音識(shí)別領(lǐng)域
語音識(shí)別領(lǐng)域也已經(jīng)出現(xiàn)性別和種族歧視、倫理以及聲音權(quán)保護(hù)等問題?;谧匀徽Z言處理的語音識(shí)別正在快速發(fā)展,如亞馬遜的Alexa、蘋果的Siri、微軟的Cortana等。但這一領(lǐng)域卻被詬病為已經(jīng)產(chǎn)生了嚴(yán)重的性別歧視問題。
比如,2016年3月23日,微軟公司的人工智能聊天機(jī)器人Tay上線。出乎意料的是,Tay一開始和網(wǎng)民聊天,就被“教壞”了,成為了一個(gè)集反猶太人、性別歧視、種族歧視等于一身的“不良少女”。于是,上線不到一天,Tay就被微軟公司緊急下線了。類似的倫理問題已經(jīng)引起諸多關(guān)注,批判硅谷正在將人類社會(huì)既有的種族歧視、性別歧視等問題帶入機(jī)器學(xué)習(xí)的聲音逐漸增多。
同時(shí),在模擬人聲方面,也出現(xiàn)聲音是否受法律保護(hù)以及怎樣保護(hù)的問題。
比如,已經(jīng)出現(xiàn)使用名人聲音進(jìn)行人工智能語音訓(xùn)練從而實(shí)現(xiàn)智能模仿他人聲音效果的業(yè)務(wù)形態(tài)。
在國內(nèi),對(duì)于這種所謂的“聲音權(quán)”并無明文規(guī)定,相關(guān)學(xué)者認(rèn)為可以通過設(shè)立肖像聲音權(quán)、聲音語言權(quán)、形象權(quán)、獨(dú)立聲音權(quán)等方面進(jìn)行保護(hù),但尚未達(dá)成一致。
在國外,對(duì)聲音進(jìn)行明確法律保護(hù)的國家或地區(qū)也較少,比如,澳門、捷克斯洛伐克和美國加利福尼亞州等為數(shù)不多的國家或地區(qū),美國也有將其作為商品化權(quán)進(jìn)行保護(hù)的觀點(diǎn),相關(guān)的立法、司法動(dòng)態(tài)后續(xù)還需要繼續(xù)保持關(guān)注。
3、廣告投放領(lǐng)域
廣告投放領(lǐng)域面臨的問題主要集中在用戶數(shù)據(jù)的收集和使用、算法歧視等方面。算法歧視早已引起人們關(guān)注,在互聯(lián)網(wǎng)廣告領(lǐng)域同樣存在這一問題。
比如,研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告。再比如,在谷歌的廣告服務(wù)中,男性比女性看到更多高薪招聘廣告,當(dāng)然,這可能和在線廣告市場中固有的歧視問題有關(guān),廣告主可能更希望將特定廣告投放給特定人群。
此外,基于用戶自動(dòng)畫像和自動(dòng)化決策的的精準(zhǔn)廣告投放正日益流行(自動(dòng)化決策在信貸、保險(xiǎn)等領(lǐng)域的應(yīng)用也在加強(qiáng)),其中涉及用戶數(shù)據(jù)的收集使用、對(duì)用戶保持透明以及歧視等問題。
二、各國對(duì)人工智能法律政策問題的探索
(一)在知識(shí)產(chǎn)權(quán)方面
人工智能中新產(chǎn)生作品的權(quán)利歸屬問題較為突出。
歐盟法律事務(wù)委員會(huì)建議歐盟委員會(huì)就與軟硬件標(biāo)準(zhǔn)、代碼有關(guān)的知識(shí)產(chǎn)權(quán)提出一個(gè)更平衡的路徑,以便在保護(hù)創(chuàng)新的同時(shí),也促進(jìn)創(chuàng)新。同時(shí),對(duì)于計(jì)算機(jī)或者機(jī)器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的“獨(dú)立智力創(chuàng)造”的標(biāo)準(zhǔn),以便可以明確版權(quán)歸屬。
此外,國際標(biāo)準(zhǔn)化組織IEEE在其標(biāo)準(zhǔn)文件草案《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》中也提出,應(yīng)對(duì)知識(shí)產(chǎn)權(quán)領(lǐng)域的法規(guī)進(jìn)行審查,以便明確是否需對(duì)AI參與創(chuàng)作的作品的保護(hù)作出修訂,其中基本原則應(yīng)為,如果AI依靠人類的交互而實(shí)現(xiàn)新內(nèi)容或者發(fā)明創(chuàng)造,那么使用AI的人應(yīng)作為作者或發(fā)明者,受到與未借助AI進(jìn)行的創(chuàng)作和發(fā)明相同的知識(shí)產(chǎn)權(quán)保護(hù)。
(二)在隱私和數(shù)據(jù)保護(hù)方面
還應(yīng)該有更多的標(biāo)準(zhǔn)、規(guī)范。
在人工智能領(lǐng)域,歐盟認(rèn)為除了應(yīng)該按照必要性原則和比例原則等保護(hù)隱私和數(shù)據(jù)之外,
在針對(duì)人工智能和機(jī)器人制定政策時(shí),應(yīng)當(dāng)進(jìn)一步完善通過設(shè)計(jì)保護(hù)隱私(privacy by design)、默認(rèn)保護(hù)隱私(privacy by default)、知情同意、加密等概念的標(biāo)準(zhǔn)。當(dāng)個(gè)人數(shù)據(jù)成為“流通物”使用時(shí),在任何情況下都不得規(guī)避涉及隱私和數(shù)據(jù)保護(hù)的基本原則。
歐盟法律事務(wù)委員會(huì)建議,
其實(shí),在2016年通過的《一般數(shù)據(jù)保護(hù)條例》(簡稱GDPR)中,歐盟就加強(qiáng)了個(gè)人隱私和數(shù)據(jù)保護(hù),其中關(guān)于用戶畫像等自動(dòng)化決策的規(guī)定將對(duì)基于大數(shù)據(jù)的互聯(lián)網(wǎng)行業(yè)實(shí)踐產(chǎn)生重大影響,即用戶有權(quán)拒絕企業(yè)對(duì)其進(jìn)行畫像等自動(dòng)化決策,而且用于用戶畫像的數(shù)據(jù)不能包括人種或者種族起源、政治意見、宗教或者哲學(xué)信仰、商會(huì)會(huì)員、基因、生物特征、健康狀況、性生活等特殊類別的個(gè)人數(shù)據(jù)。這將對(duì)個(gè)性化服務(wù)的提供產(chǎn)生重大影響。
(三)在標(biāo)準(zhǔn)化建設(shè)方面
國際社會(huì)將推進(jìn)標(biāo)準(zhǔn)化工作作為人工智能發(fā)展的重要抓手。
歐盟法律事務(wù)委員會(huì)建議歐盟委員會(huì)應(yīng)繼續(xù)致力于技術(shù)標(biāo)準(zhǔn)的國際統(tǒng)一,歐盟層面,需要建立相應(yīng)的標(biāo)準(zhǔn)化框架,以免造成歐盟各成員國之間標(biāo)準(zhǔn)的不統(tǒng)一以及歐盟內(nèi)部市場的分裂。
IEEE于去年年底出臺(tái)的指南文件中也呼吁各方形成一系列標(biāo)準(zhǔn),用于指導(dǎo)人工智能研發(fā)和應(yīng)用。
此外,
也要求加強(qiáng)并統(tǒng)一技術(shù)、數(shù)據(jù)使用、安全等標(biāo)準(zhǔn)建設(shè),避免造成碎片化的問題,影響人工智能研發(fā)和應(yīng)用。
美國在去年出臺(tái)的涉及人工智能、自動(dòng)駕駛等的多份報(bào)告和政策如《聯(lián)邦自動(dòng)駕駛汽車政策》《美國國家人工智能研發(fā)戰(zhàn)略計(jì)劃》《為人工智能的未來做好準(zhǔn)備》等中,
(四)其他法律政策方面
1、算法決策公開透明化
實(shí)現(xiàn)算法決策的透明性和公平性是國際社會(huì)的一個(gè)主流關(guān)注點(diǎn)?;跈C(jī)器學(xué)習(xí)的自主或者自動(dòng)化的決策系統(tǒng)日益被廣泛應(yīng)用在推薦引擎、精準(zhǔn)廣告、信貸、保險(xiǎn)等諸多領(lǐng)域,甚至政府部門也利用自動(dòng)化決策來處理給犯罪人定罪量刑等公共事務(wù),然而算法模型的設(shè)計(jì)都是編程人員的主觀選擇和判斷,所使用的數(shù)據(jù)也可能是不相關(guān)和不準(zhǔn)確的,這就可能導(dǎo)致自動(dòng)化決策的結(jié)果影響個(gè)人權(quán)益,或者對(duì)某些群體造成歧視。
確保算法及其決策可以有效接受中立第三方或者監(jiān)管機(jī)構(gòu)的審查,實(shí)現(xiàn)算法決策的透明性和公平性,是國際社會(huì)的一個(gè)主流關(guān)注點(diǎn)。
IEEE提出,應(yīng)當(dāng)為個(gè)人提供異議和救濟(jì)的渠道。歐盟的GDPR則賦予個(gè)人反對(duì)自動(dòng)化決策的權(quán)利,意味著算法決策需要透明化。
2、防止歧視和偏見
國際社會(huì)日益重視在人工智能領(lǐng)域?qū)?shù)據(jù)的收集和分析進(jìn)行規(guī)范,以防止歧視或偏見。
美國聯(lián)邦貿(mào)易委員會(huì)(FTC)在2016年1月發(fā)布的《大數(shù)據(jù):包容性工具抑或排斥性工具?》(Big Data: a Tool for Inclusion or Exclusion?)特別關(guān)注大數(shù)據(jù)中的歧視和偏見問題,對(duì)于消費(fèi)者,一方面需要確保公平機(jī)會(huì)法律得到有效執(zhí)行,另一方面防止大數(shù)據(jù)分析中采取歧視等不公平行為;對(duì)于企業(yè),F(xiàn)TC建議企業(yè)考察以下問題:數(shù)據(jù)集是否具有代表性,所使用的數(shù)據(jù)模型是否會(huì)導(dǎo)致偏見,基于大數(shù)據(jù)進(jìn)行預(yù)測(cè)的準(zhǔn)確性如何,對(duì)大數(shù)據(jù)的依賴是否會(huì)導(dǎo)致道德或者公平性問題。
其實(shí),早在2014年5月,美國白宮就發(fā)布了《大數(shù)據(jù):抓住機(jī)遇,保存價(jià)值》中呼吁重視自動(dòng)化決策中的歧視問題,要求民權(quán)和消費(fèi)者保護(hù)機(jī)構(gòu)及FTC等政府機(jī)構(gòu)加強(qiáng)專業(yè)知識(shí),調(diào)查并解決潛在的歧視問題。
三、對(duì)人工智能進(jìn)行法律政策保護(hù)的思考
(一)知識(shí)產(chǎn)權(quán)保護(hù)方面
國內(nèi)企業(yè)應(yīng)該利用既有專利規(guī)則、版權(quán)規(guī)則、職務(wù)發(fā)明等知識(shí)產(chǎn)權(quán)規(guī)則,強(qiáng)化對(duì)AI的全方位知識(shí)產(chǎn)權(quán)保護(hù)。
版權(quán)保護(hù)方面:
國際標(biāo)準(zhǔn)化組織IEEE在其標(biāo)準(zhǔn)文件草案中提出的版權(quán)保護(hù)基本原則目前也為國內(nèi)現(xiàn)行法律認(rèn)可,即如果AI依靠人類的交互而實(shí)現(xiàn)新內(nèi)容或者發(fā)明創(chuàng)造,那么使用AI的人應(yīng)作為作者或發(fā)明者,受到與未借助AI進(jìn)行的創(chuàng)作和發(fā)明相同的知識(shí)產(chǎn)權(quán)保護(hù)。因此,相關(guān)AI的原代碼產(chǎn)生后,應(yīng)及時(shí)通過軟件著作權(quán)登記等措施進(jìn)行證據(jù)固化。
專利技術(shù)和商業(yè)秘密保護(hù)方面:
AI開發(fā)過程中涉及到的專利技術(shù),應(yīng)當(dāng)經(jīng)過專業(yè)技術(shù)人員評(píng)估,如果可保密性強(qiáng),被反向工程的可能性不大,則通過商業(yè)秘密進(jìn)行保密而保護(hù),如果被反向工程或者披露的可能性較大,則應(yīng)當(dāng)及時(shí)進(jìn)行專利申請(qǐng),以公開換取獨(dú)占性保護(hù)。
商標(biāo)保護(hù)方面:
重點(diǎn)AI產(chǎn)品應(yīng)及時(shí)進(jìn)行產(chǎn)品名稱和標(biāo)志的商標(biāo)申請(qǐng)和保護(hù),使產(chǎn)品能夠在市場上獲得認(rèn)知,擴(kuò)大產(chǎn)品品牌影響力。
(二)隱私和數(shù)據(jù)安全方面
在提供服務(wù)的過程中收集、使用用戶個(gè)人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則。不得收集與提供服務(wù)所必需以外的用戶個(gè)人信息或者將信息用于提供服務(wù)之外的目的,不得以欺騙、誤導(dǎo)或者強(qiáng)迫等方式收集、使用用戶個(gè)人信息。比如,在圖像識(shí)別、語音識(shí)別等領(lǐng)域,對(duì)于機(jī)器深度學(xué)習(xí)的原始素材、語料等的收集、分析、使用,需要事先經(jīng)過用戶的知情同意。
同時(shí),積極履行信息安全保障義務(wù)。在對(duì)用戶數(shù)據(jù)收集、使用過程中的用戶個(gè)人信息應(yīng)當(dāng)嚴(yán)格保密,不得泄露、篡改或者毀損,不得出售或者非法向他人提供。對(duì)用戶數(shù)據(jù)的輸出和使用,應(yīng)當(dāng)做到匿名華、假名化,并做到脫密處理。
(三)標(biāo)準(zhǔn)化建設(shè)方面
技術(shù)專利化、專利標(biāo)準(zhǔn)化、標(biāo)準(zhǔn)國際化。統(tǒng)一技術(shù)、數(shù)據(jù)使用、安全等標(biāo)準(zhǔn)化建設(shè)將會(huì)是未來人工智能技術(shù)標(biāo)準(zhǔn)化建設(shè)的主要趨勢(shì)。因此,積極參與標(biāo)準(zhǔn)化討論和提案,在“技術(shù)專利化,專利標(biāo)準(zhǔn)化,標(biāo)準(zhǔn)國際化”方面做足功夫,努力將企業(yè)的技術(shù)專利加入標(biāo)準(zhǔn)中,并成為行業(yè)國際通用標(biāo)準(zhǔn)。
(四)防歧視方面
如前所述,目前人工智能,在發(fā)展過程中可能由于技術(shù)不完善、算法不健全或算法不公開、不透明等原因,已經(jīng)面臨種族歧視、性別歧視等問題,并由此產(chǎn)生了很多負(fù)面后果。因此,對(duì)于中國企業(yè)來說,也應(yīng)該提前思考,如何通過技術(shù)提高算法完善和算法公開化、透明化等措施,來避免類似問題的發(fā)生。
四、結(jié)語
人工智能時(shí)代的未來已來,關(guān)于人工智能的法律政策問題的討論、探索也才剛剛開始,未來關(guān)于人工智能的法律政策也必將超越現(xiàn)有的法律政策體系、規(guī)則,國內(nèi)企業(yè)對(duì)此也應(yīng)時(shí)刻關(guān)注,并根據(jù)立法、司法等趨勢(shì)做出及時(shí)回應(yīng)
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。