聯(lián)合國的人工智能政策與監(jiān)管
近年來,自動化和智能化的機(jī)器人在現(xiàn)代社會的應(yīng)用越來越廣泛。先進(jìn)機(jī)器人的全球研發(fā)、部署安裝與使用,在引發(fā)的公眾討論的同時,也鼓勵著政府監(jiān)管的創(chuàng)新。例如,無人機(jī)不僅成為大眾消遣的工具,同時也在反恐戰(zhàn)爭發(fā)揮著重要作用。自動化機(jī)器正在取代工廠中體力勞動者,同時帶來了勞動力市場的革命。人形機(jī)器人不但被引進(jìn)了學(xué)校,還用來在日托機(jī)構(gòu)中照顧老年人;輔助機(jī)器人技術(shù)還廣泛應(yīng)用在醫(yī)療方案中,不管是在對自閉癥患者的心理治療還是在復(fù)雜重要的外科手術(shù)中,都能發(fā)現(xiàn)智能機(jī)器人的身影。機(jī)器人在家庭、工作、社會公共層面的廣泛存在,不僅帶給人類新的機(jī)會與挑戰(zhàn),同時還改變著人類的行為方式。
在聯(lián)合國內(nèi),雖然大部分關(guān)于自動化系統(tǒng)與人工智能的討論主要圍繞在自動化武器系統(tǒng),但是,我們看到聯(lián)合國正在對大眾化的人工智能系統(tǒng)應(yīng)用產(chǎn)生濃厚的興許。聯(lián)合國關(guān)于人工智能的若干附屬報告,呼吁世界各國采用全新的視角看待人工智能系統(tǒng)的未來監(jiān)管以及它們在機(jī)器人和機(jī)器人技術(shù)上的應(yīng)用。聯(lián)合國提供了一種考察基于機(jī)器人物理形態(tài)下的人工智能系統(tǒng)全新路徑,作為世界各國“國家中心”視角的有效補(bǔ)充。
世界科學(xué)知識與技術(shù)倫理委員會(COMEST)關(guān)于機(jī)器人倫理的初步草案報告
聯(lián)合國教科文組織(The United Nations Education, Scientificand Cultural Organization)與世界科學(xué)知識與技術(shù)倫理委員會(World Commission on the Ethics ofScientific Knowledge and Technology)最新聯(lián)合發(fā)布的報告(2016)主要討論了機(jī)器人的制造和使用促進(jìn)了人工智能的進(jìn)步,以及這些進(jìn)步所帶來的社會與倫理道德問題。
主要包括以下四個方面:
盡管人工智能機(jī)器人通常被認(rèn)為是人工智能系統(tǒng)的載體,事實上,人工智能機(jī)器人具有的身體移動功能和應(yīng)用以及機(jī)器學(xué)習(xí)能力使得它們成為了自動化、智能化的電子實體。同樣的,自動化、智能化機(jī)器人不僅能夠勝任復(fù)雜的決策過程,而且還能通過復(fù)雜的算法進(jìn)行實實在在的執(zhí)行活動。這些進(jìn)化出的新能力,反過來,導(dǎo)致出現(xiàn)了新的倫理和法律問題。具體來說,
1、自動化機(jī)器人的使用帶來的挑戰(zhàn)2016年歐洲議會發(fā)布的關(guān)于人工智能和機(jī)器人的報告,表達(dá)了其對于機(jī)器人將給人類帶來的風(fēng)險的關(guān)注,包括:安全、隱私、誠信尊嚴(yán);自主。(注釋2,第7頁)為了應(yīng)對這些風(fēng)險,歐洲議會討論了未來可能面對的道德挑戰(zhàn)以及應(yīng)對的監(jiān)管措施。聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會的報告(2015)列舉了以下可行的應(yīng)對措施,包括:
數(shù)據(jù)和隱私保護(hù);創(chuàng)新關(guān)于機(jī)器人與機(jī)器人制造者之間的責(zé)任分擔(dān)機(jī)制;預(yù)警機(jī)制的建立;對機(jī)器人在實際生活場景中的測試;在涉及人類的機(jī)器人研究中的知情同意權(quán);智能機(jī)器人的退出機(jī)制;為應(yīng)對自動機(jī)器人的廣泛應(yīng)用將給人類教育和就業(yè)帶來的巨大影響而建立全新的保險制度。
2、機(jī)器人技術(shù)與機(jī)械倫理學(xué)
關(guān)于機(jī)器人制造和部署的倫理道德問題,被視為“機(jī)械倫理學(xué)(roboethics)”,用來處理人們發(fā)明和分配機(jī)器人的倫理道德問題,而不僅僅是機(jī)器的倫理學(xué)。聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會的報告(2015)認(rèn)為,“機(jī)械倫理學(xué)”的大部分領(lǐng)域仍然處于沒有規(guī)范的狀態(tài),一方面是因為政府無法跟飛速的科技發(fā)展相同步,另一方面是因為“機(jī)械倫理學(xué)”的復(fù)雜性和其無法預(yù)知的本質(zhì)。
這一問題對于常常與公眾直接接觸的機(jī)器人商業(yè)開發(fā)者和制造者來說,尤其麻煩,因為他們同樣沒有既定的倫理準(zhǔn)則去遵守和執(zhí)行。聯(lián)合國在報告中記錄了,各個國家在尋找機(jī)器人倫理道德準(zhǔn)則的實踐中,所采用的不同做法。例如,韓國政府強(qiáng)制實施的機(jī)器人特許狀制度;日本對于機(jī)器人應(yīng)用部署問題制定的管理方針,包括建立中心數(shù)據(jù)基地來儲存機(jī)器人對于人類造成傷害的事故報告。
3、邁向新的責(zé)任分擔(dān)機(jī)制?
聯(lián)合國聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會的報告(2015)探討了一個復(fù)雜的問題,即在制造一個機(jī)器人需要不同的專家和部門合作的情況下,誰該為機(jī)器人的某次操作失靈負(fù)有責(zé)任。在科學(xué)技術(shù)不斷進(jìn)步和市場需求不斷增長,機(jī)器人的自由和自主性不斷增強(qiáng)的情況下,這個問題顯得尤為重要。報告認(rèn)為,關(guān)于機(jī)器人倫理的考慮,不應(yīng)該局限于某次事故或者失靈造成的人身損害,更應(yīng)該包括智能機(jī)器人帶來的心理傷害,如機(jī)器人侵犯人的隱私、人因為機(jī)器人的類人行為而對其過分依賴等。
報告提出了一個可行的解決辦法,即采取責(zé)任分擔(dān)的解決途徑,讓所有參與到機(jī)器人的發(fā)明、授權(quán)、和分配過程中的人來分擔(dān)責(zé)任。另一個解決辦法,就是讓智能機(jī)器人承擔(dān)責(zé)任,因為智能機(jī)器人確實擁有前所未有的自主性,并且擁有能夠獨立做出決策的能力。這兩種責(zé)任分擔(dān)方式展現(xiàn)了兩種極端,既無視了人類在科技發(fā)展過程中的固有偏見,也忽略了科技被居心叵測的使用者用做他途的可能性。因此,報告并沒有對機(jī)器人使用者應(yīng)該承擔(dān)的責(zé)任給予充分的考慮。
為了尋找可能的法律解決途徑,聯(lián)合國的報告援引了阿薩羅(Asaro)提出的結(jié)論,即機(jī)器人以及機(jī)器人技術(shù)造成的傷害,很大一部分由民法中產(chǎn)品責(zé)任的相關(guān)法律調(diào)整,因為機(jī)器人一般被視為通常意義上的科技產(chǎn)品。從這個角度看,機(jī)器人造成的傷害很大一部分被歸責(zé)于機(jī)器人制造者和零售商的“過失”、“產(chǎn)品警告的缺失”、“沒有盡到合理的注意義務(wù)”。(注釋1,第171頁)這種歸責(zé)制度,在阿薩羅(Asaro)看來,會隨著機(jī)器人越來越自動化及智能化,而逐漸被廢棄。然后一個新的平衡機(jī)器人制造者、銷售者和最終使用者的責(zé)任分擔(dān)機(jī)制會被逐漸創(chuàng)造出來。
4、決策可追溯的重要性
聯(lián)合國的報告認(rèn)為,在對機(jī)器人及機(jī)器人技術(shù)的倫理與法律監(jiān)管中,一個至關(guān)重要的要素是可追溯性,可追溯性的確立才能讓機(jī)器人的行為及決策全程處于監(jiān)管之下。可追溯性的重要性表現(xiàn)在,它讓人類的監(jiān)管機(jī)構(gòu)不僅能夠理解智能機(jī)器人的思考決策過程以及做出必要的修正,而且能夠在特定的調(diào)查和法律行動中發(fā)揮它本來應(yīng)有的作用。只有保證人類能夠全面追蹤機(jī)器人思考及決策的過程,我們才有可能在監(jiān)管機(jī)器人的過程中占據(jù)主動權(quán)或者事后進(jìn)行全面的追蹤調(diào)查。
決策制定者考慮的問題
聯(lián)合國報告在探討政府監(jiān)管政策的制定方法時,引用了來自聯(lián)合國經(jīng)濟(jì)與社會事務(wù)部(United Nations Department of Economic andSocial Affairs)的索爾陶·弗里德里希(Soltau Friedrich)的說法,認(rèn)為國家應(yīng)該關(guān)注于社會生活中不斷增長的半自動化與全自動化服務(wù)。
索爾陶認(rèn)為人類更熱衷于人與人之間的交流互動,即使計算機(jī)或者人工智能化的機(jī)器能夠更好的勝任這項交流互動,而且在某項交流需要敏感的社會感知力與同情心的情況下,尤其如此。所以,監(jiān)管者必須考慮科技發(fā)展的社會性限制因素。因為即使科技被發(fā)明出來并且得到應(yīng)用,但是并不一定意味著其就會被廣大的普通消費者所接受。
因此,索爾陶建議每個國家的政策制定者在將一般的機(jī)械自動化推進(jìn)至智能自主化時,需要考慮諸多問題的應(yīng)對措施,包括:
加強(qiáng)社會保障系統(tǒng);采取教育政策促進(jìn)計算機(jī)人才的培養(yǎng)滿足市場需求;制定政策促使勞動者從低技能行業(yè)向高技能行業(yè)流動;同時強(qiáng)化失業(yè)安全保障網(wǎng)應(yīng)對國際貿(mào)易條約對勞動者帶來的不利影響;制定政策提高在研究和開發(fā)領(lǐng)域的投資,促進(jìn)發(fā)展中國家的市場競爭與發(fā)達(dá)國家的創(chuàng)新。
聯(lián)合國的報告指出了智能機(jī)器人的核心問題,由于它們能夠執(zhí)行復(fù)雜的任務(wù),無疑將影響就業(yè)市場和人類消費與接受服務(wù)的方式。除了法律與倫理道德的政府監(jiān)管,公眾對于智能化機(jī)器人的某一項功能的接受與拒絕所帶來的社會、經(jīng)濟(jì)以及科技影響,也可能促進(jìn)或阻礙智能機(jī)器人未來的發(fā)展、擴(kuò)張及大規(guī)模應(yīng)用。正因如此,政府必須考慮公眾對于科技的需求和接受程度,才能在新興科技迅猛發(fā)展引起社會結(jié)構(gòu)劇烈變遷的過程中找準(zhǔn)自己的角色。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。