6月9號,在瑞士日內(nèi)瓦“人工智能造福全球人類峰會(huì)”上,一位口才出眾的智能機(jī)器少女—索菲亞成為了全場的焦點(diǎn)。當(dāng)被問及“當(dāng)機(jī)器人累嗎?因?yàn)槟銜r(shí)刻被人類控制”的時(shí)候,她竟然明確的告訴人類,被人類控制很難過。
當(dāng)然,機(jī)器人的回答是否被提前設(shè)計(jì)過,我們不得而知。但如果完全是臨場發(fā)揮,那這一問題似乎看起來并不是那么簡單了。就如青少年在不愿被家長左右思想的時(shí)候,他們會(huì)做出什么反應(yīng)?無疑是叛逆。那么,機(jī)器人不愿受人類控制的時(shí)候,將會(huì)是怎么樣的表現(xiàn)?
Matt Reynolds近期在New Scientist網(wǎng)站上發(fā)表了一篇名為“Robots will be more useful if they are made to lack confidence”的文章。文章介紹了最近的一項(xiàng)實(shí)驗(yàn),科學(xué)家把 AI 賦予充分的自信之后,AI 會(huì)認(rèn)為自己做的才是對的,進(jìn)而會(huì)阻止人類關(guān)掉自己。
加利福尼亞大學(xué)伯利克團(tuán)隊(duì)曾做過一個(gè)實(shí)驗(yàn),為了探索計(jì)算機(jī)的“自信”,設(shè)計(jì)了一個(gè)人與機(jī)器之間相互作用的數(shù)學(xué)模型,稱之為“開關(guān)游戲”。當(dāng)機(jī)器人被設(shè)定為高度“自信”模式時(shí),它們認(rèn)為它們所做的都是有用的,這會(huì)使得它們永遠(yuǎn)也不會(huì)讓人們把它關(guān)掉,因?yàn)樗鼈冊噲D最高效的完成任務(wù)。
其實(shí),機(jī)器人控制人類的傳言已經(jīng)流傳了很長一段時(shí)間。早在2015年Zeitgeist大會(huì)上,著名科學(xué)家史蒂芬·霍金(Stephen Hawking)就發(fā)出警告——未來100年內(nèi),人工智能將比人類更為聰明,機(jī)器人將控制人類。
霍金宣稱,現(xiàn)在不是擔(dān)心誰控制人工智能的時(shí)候,而應(yīng)該擔(dān)心人工智能是否能被完全控制住。未來100年中,人類將面臨比人類更聰明的人工智能的挑戰(zhàn)?;艚鸫饲耙苍l(fā)出警告,他稱人工智能可能終結(jié)人類。
此外,特斯拉CEO伊隆·馬斯克(Elon Musk)也曾與霍金共同發(fā)表過公開信,他們認(rèn)為人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機(jī)器無法保障安全,人類可能陷入黑暗的未來。
來自牛津大學(xué)的Marta Kwiatkowska認(rèn)為,那些拒絕讓人類關(guān)閉的自動(dòng)操作系統(tǒng)聽起來可能有些牽強(qiáng),但是這樣的考慮應(yīng)該是制造在人們身邊工作的這類機(jī)器人時(shí)所必須具備的。她同樣認(rèn)為,在建造無人駕駛汽車、消防機(jī)器人時(shí),都要求為人類的安全考慮,因此,對于這些倫理框架的決策宜早不宜遲。
但另一方面,人類也不必妄自菲薄,如今的智能機(jī)器人并非無所不能。就如日前剛剛擊敗圍棋高手的阿爾法狗而言,目前阿爾法狗只能在少量領(lǐng)域里逞能。據(jù)科學(xué)家分析,當(dāng)前市場上的大部分智能機(jī)器人智商只相當(dāng)于4歲的兒童,其“常識”比正常的成年人相差甚遠(yuǎn)。
美國科學(xué)家羅伯特·斯隆認(rèn)為,人工智能的難題之一,就是開發(fā)出一種能實(shí)時(shí)做出判斷的計(jì)算機(jī)軟件。盡管機(jī)器人在工作強(qiáng)度、運(yùn)算速度和記憶功能方面可以超越人類,但在意識、推理等方面都不可能超越人類。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。