隨著人工智能的發(fā)展,越來越多的科學(xué)家及科技精英開始擔(dān)憂人工智能會給人類帶來各種難以預(yù)計的影響,甚至可能是災(zāi)難。
近日,特斯拉總裁兼SpaceX公司CEO埃隆·馬斯克在推特上轉(zhuǎn)發(fā)了一項研究,研究聲稱人工智能在2060年前會在所有任務(wù)的完成上超越人類。而馬斯克認(rèn)為這種轉(zhuǎn)變會比科學(xué)家所認(rèn)為的出現(xiàn)得更早,因為人工智能的水準(zhǔn)正加速發(fā)展。他警告道,人工智能超越人類的那一天比最近研究所預(yù)計的要早幾十年,這是因為人工智能的發(fā)展是呈指數(shù)性上升的,而不是線性上升的。
近幾年,馬斯克對人工智能的發(fā)展明確地表明了自己的態(tài)度。盡管他對促進這一科技的發(fā)展做出了巨大貢獻(xiàn),馬斯克一直以來都警告說人類所建造的機器有一天可能會導(dǎo)致自身的毀滅。
除了馬斯克外,著名物理學(xué)家史蒂芬·霍金對于人工智能危機也不斷提出警告。今年3月8日,史蒂芬·霍金向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進一步上升?;艚鹁?,未來人工智能可能會以生化戰(zhàn)爭或核子戰(zhàn)爭的方式摧毀人類。
其實,早在2015年9月,霍金就發(fā)出過類似的警告:聰明能干的人工智能會讓人類滅亡?;艚鸨硎荆阂粋€超級聰明的人工智能可以非常好地實現(xiàn)它的目標(biāo),如果這些目標(biāo)沒有與我們?nèi)祟愐恢?,我們?nèi)祟惥吐闊┝恕?/p>
而在GMIC 2017首日的領(lǐng)袖峰會上,史蒂芬·霍金再次談到了他對于當(dāng)前人工智能技術(shù)發(fā)展的認(rèn)識,他說“人工智能的成功有可能是人類文明史上最大的事件, 但是人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險。”
即使把人工智能所帶來的影響回歸現(xiàn)實,放眼于短期未來,就業(yè)也成為業(yè)內(nèi)最主要的擔(dān)憂。Microsoft和Facebook是美國乃至全球都非常成功的科技公司,最近兩位公司創(chuàng)始人Bill Gates和Mark Zuckerberg對未來美國的就業(yè)發(fā)出了同樣的擔(dān)憂。
扎克伯格在哈佛的演講中說到:“我們這一代人是非常艱難的,未來將會有數(shù)以百萬計的工作被人工智能取代,比如無人駕駛汽車、卡車等等。我們父母畢業(yè)時,他們的目標(biāo)是找到工作,但是今天,人工智能導(dǎo)致許多工作小時,社區(qū)成員之間的關(guān)系也漸漸變淡,許多年輕人感到沮喪。”
此前早些時候,比爾·蓋茨也表達(dá)了同樣的擔(dān)憂。蓋茨在Twitter連發(fā)了14條推文,給將要畢業(yè)的大學(xué)生一系列建議。主要強調(diào),未來人工智能的影響將覆蓋社會的方方面面。建議畢業(yè)生從事和AI相關(guān)的職業(yè)。
根據(jù)Forrester Research的數(shù)據(jù),未來10年機器人將取代1500萬工作崗位,相當(dāng)于美國就業(yè)市場的10%。正如蓋茨所說的,現(xiàn)在的人工智能和自動化領(lǐng)域就像是上世紀(jì)80年代的電腦,10年前的社交媒體。
對于人工智能和可能給人類帶來的“末日”危機,計算機專家斯圖爾特·拉塞爾警告稱,人類制造出的事物(人工智能)將可能進化得比人類更聰明。拉塞爾建議,人類必須要在機器人內(nèi)部預(yù)置不確定性,以防備它們的背叛。
拉塞爾解釋說,雖然他本人也支持人工智能的研究,但總感覺制造出一種比自身物種更為聰明的事物并不一定是好事情。拉塞爾建議,為了防止機器人接管我們?nèi)祟?,我們必?a href=http://www.yizongshi.cn/index.php?m=content&c=index&a=infolist&typeid=1&siteid=1&type=keyword&serachType=2&key=%E5%88%B6%E9%80%A0 style='color:#57A306' target='_blank'>制造出無私心的機器人,即在它們的目標(biāo)任務(wù)中存在一定程序的不確定性,應(yīng)該教會它們?nèi)祟悆r值觀方面的知識。通過向人工智能系統(tǒng)中灌輸“人類常識”,科學(xué)家必須重新定義人工智能,這樣我們才能制造出有益的機器。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。