隨著Google、Microsoft和Facebook等巨頭的大力投入,深度學習正在超越機器學習,人工智能來勢兇猛。那么,如今人工智能最熱門的技術趨勢是什么?
黑匣認為,復雜神經(jīng)網(wǎng)絡、LSTMs(長短期記憶網(wǎng)絡)、注意力模型(Attention Models)等十大趨勢將塑造人工智能未來的技術格局。
上述判斷來自NIPS(神經(jīng)信息處理系統(tǒng)) 2015大會。NIPS始于1987年,是人工智能領域兩大重要學習會議之一,由于AI的爆炸式發(fā)展,近年來逐漸成為許多硅谷公司必須參加的年度會議。 在蒙特利爾召開的NIPS 2015吸引了眾多AI學界與業(yè)界的頂級專家,與會人數(shù)接近4000。大會總共收錄了403篇論文,其中深度學習課題約占11%。來自Dropbox的高級軟件工程師Brad Neuberg分享了他所注意到的十大技術趨勢,黑匣將對每種趨勢做了詳細分析。
1、神經(jīng)網(wǎng)絡的架構(gòu)正變得越來越復雜
感知和翻譯等大多數(shù)神經(jīng)網(wǎng)絡的架構(gòu)正變得越來越復雜,遠非此前簡單的前饋神經(jīng)網(wǎng)絡或卷積神經(jīng)網(wǎng)絡所能比。特別需要注意的是,神經(jīng)網(wǎng)絡正與不同的技術(如LSTMs、卷積、自定義目標函數(shù)等)相混合。
神經(jīng)網(wǎng)絡是多數(shù)深度學習項目的根基。深度學習基于人腦結(jié)構(gòu),一層層互相連接的人工模擬神經(jīng)元模仿大腦的行為,處理視覺和語言等復雜問題。這些人工神經(jīng)網(wǎng)絡可以收集信息,也可以對其做出反應。它們能對事物的外形和聲音做出解釋,還可以自行學習與工作。
(人工模擬神經(jīng)元試圖模仿大腦行為 | 圖片來源:Frontiers)
但這一切都需要極高的計算能力。早在 80 年代初期,Geoffrey Hinton和他的同事們就開始研究深度學習。然而彼時電腦還不夠快,不足以處理有關神經(jīng)網(wǎng)絡的這些龐大的數(shù)據(jù)。當時AI研究的普遍方向也與他們相反,人們都在尋找捷徑,直接模擬出行為而不是模仿大腦的運作。
隨著計算能力的提升和算法的改進,今天,神經(jīng)網(wǎng)絡和深度學習已經(jīng)成為人工智能領域最具吸引力的流派。這些神經(jīng)網(wǎng)絡還在變得更復雜,當年“谷歌大腦”團隊最開始嘗試“無監(jiān)督學習”時,就動用了1.6萬多臺微處理器,創(chuàng)建了一個有數(shù)十億連接的神經(jīng)網(wǎng)絡,在一項實驗中觀看了千萬數(shù)量級的YouTube圖像。
2、酷的人都在用LSTMs
當你閱讀本文時,你是在理解前面詞語的基礎上來理解每個詞語的。你的思想具有連續(xù)性,你不會丟棄已知信息而從頭開始思考。傳統(tǒng)神經(jīng)網(wǎng)絡的一大缺陷便是無法做到這一點,而遞歸神經(jīng)網(wǎng)絡(RNN)能夠解決這一問題。
RNN擁有循環(huán)結(jié)構(gòu),可以持續(xù)保存信息。過去幾年里,RNN在語音識別和翻譯等許多問題上取得了難以置信的成功,而成功的關鍵在于一種特殊的RNN——長短期記憶網(wǎng)絡(LSTMs)。
普通的RNN可以學會預測“the clouds are in the sky”中最后一個單詞,但難以學會預測“I grew up in France… I speak fluent French。”中最后一個詞。相關信息(clouds、France)和預測位置(sky、French)的間隔越大,神經(jīng)網(wǎng)絡就越加難以學習連接信息。這被稱為是“長期依賴關系”問題。
(長期依賴問題 | 圖片來源:CSDN)
LSTMs被明確設計成能克服之一問題。LSTMs有四層神經(jīng)網(wǎng)絡層,它們以特殊的方式相互作用。這使得“能記住信息很長一段時間”可以被視作LSTMs的“固有行為”,它們不需要額外學習這一點。對于大多數(shù)任務,LSTMs已經(jīng)取得了非常好的效果。
3、是時候注意“注意力模型(attention models)了
LSTMs是人們使用RNNs的一個飛躍。還有其他飛躍嗎?研究者共同的想法是:“還有注意力(attention)!”
“注意力”是指神經(jīng)網(wǎng)絡在執(zhí)行任務時知道把焦點放在何處。我們可以讓神經(jīng)網(wǎng)絡在每一步都從更大的信息集中挑選信息作為輸入。
例如,當神經(jīng)網(wǎng)絡為一張圖片生成標題時,它可以挑選圖像的關鍵部分作為輸入。
(擁有“注意力”的RNN在
圖像識別中的成功運用 | 圖片來源:Github)
4、神經(jīng)圖靈機依然有趣,但還無法勝任實際工作
當你翻譯一句話時,并不會逐個詞匯進行,而是會從句子的整體結(jié)構(gòu)出發(fā)。機器難以做到這一點,這一挑戰(zhàn)被稱為“強耦合輸出的整體估計”。NIPS上很多研究者展示了對跨時間、空間進行耦合輸出的研究。
神經(jīng)圖靈機(Neural Turing Machine)就是研究者們在硅片中重現(xiàn)人類大腦短期記憶的嘗試。它的背后是一種特殊類型的神經(jīng)網(wǎng)絡,它們可以適應與外部存儲器共同工作,這使得神經(jīng)網(wǎng)絡可以存儲記憶,還能在此后檢索記憶并執(zhí)行一些有邏輯性的任務。
(模仿人類短期工作記憶的神經(jīng)圖靈機 | 圖片來源:arXiv)
2014年10月,Google DeepMind公布了一臺原型電腦,它可以模仿一些人類大腦短期工作記憶的特性。但直到NIPS2015,所有的神經(jīng)圖靈機都過于復雜,并且只能解決一些“小玩具”問題。在未來它們或?qū)⒌玫綐O大改進。
5、深度學習讓計算機視覺和自然語言處理不再是孤島
卷積神經(jīng)網(wǎng)絡(CNN)最早出現(xiàn)在計算機視覺中,但現(xiàn)在許多自然語言處理(NLP)系統(tǒng)也會使用。LSTMs與遞歸神經(jīng)網(wǎng)絡深度學習最早出現(xiàn)在NLP中,但現(xiàn)在也被納入計算機視覺神經(jīng)網(wǎng)絡。
此外,計算機視覺與NLP的交匯仍然擁有無限前景。想象一下程序為美劇自動嵌入中文字幕的場景吧。
6、符號微分式越來越重要
“反向傳播”
隨著神經(jīng)網(wǎng)絡架構(gòu)及其目標函數(shù)變得日益復雜和自定義,手動推導出(back propagation)的梯度(gradients)也變得更加苦難而且容易出錯。谷歌的TensorFlow等最新的工具包已經(jīng)可以超負荷試驗符號微分式,能夠自動計算出正確的微分,以確保訓練時誤差梯度可被反向傳播。
7、神經(jīng)網(wǎng)絡模型壓縮的驚人成果
多個團隊以不同方法大幅壓縮了訓練一個良好模型所需的素材體量,這些方法包括二值化、固定浮點數(shù)、迭代修剪和精細調(diào)優(yōu)步驟等。
這些技術潛在的應用前景廣闊,可能將會適應在移動設備上進行復雜模型的訓練。例如,不需要延遲就可以得到語音識別結(jié)果。此外,如果運算所需要的空間和時間極大降低,我們就可以極高幀率(如30 FPS)查詢一個模型,這樣,在移動設備上也可以運用復雜神經(jīng)網(wǎng)絡模型,從而近乎實時地完成計算機視覺任務。
8、深度學習和強化學習繼續(xù)交匯
雖然NIPS 2015上沒有什么強化學習(reinforcement learning)的重要成果,但“深度強化學習”研討會還是展現(xiàn)了深度神經(jīng)網(wǎng)絡和強化學習相結(jié)合的前景。
在“端對端”(end-to-end)機器人等領域出現(xiàn)了令人激動的進展,現(xiàn)在機器人已經(jīng)可以一起運用深度和強化學習,從而將原始感官數(shù)據(jù)直接轉(zhuǎn)化為實際動作驅(qū)動。我們正在超越“分類”等簡單工作,嘗試將“計劃”與“行動”納入方程。還有大量工作需要完成,但早期的工作已經(jīng)使人感到興奮。
9、難道你還沒有使用批標準化?
批標準化(batch normalization)現(xiàn)在被視作評價一個神經(jīng)網(wǎng)絡工具包的部分標準,在NIPS 2015 上被不斷提及。
10、神經(jīng)網(wǎng)絡研究與優(yōu)化齊頭并進
創(chuàng)造新的神經(jīng)網(wǎng)絡方法需要研究者,還需要能將它們迅速付諸實踐的方法。谷歌的TensorFlow是少數(shù)能夠做到這些的庫:使用Python 或 C++等主流編程語言,研究者可以迅速創(chuàng)作新的網(wǎng)絡拓撲圖,接著在單一或多個設備(包括移動設備)上進行測試。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。