精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
除了深度學習,你還應該關注這 6 大 AI 領域
博西 ·  12前小時 ·  行業新聞


AI的這個6個領域對未來的數字化產品和服務有著巨大影響。

編者按:因為深度學習最近在語音識別,圖像識別等領域取得的突破,很多人都把人工智能與深度學習混為一談。但深度學習只是AI的一方面,實際上還有其他一些AI的分支也正在取得進展,并且這些技術分支在很多領域都有極大的應用潛力。投資人內森Benaich地系統- 闡述了AI的6個值得關注的領域以及其潛在應用于相關的公司和研究人員,是分析和跟蹤AI的一篇很好的介紹文章。

提煉出一個能被普遍接受的適合于人工智能(AI)的定義已經成為最近多次的話題之爭。一些人把AI重新貼上“認知計算”或者“機器智能”的標簽,而有That not恰當地將AI和“機器學習”混為一談。這部分是因為AI不是一種技術。實際上它是包含了從機器人到機器學習等許多學科的一個廣泛領域。我們大多數人斷言,AI終極目標是開發出能執行以往屬于人類智能范疇的任務以及認可功能的機器。為了實現這一點,機器必須能自動學習這些能力而不是對每一臺機器進行端到端的顯式編程。

從無人車到語音識別與合成,過去10年AI領域取得的進展之多令人贊嘆。在此背景下,AI已經成為越來越多公司與家庭的討論話題,他們認為AI作為一項技術不再需要20年的時間才能到來,而是認為這個東西現在已經在影響著自己的生活。的確,熱門媒體幾乎每天都會報道AI,而技術巨頭都在接二連三地闡述自己重大的長期AI戰略。若干投資者和既有企業渴望理解如何在這個新世界中捕捉價值,但絕大部分還在抓牢腦袋想搞清楚這一切到底意味著什么。與此同時,政府正在與社會自動化的潛在影響作斗爭(奧巴馬參見的告別演說)。

考慮到AI會影響到整個經濟,這場對話的參與者代表開發或使用AI系統的各種意圖,不同的理解水平以及不同經驗程度。同樣地,一場有關AI的討論,包括問題,以及據此獲得的結論和建議等,這些東西應該以數據和事實而不是猜測為基礎,這一點是至關重要的。發表的研究,技術新聞公告,推測性的評論以及思想實驗把結果的潛在影響瘋狂地外推實在是太容易了(有時候是太令人興奮了?。?/p>

以下是AI在對未來數字化產品和服務潛在影響能力方面尤其值得注意的6個領域。我將描述它們分別是什么,為什么重要,目前是如何應用的,同時還將提供攻關這些技術的公司和研究者的清單(but絕對不是詳盡的)。

1,強化學習(RL)

強化學習是一種通過試錯法學習的范式,其靈感源自人類學習新任務的方式。在典型的強化學習設定里面,一個代理會承擔在數字化環境中觀察其當前狀態的任務,并采取能夠自己被設定的累計長期獎勵最大化的動作。作為每次動作的結果,代理從環境接收反饋,這樣它就可以知道動作是促進還是妨礙了自己的進展。一個RL代理因此必須在對環境進行探索以找到累積獎勵的優化策略與探索實現所要達到目標的最佳策略之間做出權衡。這種辦法因為Google DeepMind在玩Atari和圍棋(Alphago)游戲中的表現而變得流行.RL在現實世界的一個例子是Google數據中心在優化制冷效率當中的應用.Google的RL系統取得了將制冷成本降低40%的效果。在可模擬的環境(比如視頻游戲)中采用RL代理的一個重要的天然優勢是訓練數據是可以生成的且成本極低。這與有監督的深度學習形成了鮮明對比,后者往往需要昂貴且在現實世界中很難獲得的訓練數據。

應用:代理多個以共同的模型在環境中以自己的實例進行學習,通過或者在相同環境下進行互動狀語從句:相互學習,學習在像迷宮或者城市街道那樣的3D環境下為無人車進行導航,運用逆向強化學習通過學習某個人物的目標來概括觀察到的行為(比如學習駕駛或者賦予非玩家視頻游戲角色以類似的人類行為)。

主要研究人員:彼得Abbeel(OpenAI),銀鴻,南多德弗雷塔斯,RAIA Hadsell,馬克·貝勒馬爾(谷歌DeepMind),卡爾·拉斯穆森(劍橋大學),富薩頓(阿爾伯塔),約翰·Shawe -泰勒(倫敦大學學院)中。

公司:谷歌DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba /微軟,NVIDIA,Mobileye在。

2,生成模型

相對于用于分類或回歸分析任務的判別模型,生成模型學習的是訓練示例的概率分布。通過從這一高維分布中采樣,生成模型可以輸出新的類似與訓練數據的例子。 ,比方說,基于真實臉部圖像訓練出來的生成模型可以輸出類似臉部的合成圖像。要想了解這些模型如何工作的細節,可參見伊恩·古德費洛精彩的NIPS 2016指南文章。他介紹的生成對抗網絡(GAN)架構,是目前研究界尤其熱門的方向,這種因為架構提供了一條通往無監督學習的道路.GAN有兩個神經網絡:一個是生成器,它會以隨機輸入噪聲作為輸入,接受合成內容(比如圖像)的任務;另一個是鑒別器,它會學習真正的圖像看起來是什么樣的,然后接受辨別由生成器創造的圖像是真的還是假冒的。對抗訓練可被看成為一個游戲,在這個游戲里面,生成器必須交替學習如何通過噪音來創造出逼逼的圖像,逼真到鑒別器再也無法分清真偽的地步。這一框架正在被延伸到許多數據形態和任務當中。

應用:模擬未來可能的時間序列(比如說強化學習的任務規劃); 超清晰圖像 ;通過2D圖像修復三維結構 ;小型對帶的標簽數據集進行歸納 ;從一個輸入推出多個正確結果的軟任務(比如預測視頻的下一幀);在對話接口(如聊天機器人)中創建自然語言; 加密 ;當并非所有數據都帶標簽時進行半監督學習; 藝術風格的變換,合成音樂和語音,圖像修復中。

公司:Twitter的皮質,Adobe公司,蘋果,Prisma的,Jukedeck *,Creative.ai,Gluru *,* Mapillary,Unbabel。

主要研究者:伊恩·古德費洛(OpenAI),晏LeCun和Soumith Chintala(Facebook的AI研究),沙基爾穆罕默德和亞倫范登Oord公司(谷歌DeepMind),阿遼沙Efros(伯克利)。

3,帶記憶的神經網絡

為了讓AI能像我們人類一樣歸納不同的現實世界環境,它們必須能夠不斷學習新任務并記住如何在未來執行所有這些任務。然而,傳統神經網絡一般都不能記住此類任務序列。這一缺點的術語叫做災變性失憶(catastrophic forgetting)。之所以會發生這種情況,是因為在一個神經網絡中對于解決任務。A很重要的權重在該網絡隨后受訓解決任務B時會發生變化。

不過有若干強大的架構能賦予神經網絡不同程度的記憶功能。這些就包括了長短期記憶人工神經網絡(LSTM,遞歸神經網絡的派生),這種網絡能處理和預測時間序列;為了自行學習復雜數據結構并在其中導航,DeepMind的柯林斯微神經計算機結合了神經網絡狀語從句:內存系統- ,學習的彈性權重合并(彈性重固結)算法,視之前在任務中的重要性不同,這種算法可放慢特定權重的學習;漸進性神經網絡(漸進神經網絡),這種神經網絡可以學習任務相關模型的橫向聯系,從而從此前的過去的神經網絡中析取出有用的功能來執行新任務。

應用:可歸納到新環境的學習代理;機器臂空子任務;無人車,時間序列預測(比如金融市場,視頻,物聯網等);自然語言理解和下一個單詞預測。

公司:谷歌DeepMind,NNaisense,SwiftKey /微軟研究院,Facebook的AI研究(?)。

主要研究人員:亞歷克斯·格雷夫斯,RAIA Hadsell,科瑞Kavukcuoglu(谷歌DeepMind),于爾根施米德休伯(IDSIA),杰弗里·辛頓(谷歌腦/多倫多),詹姆斯·韋斯頓,薩米特喬普拉,安托萬·博爾德(FAIR)。

4,從更少的數據學習,建立更小的模型

深度學習模型因為需要龐大規模的訓練數據才能實現最好性能而引人關注。比方說,讓參賽隊伍挑戰自己的圖像識別模型的ImageNet大規模視覺識別挑戰(ImageNet大規模視覺識別挑戰賽)擁有120萬張手工標記的訓練圖像,涵蓋了1000個對象類別。如果沒有大規模的訓練數據,深度學習就沒有辦法集中到優化設置上面,注入語音識別或者機器翻譯之類的那些復雜的任務就無法執行得好。當單個神經網絡用于端到端解決一個問題(also就是說,把說話的裸音頻錄音作為輸入然后輸出說話的錄音文本)時,這一個數據需要只會越越越高。跟用多個神經網絡各提供中間表示是不一樣的(比如說,裸語音音頻輸入→音素→單詞→錄音文本輸出)如果我們希望AI系統解決那些訓練數據尤其具有挑戰性,成本又高,又敏感或者獲得又十分耗時的任務時,從較較例(比較1次或0次學習)形成可學習優化解決方案的模式就很重要了。當針對小規模數據集進行訓練時,其挑戰包括過度擬合,處理異常值的困難,訓練和測試之間不同的數學分析法的一個共同的流程將機器學習模型執行之前任務獲得的知識轉移過去以改善新任務的學習,這被稱為是遷移學習(transfer learning)。

一個相關問題是利用類似數量或者數量顯示減少的參數開發更小型的最新深度學習架構。其優勢包括更有效的分布式訓練,因為數據需要在服務器之間進行溝通;從云導出新模型到邊緣設備需要更少的帶寬;可以部署到內存有限的硬件,靈活性得到了改進。

應用:訓練淺層網絡學習模仿原本基于大型帶標簽訓練數據而訓練出來的深度網絡的表現;參數更少但表現與深度模型相當的架構(比如SqueezeNet); 機器翻譯

公司:幾何智能/尤伯杯,DeepScale.ai,微軟研究院,好奇AI公司,谷歌,布盧姆斯伯里AI。

主要研究人員:Zoubin Ghahramani(劍橋大學),Yoshua Bengio(蒙特利爾大學),喬什·特南鮑姆(MIT),布倫丹·湖(紐元大學),奧里奧爾Vinyals(谷歌DeepMind),塞巴斯蒂安·里德爾(UCL)。

5,用于訓練與推理的硬件

AI取得進展的一個主要的催化劑是圖形處理單元(GPU)被重新利用到了訓練大型神經網絡模型上面.GPU跟按序列進行計算的中央處理單元(CPU)不一樣,它提供了大規模的并行架構,可并發處理多個任務??紤]到神經網絡必須處理龐大(有時候還是高維)的數據,在GPU上面訓練要比在CPU上訓練快得多。這就是為什么自2012年AlexNet GPU上實現的神經網絡)發布以來GPU實際上已經成為淘金熱的鐵桶原因。這方面NVIDIA一直處領先地位,把英特爾,高通,AMD以及最近進入的Google甩在了身后。

但是GPU并不是專門用于訓練或推理的硬件;它們原來是為了替視頻游戲渲染圖像而創造的.GPU具有很高的計算精度,但卻不是隨時之需,同時還遭遇了內存帶寬和數據有效量的問題。這為谷歌之類的大公司內部新型的初創企業和項目開放了競技場,使得后者可以設計和制造特殊的針對高維機器學習應用的芯片。芯片新設計有望實現的改進包括更高的內存帶寬,基于圖的計算而不是基于向量(GPU)或者標量(CPU),更高的計算密度,每瓦特的效率和性能提升。這令人興奮,因為AI系統顯然為它所有者和用戶帶來了加速回報:更快更高效的模型訓練→更好的用戶體驗→用戶與產品的互動更多→創造出更大規模的數據集→通過優化改進模型性能。因此,那些能以更高的計算效率和能效更快訓練并部署好AI模型的人將具備重大優勢。

應用:模型訓練更快(尤其是基于圖的訓練);以很高的能效和數據效率做出預測;在邊緣層(物聯網設備)運行的AI系統,隨時偵聽的物聯網設備;云基礎設施即服務;無人車,無人機和機器人。

公司:Graphcore,Cerebras,平衡線工程,谷歌(TPU),NVIDIA(DGX-1),Nervana系統(英特爾),Movidius(英特爾),Scortex。

主要研究人員:?

6,仿真環境

正如前面討論過那樣,AI系統訓練數據的生成往往是很有挑戰性的。此外,AI如果想在現實世界中發揮作用的話必須推廣到許多情況下也適用。而開發可模擬真實世界的物理結構和行為的數字化環境,可以為我們衡量和訓練AI一般智能提供試驗場。這些環境以裸像素的形式呈現給AI,后者然后采取行動以便解決被設定(或者學會)的目標。在這些模擬環境下訓練可以幫助我們理解AI系統時如何學習的以及如何對它們加以改進,但也可以為我們提供有可能轉移到現實世界應用的模型。

應用:學會駕駛;制造;工業設計;游戲開發;智慧城市。

公司:不可能的,團結3D,微軟(我的世界),谷歌DeepMind /暴雪,OpenAI,Comma.ai,虛幻引擎,亞馬遜貯木場

研究人員:安德烈Vedaldi(牛津大學)


本文來自翻譯:medium.com,如若轉載,請注明出處:http://36kr.com/p/5062567.html
本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
還在混淆AI與機器學習?先了解下六個AI熱門領域
除了深度學習,你還應該關注這6大AI領域
DeepMind的機器人技術
人工智能、機器學習和深度學習的區別
機器學習、深度學習以及人工智能正在快速演進
需要密切關注的六大人工智能/機器學習領域
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 井冈山市| 隆昌县| 栾城县| 广汉市| 靖宇县| 曲水县| 鄂托克前旗| 炉霍县| 沽源县| 海南省| 和龙市| 广平县| 遂昌县| 福安市| 故城县| 广丰县| 周至县| 饶河县| 南雄市| 乌兰浩特市| 南丰县| 曲麻莱县| 资溪县| 道孚县| 阜康市| 称多县| 张掖市| 大姚县| 建水县| 阿勒泰市| 黎城县| 任丘市| 巍山| 平顺县| 同心县| 博白县| 驻马店市| 咸丰县| 茌平县| 瓦房店市| 海城市|