精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
AlphaGo重出江湖,又發了一篇Nature


本周《自然》發表的一篇論文Mastering the game of Go without human knowledge報道,一款新版的AlphaGo計算機程序能夠從空白狀態起,在不需要任何人類輸入的條件下,迅速自學圍棋。這款新程序名叫AlphaGo Zero,以100比0的戰績打敗了它的前任(在2016年3月的錦標賽中,其前任打敗了圍棋冠軍Lee Sedol)。


DeepMind的創始人 CEO Demis Hassabis


人工智能的最大挑戰是研發一種能從零開始、以超人類的水平學習復雜概念的算法。為了打敗人類圍棋世界冠軍,科學家在訓練上一款AlphaGo時,同時用到了監督式學習(基于上百萬種人類專業選手的下棋步驟)和基于自我對弈的強化學習。那款AlphaGo的訓練過程長達幾個月,用到多臺機器和48個TPU(神經網絡訓練所需的專業芯片)。


本文中,英國DeepMind的David Silver, Julian Schrittwieser, Karen Simonyan, Demis Hassabis和同事介紹了AlphaGo Zero,它的學習從零開始,且單純基于與自己的對弈。人類的輸入僅限于棋盤和棋子,沒有任何人類數據。AlphaGo Zero僅用到一張神經網絡,這張網絡經過訓練,專門預測程序自身的棋步和棋局的贏家,在每次自我對弈中進步。新程序只使用一臺機器和4個TPU。


通過幾天的訓練——包括近500萬局自我對弈——AlphaGo Zero便能夠超越人類并打敗所有之前的AlphaGo版本。隨著程序訓練的進行,它獨立發現了人類用幾千年才總結出來的圍棋規則,還建立了新的戰略,為這個古老的游戲帶來新見解。


論文深度解讀

下文作者為Nature上海辦公室的開明,內容未經過同行評議,已首發于果殼科學人

人工智能棋手 AlphaGo先后戰勝了兩位頂尖圍棋高手李世乭和柯潔。在這場猛烈風暴席卷了世界后,AlphaGo宣布不再和人下棋。但它的創造者并沒有因此停下腳步,AlphaGo還在成長,今天Deepmind又在《自然》期刊上發表了關于 AlphaGo的新論文。

Deepmind于2016年1月28日在Nature雜志上發表第一篇關于AlphaGo的論文,并登上封面。

Nature

這篇論文中的 AlphaGo是全新的,它不是戰勝柯潔的那個最強的 Master,但卻是孿生兄弟。它的名字叫AlphaGo Zero。和以前的 AlphaGo相比,它:

· 從零開始學習,不需要任何人類的經驗

· 使用更少的算力得到了更好的結果

· 發現了新的圍棋定式

· 將策略網絡和值網絡合并

· 使用了深度殘差網絡

白板理論(Tabula rasa)

AlphaGo Zero最大的突破是實現了白板理論。白板理論是哲學上的一個著名觀點,認為嬰兒生下來是白板一塊,通過不斷訓練、成長獲得知識和智力。


作為 AI 領域的先驅,圖靈使用了這個想法。在提出了著名的“圖靈測試”的論文中,他從嬰兒是一塊白板出發,認為只要能用機器制造一個類似小孩的 AI,然后加以訓練,就能得到一個近似成人智力,甚至超越人類智力的AI。


現代科學了解到的事實并不是這樣,嬰兒生下來就有先天的一些能力,他們偏愛高熱量的食物,餓了就會哭鬧希望得到注意。這是生物體在億萬年的演化中學來的。

監督學習 Vs 無監督學習

計算機則完全不同,它沒有億萬年的演化,因此也沒有這些先天的知識,是真正的“白板一塊”。監督學習(Supervised Learning)和無監督學習(Unsupervised Learning)是鏡子的兩面,兩者都想解決同一個問題——如何讓機器從零開始獲得智能?


監督學習認為人要把自己的經驗教給機器。拿分辨貓貓和狗狗的AI來說,你需要準備幾千張照片,然后手把手教機器——哪張照片是貓,哪張照片是狗。機器會從中學習到分辨貓狗的細節,從毛發到眼睛到耳朵,然后舉一反三得去判斷一張它從沒見過的照片是貓貓還是狗狗。


而無監督學習認為機器要去自己摸索,自己發現規律。人的經驗或許能幫助機器掌握智能,但或許人的經驗是有缺陷的,不如讓機器自己發現新的,更好的規律。人的經驗就放一邊吧。

從無知到無敵

就像這篇新論文中講述的那樣。AlphaGo Zero是無監督學習的產物,而它的雙胞胎兄弟Master則用了監督學習的方法。在訓練了72小時后AlphaGo Zero就能打敗戰勝李世乭的 AlphaGo Lee,相比較AlphaGo Lee訓練了幾個月。而40天后,它能以89:11的成績,將戰勝了所有人類高手的Master甩在后面。

AlphaGo Zero從0開始的學習曲線,這個版本的神經網絡由40個模塊組成。

圖片來自DeepMind


圖靈的白板假設雖然無法用在人身上,但是AlphaGo Zero證明了,一個白板AI能夠被訓練成超越人類的圍棋高手。

強化學習

強化學習(Reinforcement Learning)是一種模仿人類學習方式的模型,它的基本方法是:要是機器得到了好的結果就能得到獎勵,要是得到差的結果就得到懲罰。AlphaGo Zero并沒有像之前的兄弟姐妹一樣被教育了人類的圍棋知識。它只是和不同版本的自己下棋,然后用勝者的思路來訓練新的版本,如此不斷重復。

AlphaGo Zero就像人類初學者,需要經歷一定時間摸索。不同訓練階段進行的三場自我對弈游戲中的頭80步,圖中顯示的下法來自AlphaGo Zero的一個版本,這個版本的神經網絡由20個模塊組成。

圖片來自DeepMind

通過這一方法,AlphaGo Zero完全自己摸索出了開局、收官、定式等以前人類已知的圍棋知識,也摸索出了新的定勢。

算法和性能

如何高效合理得利用計算資源?這是算法要解決的一個重要問題。AlphaGo Lee使用了48個TPU,更早版本的 AlphaGo Fan(打敗了樊麾的版本)使用了176個GPU,而Master和AlphaGo Zero僅僅用了4個TPU,也就是說一臺電腦足夠!

由于在硬件和算法上的進步,AlphaGo變得越來越有效率。

圖片來自DeepMind

AlphaGo Zero在72小時內就能超越AlphaGo Lee也表明,優秀的算法不僅僅能降低能耗,也能極大提高效率。另外這也說明,圍棋問題的復雜度并不需要動用大規模的計算能力,那是只浪費。


AlphaGo Zero的算法有兩處核心優化:將策略網絡(計算下子的概率)和值網絡(計算勝率)這兩個神經網絡結合,其實在第一篇 AlphaGo的論文中,這兩種網絡已經使用了類似的架構。另外,引入了深度殘差網絡(Deep Residual Network),比起之前的多層神經網絡效果更好。

Deepmind 的歷程

這不是 Deepmind第一次在《自然》上發論文,他們還在Nature上發表過《利用深度神經網絡和搜索樹成為圍棋大師》和《使用深度強化學習達到人類游戲玩家水平》(論文鏈接:http://rdcu.be/wRDs)以及《使用神經網絡和動態外存的混合計算模型》三篇論文,Deepmind在Nature Neuroscience上也發過多篇論文。


我們可以從中一窺 Deepmind的思路,他們尋找人類還沒有理解原理的游戲,游戲比起現實世界的問題要簡單很多。然后他們選擇了兩條路,一條道路是優化算法,另外一條道路是讓機器不受人類先入為主經驗的影響。


這兩條路交匯的終點,是那個真正能夠超越人的AI。

結語

這是AlphaGo 的終曲,也是一個全新的開始,相關技術將被用于造福人類,幫助科學家認識蛋白質折疊,制造出治療疑難雜癥的藥物,開發新材料,以制造以出更好的產品。?


點擊下方視頻,聽聽論文第一作者/通訊作者David Silver談這篇論文

視頻由DeepMind提供,中英文字幕由Nature上海辦公室制作





本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
零基礎起步的AlphaGoZero,這次真嚇了人類一大跳
Deepmind AMA:你想了解的關于Deepmind的一切都在這里了!
解讀AlphaZero:一種人類從未見過的智慧
從零開始,全憑自學,它用40天完虐AlphaGo!
自學3天100:0碾壓舊版后,新版AlphaGo還能做什么?
歷史性突破!最強人工智能橫空出世,自學3天,“新狗”100比0完敗“老狗”(人類已無用?)
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 岳阳市| 海阳市| 民和| 枝江市| 定襄县| 托克托县| 自治县| 阿尔山市| 汉川市| 兴义市| 宿松县| 五华县| 潜山县| 南安市| 南召县| 潼南县| 尼玛县| 囊谦县| 丰原市| 旅游| 吕梁市| 婺源县| 孟州市| 宜城市| 亳州市| 勃利县| 运城市| 鸡泽县| 广西| 秦安县| 理塘县| 咸丰县| 松溪县| 辽源市| 东城区| 玛曲县| 陵水| 怀宁县| 疏附县| 尼木县| 新化县|