來源:專知
【導讀】 本文回顧了人工智能的發(fā)展歷史,分析了當前國內(nèi)外研究現(xiàn)狀,指出了目前以深度學習為代表的人工智能基礎研究困境。包括可解釋性神經(jīng)網(wǎng)絡模型問題、網(wǎng)絡模型的結(jié)構(gòu)設計問題、小樣本學習問題等。給出了今后人工智能發(fā)展趨勢,認為基于統(tǒng)計物理思維構(gòu)建協(xié)同學習系統(tǒng)可能是通往通用人工智能的路線之一。
辛欣,北京理工大學計算機學院
郭平,北京師范大學圖形圖像與模式識別實驗室
談歷史,要從盤古開天辟地說起。盤古,又稱盤古氏,混沌氏。是中國傳說中開天辟地 創(chuàng)造人類世界的始祖。最早的記載見于三國時期吳國徐整著《三五歷紀》:“天地渾沌如雞?,盤古?其中。萬?千歲,天地開辟,陽清為天,陰濁為地”。“自從盤古開天辟地...” 這種說法常比喻空前的,自古以來沒有過。但這是民間神話傳說, 并非科學的天地起源之說。
從科學的角度來看,依據(jù)“大爆炸宇宙論” (The Big Bang Theory), 我們目前認知 的宇宙是由大約 137 億年前發(fā)生的一次大爆炸形成的。大爆炸使物質(zhì)四散出去,宇宙空間 不斷膨脹,物質(zhì)密度從密到稀地演化,溫度也相應下降。大約在大爆炸后 30 萬年后,化學 結(jié)合作用使中性原子形成,宇宙主要成分為氣態(tài)物質(zhì),并逐步在自引力作用下凝聚成密度 較高的氣體云塊,直至后來相繼在宇宙中演化出所有星系、恒星、行星乃至生命,成為我 們今天看到的宇宙 [1] 。
在宇宙演化過程中, 大約在 46 億年前形成了太陽系以及地球。而隨著時間的推移,大 約在 40 億年前,地球上出現(xiàn)了生命。在“物競天擇、適者生存”自然選擇法則下面,地球 上的生物從低級到高級、從簡單到復雜,經(jīng)過漫長的時間逐漸演化到目前多物種的生物圈。在生物演化的時間長河中,大約在 450 萬年前, 人和猿開始分化, 以后在由臘瑪古猿演化成 200 萬年前的南方古猿,進一步再發(fā)展為晚期智人(新人)。而大約在 4-5 萬年前人類的進 化出現(xiàn)了明顯的加速, 直至出現(xiàn)了現(xiàn)代人類。人類進化為萬物之靈,具有了高智慧的大腦。
Intelligence,這個英文單詞通常翻譯為智能,有時也譯為智慧。智能與智慧含義比較接近,但是有區(qū)別。可以認為智慧是比智能更高層次的理念,而智能是智力和能力的總稱,中國古代思想家一般把智與能看做是兩個相對獨立的概念,通常認為 “智”指進行認識 活動的某些心理特點,“能”則指進行實際活動的某些心理特點。自然智能包括人類智能和其他生物智能,因此生物智能是一種天生的能力,可以使生物體在某些環(huán)境中探索,開 發(fā),適應和生存。有些學者認為具有感知,記憶,自我意識,并能進行一定交流的動物為 智能生物,也具有智能 [2] 。有些學者將智能定義為智慧和能力,從感覺到記憶到思維這一 過程,稱為“智慧“,智慧的結(jié)果產(chǎn)生了行為和語言,將行為和語言的表達過程稱為“能 力”。根據(jù)發(fā)育心理學家霍華德·加德納的多元智能理論,人類的智能可以分成七個范疇:包括語言 (Verbal/Linguistic);邏輯 (Logical/Mathematical);空間 (Visual /Spatial);肢體運作 (Bodily/Kinesthetic);音樂 (Musical/Rhythmic);人際 (Inter-- personal/Social);內(nèi)省 (Intrapersonal/Introspective)等 [3] 。人類在與大自然協(xié)同演化過程中,最初為了生存而提高生產(chǎn) 力,發(fā)明創(chuàng)造了生產(chǎn)工具。我們知道,生產(chǎn)工具的內(nèi)容和形式是隨著經(jīng)濟和科學技術的發(fā) 展而不斷發(fā)展變化的。隨著科學技術的發(fā)展, 人類文明不斷向前發(fā)展。如今科學技術是第 一生產(chǎn)力,對社會發(fā)展具有推動作用。科技改變了人們的學習工作和日常生活,人類文明 也在不斷發(fā)展,人類從最初的畏懼自然到征服自然,進而認識到要善待自然、與自然和諧 相處。恩格斯在《在馬克思墓前講話》(1883 年 3 月 17 日)里說過,人們首先必須吃、喝、 住、穿,然后才能從事政治、科學、藝術、宗教等等。即一切人類生存的第一個前提,也 就是一切歷史的第一個前提是生活。為了生產(chǎn)滿足人類生活需要的資料,人類自從進化出 來的那一天開始,就一直從事著繁重的體力勞動。為了從體力勞動之中解放出來,是最初 科學技術發(fā)展的動力。從社會進化史中可以看到,為了解放自己的人類,通過技術革命, 特別是近代的三次工業(yè)技術革命,直接改變了生產(chǎn)方式。為了從繁重的體力勞動之中解放 出來,實現(xiàn)高度自動化生產(chǎn),其關鍵是發(fā)展人工智能技術,實現(xiàn)生產(chǎn)的無人化。只有實現(xiàn) 了生產(chǎn)的無人化,人類才能真正的解放出來。
人工智能(Artificial Intelligence--AI)一詞,是 1956 年在達特茅斯學院舉辦的一次會議 上,由計算機專家約翰 麥卡錫 (John McCarthy)提出來的。后來,這被人們看做是人工智能 正式誕生的標志,1956 年也被當做人工智能的元年。達特茅斯茅斯會議正式確立了 AI 這 一術語后,開始從學術角度對 AI 展開了嚴肅而精專的研究。在那之后不久,最早的一批人 工智能學者和技術開始涌現(xiàn),從此人工智能走上了快速發(fā)展的道路。
最初對人工智能研究的一個主要目標是使機器能夠勝任一些通常需要人類智能才能 完成的復雜工作。但不同的時代、不同的人對這種“復雜工作”的理解是不同的。目前對 人工智能還沒有一個精確的,人們普遍可以接受的定義,但按照擬人化的說法目標是希望 人工智能能夠分擔和協(xié)助人類的工作。在學科上來說人工智能是研究、開發(fā)用于模擬、延 伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)的一門新的技術科學。斯坦福大學人工 智能研究中心尼爾遜教授認為“人工智能是關于知識的學科怎樣表示知識以及怎樣獲得知 識并使用知識的科學。”而麻省理工學院的溫斯頓教授認為 “人工智能就是研究如何使計 算機去做過去只有人類能做的智能工作”。由此可見一種觀點認為人工智能是研究人類智 能活動的規(guī)律,構(gòu)造具有一定智能的人工系統(tǒng),研究如何讓計算機去完成以往需要人的智 力才能勝任的工作,也就是研究如何應用計算機的軟硬件來模擬人類某些智能行為的基本 理論、方法和技術。
在人工智能發(fā)展的歷史上,不同學科或?qū)W科背景的學者對人工智能做出了各自的理解, 提出了不同的觀點,由此產(chǎn)生了不同的學術流派。期間對人工智能研究影響較大的的主要 有符號主義、聯(lián)接主義和行為主義三大學派:
(1) 符號主義(Symbolism),又稱為邏輯主義、心理學派或計算機學派,其原理主要為物理符 號系統(tǒng)(即符號操作系統(tǒng))假設和有限合理性原理。
(2) 聯(lián)接主義(Connectionism),又稱為仿生學派或生理學派,其主要原理為神經(jīng)網(wǎng)絡及神經(jīng) 網(wǎng)絡間的連接機制與學習算法。
(3) 行為主義(Actionism),又稱為進化主義或控制論學派,其原理為控制論及感知-動作型控 制系統(tǒng)。
三大學派之一的聯(lián)接主義學派, 認為人工智能實現(xiàn)應該源于仿生學,特別是對人腦 模型的研究。其代表性成果是 1943 年由生理學家麥卡洛克(McCulloch)和數(shù)理邏輯學家皮茨 (Pitts)創(chuàng)立的腦模型,即 MP 模型,開創(chuàng)了用電子裝置模仿人腦結(jié)構(gòu)和功能的新途徑。從神 經(jīng)元開始進而研究神經(jīng)網(wǎng)絡模型和腦模型,形成了人工智能研究的一大主流。在 20 世紀 60~70 年代,聯(lián)接主義學派代表性成果是羅森布拉特(Rosenblatt)提出的感知機(perceptron)。但以感知機為代表的腦模型的研究出現(xiàn)過熱潮,明斯基(Minsky)和佩伯特(Papert)他們指 出,感知機連一個簡單的 XOR(異或)邏輯都實現(xiàn)不了,最簡單的模式都無法識別,使得 神經(jīng)網(wǎng)絡研究在 20 世紀 70 年代后期至 80 年代初期落入低潮。在 1982 年和 1984 年霍普 菲爾德(Hopfield)教授發(fā)表了兩篇重要論文,提出用硬件模擬神經(jīng)網(wǎng)絡以后,聯(lián)接主義才 又重新抬頭[4,5] 。1974 年韋伯斯(Paul Werbos) 在他的博士論文里提出了對神經(jīng)網(wǎng)絡的誤差反 向傳播(Back Propagation --BP)算法, 為神經(jīng)網(wǎng)絡發(fā)展帶來了第一次重大轉(zhuǎn)機。但 BP 的 快速發(fā)展與成名,得益于魯梅意哈特(Rumelhart) 等人在“自然”雜志的通信:通過誤差 傳播學習內(nèi)在表示(Learning Internal Representations by Error Propagation)[6] (1986 年出版 的 Parallel Distributed Processing 一書里的一章)。(BP 是一種梯度下降算法,原理很簡單,就 是采用鏈式法則微分計算誤差函數(shù)的梯度,解決了多層神經(jīng)網(wǎng)絡的權重優(yōu)化問題。)在這年之后,聯(lián) 結(jié)主義勢頭大振,在全世界范圍內(nèi)掀起了神經(jīng)網(wǎng)絡研究的熱潮。從模型到算法,從理論分 析到工程實現(xiàn),為神經(jīng)網(wǎng)絡計算機走向市場打下基礎。
1987 年 6 月 21-24 號在美國圣地亞哥召開了第一屆國際神經(jīng)網(wǎng)絡會議(1987 IEEE First Annual International Conference on Neural Networks), 會上甚至有人提出了“人工智能 已經(jīng)死亡, 神經(jīng)網(wǎng)絡萬歲 (AI is dead. Long live Neural Networks )”的口號,可見神經(jīng)網(wǎng)絡的 火爆程度。
隨著國際上神經(jīng)網(wǎng)絡學術研究迅猛發(fā)展, 我國學者也積極跟進,并與 1990 年籌建了 中國神經(jīng)網(wǎng)絡委員會,同年 12 月在北京舉辦了國內(nèi)首屆神經(jīng)網(wǎng)絡大會,大會主席是羅沛霖 院士。羅沛霖院士也是中國神經(jīng)網(wǎng)絡學術研究那時最重要的發(fā)起推動人,他在 1987 年訪問 美國時,會晤了人工神經(jīng)網(wǎng)絡的學術權威霍普費爾德(Hopfield)和米德(Mead),回國后便推 動這項學術活動。羅沛霖院士促成了由中國電子學會、中國計算機學會、中國自動化學會、 中國人工智能學會、中國生物物理學會和中國心理學會等 8 個國家一級學會(后來增加到 15 個)成立了中國神經(jīng)網(wǎng)絡委員會籌備委員會。
由中國神經(jīng)網(wǎng)絡委員會籌備委員會主辦的第二屆中國神經(jīng)網(wǎng)絡大會 1991 年 12 月 3-6 號在南京舉行,大會主席是吳佑壽院士和韋鈺教授。當時是中華醫(yī)學會、中國人工智能學 會、中國心理學會、中國生物物理學會、中國電子學會、中國電工學會、中國電機學會、 中國計算機學會、中國光學學會、中國自動化學會、中國物理學會、中國通信學會和中國 數(shù)學學會等 13 個一級學會組成了中國神經(jīng)網(wǎng)絡委員會籌備委員會。
當時的口號是“攜手探智能,聯(lián)盟攻大關”,對神經(jīng)網(wǎng)絡學術研究接軌與世界水平充 滿了希望。并確定 1992 年與 IEEE Neural Network Council (神經(jīng)網(wǎng)絡委員會),International Neural Network Society (國際神經(jīng)網(wǎng)絡學會)聯(lián)合舉辦國際神經(jīng)網(wǎng)絡聯(lián)合大會(International Joint Conference on Neural Network – IJCNN)。
由于韋伯斯的 BP 算法和辛頓等人的 Nature 論文,使得神經(jīng)網(wǎng)絡研究得以復興,并 有了獨立于Association for the Advancement of Artificial Intelligence(先進人工智能協(xié)會--AAAI) 之外的,單獨成為一個國際學術組織“國際神經(jīng)網(wǎng)絡學會”(INNS)。IEEE 的神經(jīng)網(wǎng)絡 委員會后來(2001 年)改名為 IEEE 神經(jīng)網(wǎng)絡學會(IEEE Neural Network Society)。
但是希望越大,失望也越大,由于受到當時的理論模型、生物原型和技術條件的限制, 隨著日本第五代計算機項目的失敗,以神經(jīng)網(wǎng)絡為主的人工智能研究也進入了第二次寒冬。IEEE 神經(jīng)網(wǎng)絡學會最后于 2003 年正式改名為今天的 IEEE 計算智能學會 (Computational Intelligence Society)。
計算智能(Computational Intelligence -- CI)是人工智能發(fā)展的新階段,是受到大自然智慧和人類智慧的啟發(fā)而設計出的一類解決復雜問題方法的統(tǒng)稱[7] 。按照維基百科的解 釋,雖然人工智能和計算智能尋求類似的長期目標:達到通用智能( AGI:一臺可以 執(zhí)行人類可以執(zhí)行的任何智力任務的機器的智能),但是傳統(tǒng)人工智能和計算智能之間 還是有明顯區(qū)別的。根據(jù) Bezdek(1994)的定義,計算智能是人工智能的一個子集。有 時人工智能也稱為機器智能,而機器智能包括了兩種類型:基于硬計算技術的人工機器 智能和基于軟計算方法的計算機器智能,它們都能夠適應多種情況。
通常認為計算智能是在人工神經(jīng)網(wǎng)絡、演化計算和模糊系統(tǒng)三個主要分支發(fā)展相對 成熟的基礎上,通過相互之間的有機融合形成新的科學方法,是智能理論和技術發(fā)展的新階段。新興的計算智能拓展了傳統(tǒng)的計算模式和智能理論, 包括了學習理論和概率方法。那些在工程領域中無法用數(shù)學模型精確描述的復雜系統(tǒng), 也可以用計算智能算法來建模和 求解。
我們認為人工智能研究的符號主義、聯(lián)接主義和行為主義三大學派,在計算智能中或 多或少的得到了體現(xiàn)。例如模糊邏輯系統(tǒng)是建立在多值邏輯基礎上,模仿人腦的不確定性 概念判斷、推理思維方式,運用模糊集合和模糊規(guī)則進行推理的方法來研究模糊性思維、 語言形式及其規(guī)律的學科,這代表了符號主義學派的延伸與發(fā)展。演化計算(Evolution Computation -- EC)也稱進化計算,是借助自然界(生物界)規(guī)律的啟示,根據(jù)其規(guī)律,設 計出求解問題的算法,其目標是模擬自然演化的過程。主要概念是“適者生存,優(yōu)勝劣汰”, 因此群體智能也歸為演化計算。群體智能本身是來自對自然界中昆蟲群體的觀察,或社會 性群居生物“群居性生物通過協(xié)作表現(xiàn)出的宏觀智能行為特征被稱為群體智能”。而行為 主義學派認為人工智能源于控制論。控制論早期的研究工作重點是模擬人在控制過程中的 智能行為和作用,如對自尋優(yōu)、自適應、自鎮(zhèn)定、自組織和自學習等控制論系統(tǒng)的研究, 并進行“控制論動物”的研制,因此行為主義也被稱為進化主義。而目前發(fā)展勢頭最猛、 風頭最盛的深度神經(jīng)網(wǎng)絡(深度學習)就是聯(lián)結(jié)主義學派的延伸。
2006年, Hinton 等人在《科學》上發(fā)表了一篇論文(Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks. Science, 2006, 313(5786): 504-507.),文 中提出了兩個觀點:(1)多層人工神經(jīng)網(wǎng)絡模型(MLP)有很強的特征表示能力,深度網(wǎng) 絡模型學習得到的特征對原始數(shù)據(jù)有更本質(zhì)的代表性,這將大大有利于解決分類和可視化 問題;(2)對于深度神經(jīng)網(wǎng)絡很難訓練達到最優(yōu)的問題,可以采用逐層訓練加微調(diào)方法解 決。Hinton 等人提出深度置信網(wǎng)(Deep Belief Net:DBN)[Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets. Neural computation, 2006, 18(7): 1527-1554.],是 由一系列受限波爾茲曼機堆疊組成,網(wǎng)絡結(jié)構(gòu)與 MLP 是完全一致的。Hinton 等人提出無 監(jiān)督貪心逐層訓練算法,是對經(jīng)典的 BP 算法的改進,這突破了早期多層神經(jīng)網(wǎng)絡發(fā)展的 瓶頸,應用效果才取得突破性進展。其后重新點燃了人工智能領域?qū)ι窠?jīng)網(wǎng)絡熱情,學術 界才由此掀起了對深度學習的關注與深入研究。特別是在 2012 年,Hinton 和他的學生 Alex Krizhevsky 設計了基于卷積神經(jīng)網(wǎng)絡(CNN)的 AlexNet, 并利用了 GPU 強大的并行計算 能力,在代表計算機智能圖像識別最前沿的 ImageNet 競賽中,以比第二名測試錯誤率 26.2% 低好多的測試錯誤率 15.3%奪得競賽冠軍。也是在那年之后,更多更深的神經(jīng)網(wǎng)絡結(jié)構(gòu)模 型被提出來。2015 年,深度學習的代表學者 LeCun, Yoshua Bengio & Geoffrey Hinton 聯(lián)合 在 Nature 雜志發(fā)表了深度學習綜述論文,(Yann LeCun, Yoshua Bengio & Geoffrey Hinton, Deep learning, Nature Vol. 521, pages 436–444, 28 May 2015),神經(jīng)網(wǎng)絡以深度學習之名強勢回歸。得益于近年來數(shù)據(jù)爆發(fā)式的增長、計算能力的大幅提升以及深度學習算法的發(fā) 展和成熟,我們迎來了人工智能概念出現(xiàn)以來的第三個發(fā)展浪潮。
2016 年對大眾來說有兩個刷屏事件,其中之一是谷歌大腦的 Alpha Go 與李世石舉世 矚目的圍棋人機大戰(zhàn),AlphaGo 對李世石的勝利使得公眾開始認識、了解人工智能。(另 一個刷屏事件是人類首次探測到了引力波。郭某人在科學網(wǎng)博客中將人工智能與引力波這 兩個事件結(jié)合起來做了介紹【郭平,“引力波數(shù)據(jù)分析中的人工智能技術”,科學網(wǎng)博客, http://blog.sciencenet.cn/blog- 103425-958317.html】)
隨著 2016 年 AlphaGo 在圍棋游戲上取得突破進展,人工智能得到全方位關注。大家 熟悉人工智能對大眾來說,可能較早進入視線的是一部 AI 科幻電影。電影的名字就叫《人 工智能》,這是由著名導演史蒂文·斯皮爾伯格執(zhí)導的,華納兄弟影片公司于 2001 年拍攝 發(fā)行的一部未來派的科幻類電影。后來另外一部在 2015 年上映的電影《機器姬》(Ex Machina),使得大眾知道了由圖靈提出的測試機器是否具備人類智能的的著名實驗“圖靈 測試”。
但是大眾媒體認知中的 AI 與學術界中專家認為的 AI 存在較大差異,在我國人工智能 專家學者眼中的 AI,從《新一代人工智能發(fā)展規(guī)劃》中可見一斑。
2017 年 7 月 8 日國務院印發(fā)了關于“新一代人工智能發(fā)展規(guī)劃的通知”。在《新一代 人工智能發(fā)展規(guī)劃》中,對人工智能基礎理論方面提出了 8 個研究方向,分別為 1.大數(shù)據(jù) 智能理論;2.跨媒體感知計算理論;3.混合增強智能理論;4.群體智能理論;5.自主協(xié)同 控制與優(yōu)化決策理論;6.高級機器學習理論;7.類腦智能計算理論;和 8.量子智能計算理 論。在 2018 年 4 月 2 日,為落實《國務院關于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,引 導高等學校瞄準世界科技前沿,不斷提高人工智能領域科技創(chuàng)新、人才培養(yǎng)和國際合作交 流等能力,為我國新一代人工智能發(fā)展提供戰(zhàn)略支撐,教育部特別制定了《高等學校人工 智能創(chuàng)新行動計劃》(簡稱《行動計劃》)。在學科建設?面,《?動計劃》支持?校在 計算機科學與技術學科設置??智能學科?向,深?論證并確定??智能學科內(nèi)涵,完善 ??智能的學科體系,推動??智能領域?級學科建設。支持?校自主設置相關?級學科 或交叉學科。在專業(yè)建設?面,重視??智能與計算機、控制、數(shù)學、統(tǒng)計學、物理學、 ?物學、?理學、社會學、法學等學科專業(yè)教育的交叉融合,探索“??智能+X”的?才培 養(yǎng)模式。
從《行動計劃》中可以看出,我國大多數(shù)專家認為人工智能是計算機科學的一個分 支,這是由于研究人工智能的主要工具以及能夠?qū)崿F(xiàn)人工智能技術平臺的機器就是計算機, 人工智能的發(fā)展歷史是和計算機科學技術的發(fā)展史關聯(lián)在一起的。但目前由于人工智能具 有“頭雁”作用,人工智能已經(jīng)發(fā)展成為十分廣泛的學科,它由不同的學科領域組成,可 以說幾乎涵蓋了自然科學和社會科學的所有學科,其范圍已遠遠超出了計算機科學的范疇。今日的人工智能研究主流是以深度學習領銜的,基于大數(shù)據(jù)和強大計算能力的深度學習算 法已經(jīng)在計算機視覺、語音識別、自然語言處理等一系列領域中取得了突破性的進展。
但是,深度學習是機器學習的一個研究方向,而機器學習則是人工智能的分支之一。計算機與統(tǒng)計學習專家 Michael Jordan 認為:今天大多數(shù)被稱為“AI”的東西,特別是在公 共領域,都被稱為“機器學習”(ML)。在過去的幾十年里,ML 是一個算法領域,它將 來自統(tǒng)計學、計算機科學和許多其他學科的想法融合在一起,設計算法來處理數(shù)據(jù),做出 預測并幫助做出決定。他說:“應該把它叫 IA,稱作是增強智能更合適。并指出今后經(jīng)典 的人工模擬 AI 問題仍然值得關注。
然而,不同學科背景的專家學者的看法是不同的。由于早期聯(lián)結(jié)主義學派是從大腦互 聯(lián)網(wǎng)絡過來的,神經(jīng)科學、認知科學專家學者,包括部分計算機科學學者認為對人工智能 的進一步發(fā)展中類腦計算是重要的。在 2018 年 1 月 28 日,MIT 計算機科學&人工智能實 驗室教授 Tomaso Poggio 在《麻省理工科技評論》EmTech China 全球新興科技峰會上演講 中有這樣的內(nèi)容:“深度學習有點像我們這個時代的煉金術,但是需要從煉金術轉(zhuǎn)化為真 正的化學。首先我認為是機器學習的算法,第一是深度學習,第二是強化學習,他們都是 來自于認知科學以及神經(jīng)科學。”“深度學習可以幫助我們解決 10%的難題,剩下的 90% 呢?我的答案是:我們可能也需要來自神經(jīng)科學以及認知科學的研究,我們需要更好地了 解人的思維和大腦。”并且 The Center for Brains, Minds and Machines (CBMM)想通過以下 三條路徑解決這個問題:1、計算機科學+機器學習;2、神經(jīng)科學;3、認知科學。不過 按順序來看,排在第一位的還是計算機科學+機器學習
我國認知科學家陳霖院士認為新一代人工智能的核心基礎科學問題是認知和計算的 關系。(中國認知計算和混合智能學術大會(CCHI 2018),《新一代人工智能的核心基礎 科學問題:認知和計算的關系》的大會報告,[陳霖, 新一代人工智能的核心基礎科學問題:認知和計算的關系, 中國科學院院刊, 2018, 33(10):1104-1106.])。“如果說,深度學習來自 神經(jīng)系統(tǒng)的層次結(jié)構(gòu)的啟發(fā)。那么,起源于特定細胞的超越腦區(qū)的全腦成像,將為新?代 ??智能體系結(jié)構(gòu)提供深刻和豐富得多的啟發(fā)”。“??智能的基礎研究應當強調(diào)系統(tǒng)、 整體和?為的研究,應當?類為主,動物為輔;宏觀為主,結(jié)合微觀”。“??智能的基 礎研究要特別支持認知科學的實驗研究,要注重認知科學實驗為基礎的學科交叉。”
計算機科學家李國杰院士最近在一個論壇講到:“認知科學本質(zhì)上是?個實驗科學。認知的基本單元不是計算的符號,不是比特,?是?種整體性的“組塊”( chunk)。對上 百億年宇宙演化形成的極為精巧的?腦應有?夠的敬畏,破解?腦的奧秘可能需要?百年 甚?更長的時間,不是我們這?代?就能夠解決。”“圖靈認為“機器有沒有智能”不是科 學問題,因為“智能”沒有明確定義。從計算機科學誕?起,??智能與計算機科學本質(zhì)上就是?門科學。到目前為?,還不存在不采用計算技術的??智能。近年來??智能發(fā)展主要得益于數(shù)據(jù)資源的極?豐富和計算能?的飛速提?,??智能技術本質(zhì)上并沒有實質(zhì) 性的突破。因此可以說,??智能的復興主要是計算技術的勝利,摩爾定律的勝利!”
由深度學習領域三位專家 Ian Goodfellow、Yoshua Bengio 和 Aaron Courville 合著,張 志華等人翻譯的《深度學習》(Deep Learning)一書中,對深度學習與腦科學或者神經(jīng)科 學的關系的看法是:“如今神經(jīng)科學在深度學習研究中的作用被削弱,主要原因是我們根 本沒有?夠的關于?腦的信息作為指導去使用它。要獲得對被?腦實際使用算法的深刻理 解,我們需要有能?同時監(jiān)測(?少是)數(shù)千相連神經(jīng)元的活動。我們不能夠做到這?點,所 以我們甚?連?腦最簡單、最深?研究的部分都還遠遠沒有理解”。對此北京大學張志華 教授評論到[注 1] :“值得注意的是,我國有些專家熱衷倡導??智能與腦科學或認知學科的 交叉研究,推動國家在所謂的“類腦智能”等領域投??量資源。且不論我國是否真有同時 精通??智能和腦科學或認知?理學的學者,?少對交叉領域,我們都應該懷著務實、理 性的求是態(tài)度。唯有如此,我們才有可能在這?波??智能發(fā)展浪潮中有所作為,?不是 又成為?群觀潮?”。并指出“數(shù)學模型、計算?法和應用驅(qū)動才是我們研究??智能的 可?之道。”
隨著認知的深入,對人工智能發(fā)展需要重新思考。最近谷歌 Business Insight 團隊的數(shù) 據(jù)科學家,Takashi Jozaki 認為,Hinton 他們 1986 年 Nature 上發(fā)表的那篇論文的意義,并 不單單只是提出了反向傳播,更是“神經(jīng)網(wǎng)絡從心理學和生理學分離,轉(zhuǎn)向機器學習領域 的一個重大轉(zhuǎn)折。”(https://tjo.hatenablog.com/ entry/2018/10/23/080000) Hinton 他們在 2006 年的論文里也提到:“這樣的學習方法,似乎并不是大腦學習的一種合理模型。然而, 將這個方法應用在各種各樣的任務上后顯示,通過權重空間的梯度下降,可以構(gòu)建出很有 趣的內(nèi)部表征。這表明,很值得在神經(jīng)網(wǎng)絡中找出更有生理可行性的方法來進行梯度下降。” 我們可以看出,雖然神經(jīng)網(wǎng)絡研究起源于對生物體大腦的建模,但由于對神經(jīng)科學看法的 改變,逐漸與大腦模型的差異變得顯著。為了區(qū)分于生物學和神經(jīng)科學上的神經(jīng)網(wǎng)絡,所 以也稱為人工神經(jīng)網(wǎng)絡(ANN)。ANN 或聯(lián)結(jié)主義系統(tǒng),是由構(gòu)成大腦的生物神經(jīng)網(wǎng)絡啟 發(fā)的計算系統(tǒng),ANN 最初的目的是想像人腦一樣解決問題。但隨著時間的推移,注意力重 點開始轉(zhuǎn)移到了執(zhí)行特定任務上去,導致了從神經(jīng)科學的偏離。還有“盡管如此,受大腦 啟發(fā)的神經(jīng)網(wǎng)絡(和其綜合運用)還是有很大的應用可能性”。即使在已不把模仿人腦當 做目標的現(xiàn)在,神經(jīng)網(wǎng)絡還繼續(xù)沿用“神經(jīng)”這個詞。但是神經(jīng)網(wǎng)絡現(xiàn)在已慢慢遠離聯(lián)結(jié) 主義的起源,開始成為了大家公認的機器學習王者。
神經(jīng)生物學家楊雄里院士談當前腦科學的發(fā)展態(tài)勢和戰(zhàn)略時認為:人工智能有兩條途 徑可以實現(xiàn):一是跟腦的工作原理毫不相關,即不考慮腦的工作機制,僅從計算科學的角 度來設計和考慮;二是受腦的工作原理的啟發(fā),借鑒腦處理信息實現(xiàn)智能的特點來推進人工智能的研究,即類腦人工智能。這是兩條不同的路徑,但也有可能殊途同歸,只要能實 現(xiàn)人工智能都是值得鼓勵的。目前前者的研究更熱門一點,后者難度更大,但意義更深遠。楊雄里:中國腦計劃 : “一體兩翼” , 文匯報 2017 年 3 月 26 日 http://www.sohu.com/a/221020764_465915)。
從上面所列舉的觀點我們可以看出,目前是一個人工智能,眾多學派各自表述。俗話 說,屁股決定腦袋,一個人坐什么位置,往往決定了他思考的角度和范圍。不同學科背景 的人自然對人工智能的解釋不同。我們認為,只要不是大是大非的問題,各種觀點從學術 研究的角度來說均可表述,但對異端邪說,我們應該堅決反對。古人云:歲月如河,大浪 淘沙,泥沙俱下。在人工智能發(fā)展的浪潮下,大浪淘沙,最后留下的都是金子,是可以促 進人類社會健康發(fā)展的科學與技術。這也是一種符合適者生存的自然選擇法則。
雖然目前人工智能的研究熱門是脫離了心理和生理學的深度學習(機器學習),但也不 僅僅只是深度學習,人工智能研究也分為很多學術門派。Carlos E. Perez 在 Medium.com 寫 了一篇文章,將人工智能研究劃分為 17 種門派(Tribes),并給每個“門派”起了名字, 還設計了 Logo。(更詳細請參見 Carlos E. Perez, “The Many Tribes of Artificial Intelligence” https://medium.com/intuitionmachine/the-many-tribes-problem-of-artificial-intelli-gence-ai1300faba5b60#.4vf8ax9ab ). Perez 把深度學習中分成幾個子方法,包括了:The Canadian Conspirators, Swiss Posse, British AlphaGoist,還有 Predictive Learners 等。從這里可見深 度學習也是綜合了多種研究方法。
隨著時間的演化與研究的深入,深度學習遇到了瓶頸,人工智能的理論停滯不前。紐 約大學心理學教授 Gary Marcus 給過熱的深度學習潑了冷水,他列舉了深度學習的種種問 題 , 包括以下幾個方面:(Gary Marcus, Deep Learning: A Critical Appraisal, https://arxiv.org/abs/1801.00631, 2018.)
1)深度學習需要大量的數(shù)據(jù),對于可用的數(shù)據(jù)有限的場合,深度學習往往并不是最佳 的選擇;2)學到的知識并不深入而且很難遷移;3)難以處理層次化的結(jié)構(gòu);4)對于開放 性推理問題愛莫能助;5)深度學習依然不夠透明;6)深度學習遠未與先驗知識緊密結(jié)合;7)深度學習無法區(qū)分因果性與相關性;8)深度學習對環(huán)境的穩(wěn)定性提出要求,這可能會 存在問題;9)深度學習目前得出來的結(jié)果只是近似值,不能徹底相信;10)深度學習發(fā)展 到現(xiàn)在還是很難工程化。
Gary Marcus 在指出深度學習的種種問題的同時也肯定了目前的進展,“誠然,深度學 習在計算機視覺、強化學習、NLP 等領域都優(yōu)異地解決了不少疑難問題,但我們在對深度 學習抱有熱情的同時也應當看到,深度學習并不能解決所有的問題,它?超的提取特征和 非線性抽象的能?也遠不?以構(gòu)成通用??智能的基礎架構(gòu)。”同時也更希望各種技術和 認識方法可以齊頭并進,合力構(gòu)建出人類理想中的“人工智能”。
計算機科學教授、圖靈獎得主 Judea Pearl 的新書《因果科學》(The Book of Why: The New Science of Cause and Effect)則引發(fā)了一場關于人工智能未來以及深度學習是否會導致 接近一般人類智能的討論。Pearl 闡述了自己書中的觀點和對人工智能現(xiàn)狀的看法,包括當前人工智能無法執(zhí)行因果推理是一個嚴重的缺陷。他認為“深度學習是?種非常通用和強 ?的曲線擬合技術,它可以識別以前隱藏的模式,推斷出趨勢,并預測出各種問題的結(jié)果。曲線擬合?法在表示給定數(shù)據(jù)集?面的?個風險是過度擬合,即算法不能識別出數(shù)據(jù)中的 正常波動,最終會被?擾所迷惑。”“除非算法和由它們控制的機器能夠推理因果關系, 或者?少概念化差異,否則它們的效用和通用性永遠不會接近?類。”
在 2018 年 8 月 11 日由厚益控股和《財經(jīng)》雜志聯(lián)合主辦主題為“共享全球智慧 引領 未來科技”的世界科技創(chuàng)新論壇上,2011 年諾貝爾經(jīng)濟學獎獲得者 Thomas J. Sargent 認為 “??智能其實就是統(tǒng)計學,只不過用了?個很華麗的辭藻,其實就是統(tǒng)計學。好多的公 式都非常老,但是所有的??智能利用的都是統(tǒng)計學來解決問題。”。他還提出,“有好 多應用科學像?程學、物理學、經(jīng)濟學,我們會建立?些模型模擬世界運營……我們的目 的是希望解釋我們所觀察到的世界上的現(xiàn)象,?我們關鍵的?具是使用模型,然后放到計 算機里模擬。把模擬后的數(shù)據(jù)拿來,利用數(shù)學?法,去微調(diào)它的參數(shù),希望盡量接近于現(xiàn) 實。在這個過程中,我們扮演上帝的角?。”
暫且不論 Sargent 的觀點是否正確,是否能被主流的人工智能研究學者接受,我們應該 看到深度學習為代表的人工智能的局限性與今后應該如何發(fā)展。
最近(2019 年 1 月 25 號)《麻省理工學院科技評論》雜志的 AI 記者 Karen Hao 利 用當今最龐大的科學論文開源數(shù)據(jù)庫之一 “arXiv”,對深度學習研究領域的演化進行了分 析。Karen Hao 下載了截止到 2018 年 11 月 18 日“人工智能”部分的 16625 篇論文的 摘要,并對這些年來提到的詞匯進行了追蹤,以了解深度學習的發(fā)展究竟走到了哪一個階 段,以洞察 AI 下一步的發(fā)展方向。作者深入研讀了 25 年來的 AI 研究論文,結(jié)果表明深 度學習的時代即將結(jié)束。(參見 https://www.technologyreview.com/s/612768/we-analyzed16625-papers-to-figure-out-where-ai-is-headed-next/)
華盛頓大學的計算機科學教授、《終極算法》(Master Algorithm)一書的作者 Pedro Domingos 認為,長期以來,不同技術的突然興起和衰落一直是人工智能研究領域的特點。每十年都有不同觀點之間的激烈競爭。然后,每隔一段時間,一個新的技術就會興起,研 究人員都會聚集起來研究這個新興的技術。“換句話說,每?個?年,本質(zhì)上是某種技術 的統(tǒng)治時期:神經(jīng)?絡統(tǒng)治 了上世紀 50 年代和 60 年代,各種象征性的?法征服了 70 年代,知識庫系統(tǒng)在 80 年代?向巔峰,貝葉斯?絡引領 90 年代,支持向量機在 本世紀 00 年代爆發(fā),在 10 年代,我們再次回到神經(jīng)?絡。”“21 世紀 20 年代也不會例外”, 這意味著深度學習的時代可能很快就會結(jié)束。但是,對于接下來會發(fā)生什么,已經(jīng)有兩個截然不同的走向擺在我們面前——究竟是一種舊技術會重新獲得青睞,還是 AI 領域?qū)⒂瓉硪粋€全新的范式?Pedro Domingos 并沒有給出答案,但從我國新一代人工智能發(fā)展規(guī)劃 我們可以認為,在未來的 10 年,多學科多方位的融合發(fā)展是人工智能未來的發(fā)展趨勢。
圍繞人工智能今后的發(fā)展趨勢問題,微軟研究院機器學習組劉鐵巖等人認為機器學 習的未來十年研究熱點中包括可解釋的機器學習;輕量機器學習和邊緣計算;量子機器學 習;簡單而美的定律,貌似復雜的自然現(xiàn)象都由簡單而優(yōu)美的數(shù)學規(guī)律所刻畫,如偏微分 方程;還有社會機器學習等。(參見 https://www.msra.cn/zh-cn/news/executivebylines/techbylines-machine-learning)。
大多數(shù)專家學者認為發(fā)展新一代人工智能應該借鑒認知神經(jīng)科學的機制,利用機器學 習的數(shù)學工具,構(gòu)建人工智能的基礎理論體系。機器學習是以概率統(tǒng)計為數(shù)學工具的,有 學者想用概率統(tǒng)計的框架(例如信息瓶頸)不足為奇。作為自然科學的帶頭學科,物理學 是研究物質(zhì)運動最一般規(guī)律和物質(zhì)基本結(jié)構(gòu)的學科。用物理方法的框架也許是走向統(tǒng)一理 論的途徑之一[12] 。但是,由 David H Wolpert 和 William G Macready 提出的沒有免費午餐的 定理說明,沒有任何一個算法可以解決機器學習所有的應用。因此,針對特定的問題,需 要發(fā)展專門的方法來解決。例如為了克服卷積神經(jīng)網(wǎng)絡的缺點,深度學習大咖之一 Hinton 教授最近提出了膠囊網(wǎng)絡。一個膠囊網(wǎng)絡是由膠囊而不是由神經(jīng)元構(gòu)成。一個膠囊是一小 組神經(jīng)元,相當于一個功能模塊。用到圖像處理時,功能模塊可以學習在一個圖片的一定 區(qū)域內(nèi)檢查一個特定的對象(模式)[Sabour, Sara; Frosst, Nicholas; Hinton, Geoffrey E. (2017- 10-26). 'Dynamic Routing Between Capsules'. arXiv:1710.09829]。
深度學習的三駕馬車之一,Yann LeCun 在 IJCAI-2018 開幕式上給出了“Learning World Models: the Next Step towards AI”的演講。LeCun 表示人工智能革命的未來不會是有 監(jiān)督學習,也不會是單純的強化學習,而是需要學習一個具備常識推理與預測能力的世界 模型。從直觀上理解,世界模型就是一個具備關于世界如何運作的通用背景知識、具備預 測行為后果的能力、具有長期規(guī)劃與推理能力的模型。Yann LeCun 總結(jié)了三類學習范式, 分別是強化學習、監(jiān)督學習和自監(jiān)督學習,并認為自監(jiān)督學習(以前稱為預測學習)是實 現(xiàn)世界模型的一個潛在研究方向。演講最后 Yann Lecun 總結(jié)了技術和科學之間的互相驅(qū) 動和促進,如望遠鏡和光學、蒸汽機和熱力學、計算機和計算機科學等。并提出了幾個疑 問,1)什么相當于智能的“熱力學”?2)人工智能和自然智能背后是否存在底層原則?3)學習背后是否存在簡單的準則?4)大腦是否是進化產(chǎn)生的大量“hack”的集合?
在 2018 年 11 月 7 日,Yoshua Bengio 受邀來到北京參加第二十屆“二十一世紀的計 算”國際學術研討會。會上以及隨后受邀前往清華大學,他給出了題為“Challenges for Deep Learning towards Human-Level AI”的演講。Bengio 以 2017 年發(fā)布在 arXiv 的研究計劃論 文“有意識先驗”(The consciousness prior)為主旨,重申了他與 Yann Lecun 多年前提出 的解糾纏(disentangle)觀念:我們應該以“關鍵要素需要彼此解糾纏”為約束,學習用于 描述整個世界的高維表征(unconscious state)、用于推理的低維特征(conscious state),以 及從高維到低維的注意力機制--這正是深度學習通往人類水平 AI 的挑戰(zhàn)。人類的認知任 務可以分為系統(tǒng) 1 和系統(tǒng) 2 。系統(tǒng) 1 側(cè)重快速感知,而系統(tǒng) 2 認知任務則與系統(tǒng) 1 任務的方式完全相反,側(cè)重慢速有意識的行為---算法。Bengio 認為意識領域的研究正逐漸變 成主流,將“意識”稱作一個“先驗”,是因為意識是一個約束條件、一個正則化項、一 個假設,這就是我們可以用非常少的變量進行大量的預測。但是“具體??,我們的學習 理論在這?面仍然很匱乏。目前的學習理論假設測試分布與訓練分布相同,但是該假設并 不成立。你在訓練集上構(gòu)建的系統(tǒng)在現(xiàn)實世界中可能效果并不好,因為測試分布與訓練分 布不同。因此我認為我們應該創(chuàng)建新的學習理論,它應該不會基于“測試分布與訓練分布相 同”這樣?硬的假設。我們可以采用物理學家的?式,假設訓練分布和測試分布的底層因果 機制相同。這樣即使動態(tài)系統(tǒng)的初始條件不同,底層物理機制仍然不會改變。那么如何去 做呢?事實上,構(gòu)建好的世界模型令?望??畏,我們沒有?夠的計算能?對真實世界建 模,因此我認為更合理的?法是利用機器學習,機器學習研究不是關于 AI 應該具備哪些 知識的研究,?是提出優(yōu)秀的學習算法的研究。優(yōu)秀的機器學習算法理應在任何分布中都 可以良好運?。”
最近 M. Mitchell Waldrop 在美國國家科學院院刊(PNAS)發(fā)表了一篇題為“新聞特 寫:深度學習的局限是什么?”的評論文章(M. Mitchell Waldrop,News Feature: What are the limits of deep learning?, PNAS, 2019-01-22 , DOI: 10.1073/pnas.1821594116 )。在這篇 PNAS 特稿中,Waldrop 簡述了深度學習的發(fā)展歷史,認為一切光榮得益計算力的爆發(fā),才 使得人工智能有了今天的蓬勃發(fā)展。但是,由于深度學習具有多種局限,包括易受對抗攻 擊、學習效率低、應用不穩(wěn)定、缺乏常識以及可解釋性等,Hinton 提出的問題依然存在:“深度學習到底缺少了什么?”。從可計算性的角度來看,人工智能研究領域越來越多的人 認為,為了解決深度學習的缺陷,需要有一些根本性的全新想法。Waldrop 因此列舉了幾 個他認為具有新想法的工作,其中之一是 DeepMind 團隊的生成查詢網(wǎng)絡(Generative Query Network -GQN) [11] 。
在 GQN 架構(gòu)中,有兩個不同的網(wǎng)絡:生成網(wǎng)絡(generation network)和表示網(wǎng)絡 (representation network)。GQN 模型由兩部分構(gòu)成:一個表征網(wǎng)絡以及一個生成網(wǎng)絡。表征 網(wǎng)絡將智能體的觀察作為輸入,并生成一個描述潛在場景的表征(向量)。然后生成網(wǎng)絡 從之前未觀察過的視角來預測(想象)該場景。GQN 建立在最近大量多視角的幾何研究、 生成式建模、無監(jiān)督學習和預測學習[10] 的基礎上,它展示了一種學習物理場景的緊湊、直 觀表征的全新方式。GQN 本質(zhì)上不是訓練一個大型網(wǎng)絡,而是讓兩個網(wǎng)絡協(xié)同工作。
Waldrop 的最終結(jié)論是深度學習不是實現(xiàn) AI 的途徑,認為圖網(wǎng)絡(graph network)可 能會引領 AI 未來發(fā)展。圖網(wǎng)絡是一種神經(jīng)網(wǎng)絡,它將圖作為輸入(而不是原始像素或這一 維波形),然后學習推理和預測對象及其關系如何隨時間演變。圖網(wǎng)絡方法已經(jīng)證明了在一 系列應用中可實現(xiàn)快速學習,以及人類水平的能力,包括復雜的視頻游戲。此外,圖網(wǎng)絡 可以使網(wǎng)絡不那么容易受到對抗性攻擊,原因很簡單,它是一個將事物表示為對象,而不是像素模式的系統(tǒng),不會輕易被一點噪音或無關的貼紙所干擾(注:關于貼紙,是指在交 通標志牌上的貼紙干擾了識別,也就是所謂的“對抗樣本”,參見:https://futurism.com/wemay-have-just- uncovered-a-serious-problem-with-how-ai-see/)。
綜上所述,從這些已有的理論與方法,我們可以看出,雖然每種理論及方法或多或少地 有這樣那樣的問題,但是都是朝著可能正確的方向邁進。目前有些理論與方法彼此矛盾, 而另一些理論與方法可以結(jié)合起來使用。如前面所介紹的,目前人工智能研究能否形成一 種新型的統(tǒng)一的理論,該理論的目標是構(gòu)建可以實現(xiàn)的世界模型,那這個統(tǒng)一理論應該是 什么呢?有學者認為為了更好地描述神經(jīng)網(wǎng)絡和神經(jīng)系統(tǒng),我們需要一套新的數(shù)學語言和 框架,這又相當于提出了新的問題,這個新的框架在哪里呢?目前學術界里還沒有統(tǒng)一的 思路和共識。但是我們已經(jīng)看到有些理論學家借鑒統(tǒng)計物理研究神經(jīng)網(wǎng)絡的復雜性。十九 世紀末起步的統(tǒng)計力學(熱力學與統(tǒng)計物理)發(fā)展到今天已經(jīng)是較為成熟的學科。統(tǒng)計力 學所研究的問題與理論神經(jīng)科學研究的問題有不少相通之處。這兩個學科都是研究復雜的 宏觀行為是如何由微觀結(jié)構(gòu)和性質(zhì)產(chǎn)生的。而且在人工智能研究的 17 個門派之一就是復 雜性理論學家,按照 Carlos E. Perez 的說法,“Complexity Theorists:這一派的人采用來自 物理學,基于能量的模型,復雜性理論,混沌理論和統(tǒng)計力學的方法。Swarm AI 可以說屬 于這一派。如果任何團隊稱他們能找到深度學習為什么能起效的很好的解釋,那么他們可 能是這一派的。”在有大多數(shù)人可以接受的統(tǒng)一的世界模型及研究思路之前,我們可以在 多個方向進行嘗試,基于復雜性科學的研究也是值得探索的路線之一。
那應該如何克服深度學習具有的多種局限呢?我們認為今后既不是舊技術重新獲得青 睞,也不是 AI 領域?qū)⒂瓉硪粋€全新的范式。最可能的路線是在舊技術基礎上,發(fā)展新的 范式。因為歷史是在螺旋式演進的,我們的認知水平也是在不斷提高的。牛頓說過他是站 在巨人的肩膀上,任何具有歷史的學科均是要在前人研究的基礎上蓋大廈,不是建空中樓 閣的。
如前面所述,我們認為計算智能是人工智能發(fā)展的新階段,是受自然啟發(fā)(Nature inspired)的智能。計算智能的思想來源于物理學、化學、數(shù)學、生物學、心理學、生理學、 神經(jīng)科學和計算機科學等學科的現(xiàn)象與規(guī)律,融合了人工智能的三大學派形成了一個有機 的整體。通過多學科多技術融合形成的系統(tǒng)從而可實現(xiàn)優(yōu)勢互補,將會比單一學科或技術更 加有效, 并且能夠取得更大的成果。因此,我們提出在借鑒認知神經(jīng)科學的機制,利用機 器學習中的數(shù)學工具,發(fā)展新一代人工智能路線上,應該以計算智能為基礎,多頭并進, 發(fā)展協(xié)同學習系統(tǒng)[9] 。
物理學的核心是發(fā)現(xiàn)并解釋物理現(xiàn)象、物質(zhì)結(jié)構(gòu)、相互作用及運動規(guī)律的,而人工智能 的核心是創(chuàng)造智能。為了發(fā)展人工智能的基礎理論,人工智能研究者應當融合并接受一切 學科,兼容并包,采取擱置爭議共同發(fā)展的策略。重提上世紀九十年代我國神經(jīng)網(wǎng)絡委員 會的口號:“攜手探智能,聯(lián)盟攻大關”。
清華大學張鈸院士說過,神經(jīng)網(wǎng)絡現(xiàn)在還在演進,關鍵是怎樣選擇正確框架以及訓練, 我們要把感知和認知放到同一個空間里,不是簡單用概率統(tǒng)計的理論;我們現(xiàn)在正在通往 AI 的路上,現(xiàn)在走得并不遠,在出發(fā)點附近,但人工智能永遠在路上,大家要有思想準備, 而這也就是人工智能的魅力。
的確,人工智能永遠在路上,這意味著需要長時間的演化才有可能接近 AGI。這里所說 AGI 是按照一種定義描述的:“Artificial General Intelligence 是具備與人類同等智慧、或超 越人類的人工智能,能表現(xiàn)正常人類所具有的所有智能行為。”我們的長遠目標,或者說 夢想是協(xié)同學習系統(tǒng)通過長時間協(xié)同演化,最終實現(xiàn)通用人工智能。“我們都在努?奔跑, 我們都是追夢?”,AGI 是夢想的未來,不是現(xiàn)在,是需要長時間演化才有可能達到的目 標。這個時間有多長,也許需要地球流浪的時間,也需是一萬年。但是“一萬年太久,只 爭朝夕”,我們需要努力使演化過程加速。但目前考慮如何在近期實現(xiàn) AGI 尚為時過早, 如 Bengio 所說,“構(gòu)建好的世界模型令人望而生畏,我們沒有足夠的計算能力對真實世界建模”。為避免在人工智能方面不切實際的幻想導致人工智能的寒冬很快再次來臨,需要 制定近期可實行的目標。也許從深度學習過渡到協(xié)同學習是可能的演化方向之一[9,10]。