1957年,人工智能(artificial intelligence,AI)的先驅、通用問題求解機(Gobal problem solver)的發明者之一赫伯特·西蒙(Herbert A.Simon)曾說過:“我不是故意讓你震驚,但概括來說,現在世界上就已經有了可以思考,可以學習和創造的機器,而且它們的能力還將與日俱增,一直到人類大腦所能夠應用到的所有領域。”
西蒙當時曾預言,計算機會在十年之內成為國際象棋冠軍。然而現實比西蒙的預測落后了三十年——直到1997年,IBM的電腦“深藍(Deep Blue)”才戰勝了象棋冠軍加里·卡斯帕羅夫(Garry Kasparov)。
在人工智能發展早期,學術界和工業界對其前景持有一種過分樂觀的態度——這種樂觀與其說是對技術的期望過高,倒不如說是當時人們對機器能力的估計實在是過低,以致于當計算機表現出一點點聰明,人們就為之驚嘆,而這種驚嘆又很容易演化成一種過分的自信。
這樣的自信自然無法長久。度過了最初的興奮后,無論是工業界還是學術界都遭遇了巨大的困難。以機器翻譯為例,早期人們以為機器翻譯只需要進行字典的對應轉換,再加上人為制定的語法規則就能實現;而實際應用時卻發現,這樣的系統無法應對哪怕稍有復雜的多重語義,也無法針對上下文語境做出恰當的反應,很多理論上能夠實現的算法也無法在有限的計算資源上展開。
1973年,英國政府委托數學家詹姆斯·萊特希爾爵士(Sir James Lighthil),對人工智能進行全面評估。結果顯示,人工智能無法應對現實世界中存在的“組合爆炸”問題,因此只能實現一些簡單的應用。以這份報告為基礎,英國政府停止了對AI領域的研究支持。在這之后,人工智能研究陷入了長久的沉寂。
在近半個世紀之后,人工智能領域才又再一次回到人們視線,而這一次,我們擁有的資源與之前可謂不可同日而語——計算資源已經部署在云端,像水和電一樣唾手可得;互聯網所容納的信息超過了前人所有的知識儲備,現實和虛擬世界也不再涇渭分明。以深度學習為代表的算法發展,也使得機器有能力處理如此龐大的數據。
如果說這些只是理論,那么IBM的超級計算機“沃森(Watson)”在電視節目《危險邊緣》(Jeopardy)中戰勝人類,獲得年度總冠軍;Google X的虛擬大腦在沒有預先輸入的情況下,獨立地從Youtube上的1000 萬幀圖片中學習到了“貓”的概念,就早已不是理論上的可能性,而是真實發生的現實。
第四次工業革命的前夜
尼爾·杰卡布斯坦(Neil Jacobstein)在一次演講中曾說過這么一句話:“當你站在太空中回望地球,你看不到爭吵不停的200多個國家;而當你深入自然奧秘之中,你也看不到界限分明的學科劃分。”這句話在一定程度上,可以代表杰卡布斯坦所在的奇點大學(Singularity University)的宗旨。與其說這所大學在教授最前沿的技術,倒不如它在傳播最先進的理念。奇點大學專注的不是技術,而是現實世界的改變,這種改變無疑需要一種融合的視角才可能打破我們心智的成見,去實現真正的進步。
這一點對于杰卡布斯坦來說,并不是問題。作為奇點大學的人工智能與機器人項目負責人,他曾在斯坦福研究增強決策系統(augmented decision system),并擔任過創新應用人工智能會議主席,同時有著環境科學與分子生物學背景。杰卡布斯坦對于整合也是游刃有余。
在杰卡布斯坦眼中,人工智能的發展同世界的改變一樣,需要融合。杰卡布斯坦將AI劃分為三個大的領域:機器學習,規則化的知識庫,以及對于人類大腦的逆向工程。這三個方面也恰好對應著人工智能的三種主要做法。
機器學習主要的目的是使機器擁有學習的能力。舉例來說,當我們登錄電子郵箱時,遇到一封廣告郵件。我們手動將這封郵件標記為廣告,并將其歸為垃圾郵件。這個動作其實就是在對機器進行指導,在機器學習中,這一過程稱之為標注,而機器可以從所有被標注為垃圾的郵件中,發現其共有的模式,并使用這種模式來對未知的郵件進行預測。此外,機器也可以在沒有預先輸入的情況下,自己進行學習,例如上文提到的Google X虛擬大腦。
機器學習示例。圖片來源: yu.he
規則化的知識庫則為機器提供了推理能力。當超級計算機沃森在《危險邊緣》中面對這樣一個問題:“When 60 Minutes premiered, this man was U.S . President(當《60分鐘》初次上演時,這個人是當時的美國總統)”時,Waston需要使用句法分析之類的技術對句子進行句法分解,然后確定“permiered”的語義后面關聯的是一個日期;同時要對“60分鐘”進行語義消歧,確定它指代的是某個電視節目而非具體的時間。在進行句法分析后,沃森需要最后根據確定的日期,推斷當時在位的美國總統。
規則化知識庫示例。圖片來源: yu.he
人腦逆向工程在人工智能領域也被稱為聯結主義,其主要內容是研究如何模擬人類大腦的神經網絡運作——人工智能的發展受神經科學啟發頗多,特別是在計算機視覺方面。深度學習算法在圖像上對圖像特征的表示,與一些生物學上的成果具有驚人的一致性。而如果我們要構建通用人工智能(Artificial Genral Intelligence,也稱強人工智能。即像人類一樣,甚至超越人類的智能系統),那么模擬神經網絡看起來是最有前景的一條路徑。
然而也有一些有識之士,對人工智能提出了不同的聲音。一個有趣的現象是,在這些聲音中,無論是對人工智能的發展過度樂觀因而認為人工智能終將滅絕人類,還是對人工智能的發展過度悲觀認為人工智能根本無法發展出真正的意識,都是圍繞著人類的自主意識在做文章。
提到這個問題,就不得不對強AI做更進一步地闡述。當前的人工智能發展,更多是針對某個問題,發展對應的算法和技術,例如圖像領域的技術無法直接應用到語言領域;而在這方面,人腦能夠表現出比當時的AI更強的適用性。
這就導致許多人對人工智能的前景并不看好,并稱之為集郵式的工作方法:我們做出了推理模塊,然后拼上學習模塊,然后再拼上視覺模塊——把每個子領域的功能做好,然后再組合出一個完整的智能系統出來。
強AI正是針對這樣的現狀。強AI的研究者認為,人類智能不是這樣拼起來的,在我們沒有理解人類智能的運作方式前,拼合式的做法只是做出了一堆零散的工具。因此他們致力于發展智能的統一框架。強AI可能是每個AI從業者心中的圣杯,無論是Google虛擬大腦之父吳恩達(Andrew Ng)追求的大腦皮層單一算法,還是《人工智能的未來》(On Intelligence)一書的作者杰夫·霍金斯(Jeff Hawkins)所致力研究的腦皮質學習算法(Hierarchical Temporal Memory),無一不是在試圖克服這種拼合式的智能,轉而追求一個更基礎的框架。
除了對做法的質疑之外,還存在著對于機器本性的質疑,哲學家約翰·塞爾(John Rogers Searle)大名鼎鼎的中文屋即是其中代表。希爾勒這一思想實驗的焦點在于,機器只是機械地執行人們交給他的命令,并沒有產生智能。
而斯圖爾特·羅素(Stuart Russel)在《人工智能:一種現代方法》(Artificial Intelligence A Modern Approach)中舉了一個例子來反駁希爾勒:我們能夠說CPU會開立方根么?眾所周知,CPU所能夠執行的基本操作,只有加1、減1、存儲、移位等等。然而可以說,CPU不能開立方根么?
希爾勒的思想實驗的問題在于,他混淆了不同的層次(這也是在談到意識問題時,大部分情況下人們所犯的錯誤)——我們并不會討論這個人是否擁有智能,而是說這個房間作為一個“整體”,是擁有智能的。正如我們不會說人類大腦的布羅卡區擁有智能,而是說這個人擁有智能一樣,即使布羅卡區在語言的產生中發揮著極重要的作用。
其實人工智能開創者之一的阿蘭·圖靈(Alan Turing)早在1950年的論文《計算機器與智能》中就給出了意見。而人盡皆知的“圖靈測試”之所以提出,最大的原因就在于“智能”這個概念是模糊和易混淆的,我們需要使用行為來定義智能。沒有外部可感的行為,空談大腦中意識的意向性和靈魂,是沒有價值的。
而另一方面,將人工智能想象成滅絕人類的邪惡機器人,終有一天要取代人類的想法也由來已久。但是與其考慮人工智會能像電影《黑客帝國》中描述的那樣,將人類奴役并毀滅,我更愿意列舉每年交通事故的死亡人數,來論證沒有什么便利是沒有代價的。在一項技術推廣前,進行審慎的評估并做好風險控制,才是更應該做的事情。
正如杰卡布斯坦在TED演講所稱,要應對即將到來的人工智能革命,我們需要在數學素養、生態素養,尤其是道德素養上進行不斷地自我提升,從而確保當我們手持利器之時,不會對同胞兵刃相見。
人們對人工智能最多的討論,其實更像是對我們自身的討論——關于自身的情感,關于自身在宇宙中的地位,關于自己是渺小還是偉大的一種心情。畢竟,用心理學的觀點來看,人工智能,這個除了人本身以外最像人的東西,實在是我們心理投射里一個再好不過的客體。(編輯:Calo、球藻怪)
擴展閱讀
當我們享受著科技帶給的便利時,一些人卻并不滿足,甚至看到了技術可能帶來的威脅。因此他們提出要聚集世上最聰明的大腦,來學習世上最前沿的科學,以解決世上最宏大的問題。【奇點大學:從今天開始,思考如何改變1億人】
請戳“閱讀原文”