作者:【英】布萊·惠特比
出版社:浙江人民出版社·湛廬文化
出版時間:2019年3月
一本書打開人工智能世界的大門。
本書從人工智能領域的發展史、存在的普遍爭議和誤區、人工智能的應用、人工智能與其他學科的關系、人工智能面臨的挑戰和未來、人工智能的社會影響等角度切入,以通俗易懂的案例帶領讀者迅速了解人工智能領域,開啟一段人工智能之旅。
測一測:你真的了解人工智能嗎?
1.在哪年的國際象棋錦標賽中,超級計算機“深藍”一舉打敗人類國際象棋冠軍加里·卡斯帕羅夫:
A 1975
B 1976
C 1997
D 1998
2.圖靈測試的思想源于以下哪篇文章:
A 《計算機器與智能》
B 《會思考的機器》
C 《思想即我》
D 《理解智能》
3.以下哪個是大腦給人工智能研究帶來的直接靈感:
A 機器學習
B 人工神經網絡
C 虛擬現實
D 遺傳算法
4.在一個密閉房間內,只有一個空槽可以傳入、送出紙張。在房間里,有一個人和一大堆用英文書寫的指令書。屋外的某人把一張寫滿了線條的紙送入房間里。屋里的人查詢指令書。指令書提到,如果這組線條被放入房間里,那么另外一張寫有不同線條但描述精確的紙就必須被送出房間。屋里的人完全不知道輸入房間的線條是中文字符,這些字符代表了用中文書寫的問題。而輸出的線條集合是對應這些問題的準確答案。這就是著名的中文屋實驗。那么,以下哪種描述是正確的:
A 因為屋里的人能夠回答用中文提出的問題,那么他一定能夠理解中文。
B 屋里的人并不理解中文,他所做的只是在執行指令。
C 不確定。
D 人工智能可以完成這個實驗。
5.以下哪個描述不是“意識”的含義:
A 與睡眠相對的意思,即清醒的——麻醉師所謂的有意識。
B “有自我意識的”,比如“這一刻,我開始意識到,我對即將在舊金山的這種天氣情況下著陸,感到非常焦慮”。
C “你也許能夠將那些能力放在機器人里,但是它仍然無法擁有意識。”
D 那些“使你成為你,并且只能成為你”的東西。
前言
人工智能正在刷新未來
撰寫《人人都該懂的人工智能》這本書的目的,是為了引導各位讀者走進人工智能的奇妙世界。就像“新核心素養系列”的其他書一樣,本書并不需要讀者提前儲備這一領域的基礎知識,我只是希望,將人工智能這一主題,以及縈繞在其周圍的那種令人興奮的情緒,以一種“去技術、減術語”的方式傳遞給廣大讀者。
人工智能算是人類歷史上最激動人心的挑戰之一,或許我們甚至可以去掉“之一”兩個字。不過那些相對嚴肅的書可能很難傳遞出這種令人激動的感覺。然而,無數來自各行各業的天才,先后投身到各種人工智能挑戰之中,并義無反顧地傾注了無盡的熱情,這也讓人工智能成了一個非常令人興奮的研究領域。有些挑戰,乍看之下似乎是癡人說夢,但挑戰“不可能”、無視那些世俗眼光,恰恰是新興科學研究領域的特點。在從事人工智能寫作的20余年時間里,我明白要實現這一領域的某些目標有多么困難。但是在我看來,能夠和這樣一群人同處一室是一種無價的特權。人們可能會說有些東西根本無法實現,可這群人偏不信,他們走出房間,拼命去實現。
人工智能并不僅僅是一些雄心勃勃的長遠目標,實際上,它也是一項非常成功的技術。曾經的前沿理念,已經被應用到日常的計算技術之中。有一些我以前的學生和同事也進入了商業領域,通過開發、利用人工智能技術賺得盆滿缽滿。
人工智能領域從不缺少出色的書籍。然而,這些書中沒有幾本真正適合初學者。學校里選用的教科書往往更偏向技術層面,熟悉、理解各式各樣的專業符號也就成了閱讀這類書的必修課。
人工智能是一個非常多樣化的研究領域,這本書(或者其他任意一本)勢必無法涵蓋人工智能研究和技術的方方面面。為了讓普通讀者盡可能多地認識這一領域,我難免會有所取舍,只能簡要地描述一些技術細節。拓展閱讀部分的參考書目應該能幫助好學的讀者自行尋找、補充缺失的細節。
由于本書主要面向普通讀者,所以我會盡可能地避免引用公式、計算機代碼、邏輯或符號表達,同時,我也將最低限度地引用學術文章。從這點來看,這本書完全不同于人工智能教科書——這類學校用書中有很多出色的讀本。我個人最喜歡的書目會在“拓展閱讀”部分列出,不過,如果哪些書沒有被收錄其中,并不意味著我對它們的內容抱有成見。
若你想在人工智能行業謀得一職,那么在可能的情況下,你應該學習一些計算機編程知識。這并不是因為人工智能研究人員幾乎把所有時間都用來編寫計算機程序——實際上,他們絕大部分時間都在思考復雜的問題,只是因為計算機編程是這一領域的入門要求,就像是人工智能行業的“通用語言”。
人工智能的兩大誤區
關于人工智能,有兩個流傳甚廣、危害不小的誤區,我會在本書中對之全面擊破。第一個誤區是,一些人宣稱對人工智能的研究注定會以失敗告終(偶爾有人更言辭激烈地聲稱人工智能不可能實現)。這種說法顯然是錯誤的。人工智能的成功正源源不斷地為世界帶來新技術,改變著人們的生活方式。讀者可以在本書的各個章節中看到人工智能的成功案例。毫無疑問,人工智能專家將繼續從他們的研究中剝離出那些有用的日常技術。人工智能同樣成功地帶來了大量重要的思想和方法,對科學和藝術等其他領域造成了巨大影響。
這類錯誤的說法之所以能夠持續傳播,主要是因為人們對人工智能目標的誤讀。大家很容易被這些目標搞暈,因為一直以來,關于人工智能的目標都沒有定論——從讓計算機更易使用到理解人類思維,不一而足。總有一些人表達著自己對人工智能的悲觀態度,無論是這個領域的研究者還是圈外人。研究方法和目標的不確定性及流動性在新興的研究領域中十分常見,而這種變化性也可能給這些新興領域帶來幫助。
第二個誤區則是,人工智能“一旦取得了成功”,人類便將淪為全能機器這個新物種的奴隸。這種說法不僅是錯誤的,簡直就是荒謬的。必須承認的是,這類傳言的肆虐要歸咎于人工智能領域的某些學者。不過,即便如此,這仍然是無稽之談。無論是現在的人工智能技術,還是未來可以預見的人工智能發展,都不會給我們帶來這種“反烏托邦式”的前景。到目前為止,人工智能一直都被證明是一項造福人類的技術。與其他技術領域相似,人工智能領域也存在著成本與收益的平衡,我們將在后文中對此進行詳細探討。與20世紀下半葉興起的很多技術相比,人工智能仍然是人們喜聞樂見的。
解鎖人工智能的旅程
也許大多數關于人工智能的書都會在一定程度上偏向某些特定的方法,而忽略或貶低其他方法。不過,對初學者來說,這樣的內容并不合適,初學者指南應該給讀者帶來整個領域的概況。誠然,我的個人觀點會充斥全書,但我會盡可能地做到兼收并蓄。出于相似的原因,在撰寫本書時,我也會盡可能地避免使用傳統方式來展示內容和主題,因為這會讓人們產生一種錯誤的印象,誤以為新成果已經取代了先前的技術。實際上,人工智能的發展并不是線性的。往往某些技術和思想能夠吸引大家的目光長達10年之久,然后被取代,又在幾個10年之后被人“重新發現”,重歸領域前沿。
本書第1章將解答關于“什么是人工智能”的問題,圈外人往往會自然而然地認為,這一領域只會由一種思想占據主流地位。事實并非如此,人工智能領域存在著普遍的爭議,尤其是在涉及這一領域的準確范疇和目標時。苦苦思索這一領域的定義,特別是對一個在過去數年里一直進行相關教學和寫作的人來說,可能會顯得太過任性。然而,記住這一點非常重要:定義是科學研究過程中的關鍵步驟,而像人工智能這樣方興未艾的科學,有足夠的空間來吸納不同的觀點和技術。
第2章關注人工智能的應用。這一章將對人工智能的部分成功應用案例及原理進行解釋。
第3章將介紹由生物學啟發而展開的人工智能研究及應用,包括設計、打造類似人腦形式的計算機程序,以及受模仿生物進化啟發而開發出的程序。
在第4章,我們將重新回歸主題,審視仍然留存在人工智能領域的挑戰,以及當前嘗試應對這些挑戰的一些研究方向。
第5章關乎人工智能的擴散,主要針對人工智能更廣泛的影響。作為一門科學,人工智能通過向外傳輸強大的、生命力極高的思想,同樣為其他科學、藝術領域帶來了影響。而現在,這一點在認知科學領域的發展中尤為明顯。受到人工智能的思路和技術啟發,這一新興科學領域已經取得了長足的進步。最近25年,在我任職的大學中,認知科學已經從少數幾位背景各異的研究人員的課余活動,變成了全校最大的科學學科。
第6章將著眼于人工智能的社會影響。作為一項技術,人工智能已經帶來了一定程度的社會影響,而我們想要的東西可能不止于此。我們已經進入這樣一個時代:人類會依賴智能機器,讓它們幫助我們完成一些腦力勞動。人們可能會擔心,有朝一日自己會顯得多余,變得頹廢,但實際上,我們一直都在將機器和技術作為跳板,以此尋求超出我們想象的、更偉大的人類成就。對我來說,能得到這樣一個機會來介紹如此令人興奮的趨勢,無疑是一項殊榮。
● 拓展閱讀
斯圖爾特·羅素(Stuart J.Russell)和彼得·諾維格(Peter Norvig)的《人工智能:一種現代的方法》(ArtificialIntelligence, A Modern Approach
)(2003年)是一本不錯的人工智能通識讀本。它采納了基于代理(agent-based)的人工智能方法,想要追蹤本書中的諸多觀點,這會是一個不錯的切入點。
瑪格麗特·博登(Margaret Boden)的《人工智能與自然人》(Artificial Intelligence and Natural Man
)(1987年)介紹了許多早期人工智能程序,這本書的技術性與羅素、諾維格的著作相比略低。
如果你決定學習計算機編程,最好的方法或許是動手實踐,而非抱著一本書埋頭苦讀。
無處不在的人工智能
人工智能是指對人類、動物、機器智能行為的研究,以及將此類行為融入人造品中的嘗試與努力。它算得上人類歷史上最艱巨、最激動人心的事業之一。
乍看起來,實現人工智能似乎并無明顯的困難,不過,追逐這一目標的過程,卻讓人們逐漸認識到此中險阻。有人會將太空探索的難度與人工智能研究的難度相比較。不過,二者其實毫無可比性。因為我們對太空探索中涉及的技術難題多少有所了解,但對擺在人工智能面前的絆腳石幾乎一無所知。
不過,另一方面,雖然人工智能研究非常艱難,但無論從實用角度還是理論層面來看,都是回報大于付出的。從實用角度來看,人工智能早已證明了自身。就像我們將在本書第2章中看到的,人工智能的應用以及對人工智能的研究所帶來的衍生品,已經在塑造著我們的科技和社會,而在未來,這樣的影響還會加劇。理論層面的回報則顯得更加令人興奮。對于人類提出的那些關乎自身以及所處世界的最困難的疑問,人工智能都能帶來(現今也逐漸開始帶來)一些科學的理解。我們正處于一場旅行的起點,并將走向最具挑戰的“內心世界”,那里由一些基本的問題構成,比如“作為一個思維存在,這究竟意味著什么”。
在很多人看來,這一科學追尋是令人緊張的。的確如此。我們最珍視的一些人類屬性可能會被科學加以解釋,這種可能性本身就像是某種威脅。
◎ 首先,有一點非常重要,那就是不要將這種威脅視作妖魔鬼怪。正如我們將要看到的,人工智能的研究仍然沒有觸及人類思維的諸多方面,有些內容甚至可能永遠不會被研究到。
◎ 其次,舉例來說,即便我們早已對彩虹的形成做出了略顯無趣的解釋,但這并不會讓它的美麗有所減損。如果在未來的某一天,我們也能給人類的創造力賦予一種科學的解釋,這同樣不會讓創意產品變得丑陋無趣。人類智能的產物,并不會因為這些解釋而變得暗淡。
這一威脅真正的源頭,可能是人類對未知的神秘事物的偏愛。在有關世界的故事中,人們總會習慣性地添加一些神秘色彩,特別是在講那些“做重要決策”或“有了最好的創意”的故事時。不過,與此同時,人類也被驅動著去探索。就像我們必須不斷努力去尋找宇宙的邊界一樣,我們也需要不懈地探索人類及其他動物的智能是如何運作的。智能以及它所帶來的那些奇妙的衍生品,并不會因為這種調查而失色。相反,我們在讓機器獲取某些簡單的智能行為時,所遇到的意外的困難,會激發我們對自然智能的奇妙產生敬畏。
人工智能定義的另一個重要結果,其實在本章開頭已經給出,那就是,它顯然已經超越了研究的傳統界限。它既是科學也是工程學,因為這一領域既包括對智能行為的研究,又關乎如何去打造這些行為。的確,人工智能領域的工作通常會無視科學和工程學之間的界限,因為它需要通過建造的過程來追尋原理。聽起來更激進的是,實際上,我們在很多地方都能夠發現“智能行為”。
智能行為存在于蜜蜂的交流中,存在于股票交易過程和股價的變化中,存在于《哈姆雷特》里隱喻的使用中,同樣也存在于自動空中交通管制系統中。我們想要了解它,就必須做好準備,在所有這些地方,甚至更多的領域中追尋它。這讓傳統的藝術與科學的邊界、工程學與生物學的邊界,個人與群體的邊界,都變得毫無意義。
一直以來,人工智能都是一項真正意義上的跨學科研究,它是藝術也是科學,是工程學也是心理學。這些抽象的論斷聽起來有些夸大其詞,不過你也應該聽說過,人工智能編寫的一些程序已經能夠模擬一個偏執的精神分裂癥患者的咆哮,或者模擬出生物的出生、養育以及進化的過程。有些人工智能程序能夠發現新的數學定理,有些則能夠完成爵士樂的即興創作。人工智能產生了能檢測到欺詐性金融交易的程序,也創造了能夠收走實驗室中空可樂罐的機器人。有的人工智能程序能夠繪畫,有的能夠進行醫療診斷,有的能夠授課,還有的能夠學習。
這并不是想給人施加一種印象:人工智能已經占領了全部知識領域。事實遠非如此。人工智能取得的這些成功大多是淺層的、笨拙的,而且難以在其他領域進行推廣。相比之下,倒不如說,這些實踐是我們對未來某一天可能會實現的成就的誘人一瞥。最重要的是,這些小成就是那廣闊愿景可能實現的證據,它不斷地激勵著人們進行人工智能研究。
人工智能的3大誤解
理解人工智能的第一步也是最重要的一步,就是摒棄你的先入之見。相信大多數讀者在此之前,都已經或多或少對人工智能有一些朦朧的見解。然而,這些看法有可能是完全錯誤的。在繼續前進之前,你應該盡可能地放棄這些想法。
舉例來說,你或許對“智能”這個詞有著某些理解。這種理解可能會讓你假設,人工智能與創造這一種類智能的人類智能有所關聯,而學者們又把這種智能安插在某些機器中。不過,在本書中你將反復看到,這樣的假設實際上誤導性非常強。人工智能的研究不斷顯示出,我們對自己的智能并沒有任何科學的理解。而更令人驚奇的是,我們漸漸發現,人類運用自己的智能來解決問題的各種各樣的方法,并不是唯一可行的方法,而且通常也不是最佳方案。
我們有充分的理由(將在第3章及第4章中詳述)相信,對于人類智能的研究,通常對人工智能來說并無裨益。我們不但缺少對于人類智能大多數細節的科學理解,而且想要在機器中模擬這種級別的智能也超越了科技發展的最高水平。很多人工智能學者干脆選擇去研究那些相對簡單的生物,比如昆蟲,因為在他們看來,人類智能太過復雜,難以給他們的工作帶來更多的啟發。
另一方面,其他的人工智能學者則在讓機器實現某些人類行為的研究中,取得了一些可觀的成果。下國際象棋就是一個很好的例子。當然,在人工智能研究剛剛起步的20世紀50年代,國際象棋被視作人類智能行為的一個典型例子。在1997年的國際象棋錦標賽中,超級計算機“深藍”一舉打敗人類國際象棋冠軍加里·卡斯帕羅夫(Gary Kasparov)。機器下棋更出色的說法受到了廣泛的認可。
然而,當我們重新審視細節(第2章),去了解計算機下棋的方式,我們就會看到,它的思維方式與人類棋手的套路有著天壤之別。說計算機比人類更擅長下國際象棋可能會引起爭議,不過在這一領域中,“更出色”就意味著勝利。對于一個打敗人類世界冠軍的下棋軟件,我們還能要求更多嗎?至少在這一領域,似乎有理由去說,我們找到了比人類更優秀的策略。
而另一類對人工智能的成見來自科幻世界。智能機器、機器人、半機械人等,幾乎是所有科幻小說家最愛的主題。然而很不幸,我們從這些小說中獲得的內容,同樣有著很強的誤導性。有時我們不該忘記,科幻小說歸根結底仍是小說。它可能時常會給人工智能及其他領域的科學家帶來靈感,不過與此同時,它也可能給目前研究中真正發生的事情帶來一些錯誤的認識。這可能會導致讀者做出一些錯誤的假設,比如認為很多遠超目前進展的事情已經完成,或者把如今的人工智能想象得與人類更像。本書將會挑戰這些假設。
最后一類先入為主的概念來自那些廣為流傳的有關計算機的傳說。這些傳說被傳播到太多地方,有時甚至是通過了一些計算機科學家之口。因此,想挑戰這些傳說需要一些勇氣,不過這是我們必須要做的。人們常說:“計算機只會做那些我們讓它們做的事情。”就像所有好的傳說一樣,這一句也不乏真實元素。所有計算機都需要精心編碼的軟件(通常是由人類編寫的程序)來進行運轉。然而,如果這句話被誤讀為“計算機能做的事情,都需要依據詳細而明確的指令”,那就大錯特錯了。在本書中,我將向讀者介紹一些能夠進行預測、有知覺并且在很多方面都超越了其創造者的程序。我們也將聽到一些“機器人并不是設計的產物,而是進化的結果”這樣的論斷。
出于相似的原因,讀者還需放棄一種想法,那就是計算機是純理性的推理機器。人工智能研究者并沒有把他們的研究和實驗禁錮在智能行為的理性范疇之中。的確,在那些更為理性的領域中,人工智能獲得了更大的成功,不過人工智能也的確會讓計算機做一些非理性的事情。人工智能研究的一大發現是,智能行為的全部領域,實際上與邏輯推理并無關系。一些不同的方法是有必要的,不過,我們在“讓計算機在這些領域運轉”方面也取得了一些令人震驚的成功。
模擬思維vs.真實思維
人工智能研究者從未以某種特定的研究方法來定義他們的領域。我們可能會說,在人工智能領域,研究方法的種類不少于研究者的數量。造成這種現象的原因很多:
◎ 首先,人工智能這樣一個廣泛而跨學科的領域,在研究方法的選擇上一定也是不拘一格的。
◎ 其次,對那些獨立的人工智能研究者來說,追求不同目標并非難事。以人工智能分支NLP(natural language processing,即自然語言處理)為例。這涉及創建能夠用英語或其他人類語言與我們溝通的計算機程序。它同時兼具幾大目標,比如至少讓計算機更易于使用、理解自然語言構造的復雜規則、發現人類學習及使用這些規則的方式。不同的研究者可能對這三個目標中的某一個有所偏好。實際上,即便是同一個研究者,可能也會在不同場合,根據不同的受眾,側重于不同目標。
NLP領域的實際情況,對人工智能整體來講也是成立的。這一領域的研究從來都具有多重目標。借用科學領域常用的一個軍事隱喻,我們可以說,人工智能選擇在最寬廣的前線攻擊它的問題區域。相比集中火力去打擊可能導致人工智能核心問題的區域,它所做的是沿著人類知識線展開小規模的突擊。這些小戰役有的可能會取得勝利,有的卻可能戰績不佳,但是在幾年的時間里,戰事可能發生逆轉。或許我們可以這樣理解,那些在小戰役中取得不錯成果的研究者,往往會激動地吶喊自己帶來了期待已久的突破。然而,待到硝煙四散、塵埃落定之時,他們才發現,自己只是向前移動了幾米的距離。同時,其他研究者可能又掀起了新的浪潮,并給出了看似可信的理由,說明自己的研究在這一領域取得了多大的突破。然而縱觀人工智能的歷史,這些所謂的“大突破”,往往只是把研究的前線向前挪動了有限的幾百米。到目前為止,人工智能領域在穩步前進,但沒有取得實質意義上的大突破。
人工智能研究的主要工具是數字計算機。不過,這并不意味著人工智能就是數字計算機。計算機是工具,而它之所以被選為工具,是因為研究者能夠通過使用這些設備,打造并檢驗“行為模型”。一些人工智能研究者認為,有必要打造能夠與真實世界互動的真正的機器人。我們將在下一章中解釋為什么他們會有這樣的觀點。現在,我們已經可以說:大多數人工智能的研究都在廣泛地應用計算機程序,并對真實世界的某些方面進行建模。
這種研究方式提出了許多困難的問題。很多讀者可能會根據自己的直覺認為,“模擬思維”和“真實思維”是兩個完全不同的世界,而我也將在后面的章節中對此做出更詳細的解釋。截至目前,我們可以說,很多領域對計算機的使用是非常有成效的。例如,我們會看到土木工程師利用計算機建模,設計出了能夠承受颶風威脅的大橋。而真的去建造一座橋,然后等待“百年一遇”的氣候災難無疑是非常愚蠢的。計算機在幾小時內,就能對這些土木工程師的所有疑慮做出解答。計算機有能力在很短的時間中試遍各種可能性,這也讓它成了人工智能領域非常實用的工具。
現代計算機讓我們能夠為比橋梁、風暴更復雜的事物進行詳細建模。我們能夠將圖片、音樂以數字格式進行存儲,也可以對能夠準確描述的一切事物進行數字化操作。這種對準確描述的需求,也許正是理解人工智能研究方法的關鍵。而計算機(或實體機器人)在人工智能領域的另一個重要作用,就是促使研究人員提出關于自然智能的某些問題。計算機不僅能被用于建模,還能夠激發一些特定的科學問題。在看待熟悉的事物時,詢問“該如何讓計算機實現這些目標”為我們的思維方式帶來了一種新的科學嚴謹性。
讀懂人工智能
尋找“空氣動力學”
人們習慣于將人工智能與“人造飛行器”進行對比。這個比較放在這里恰到好處。在20世紀初,人們對鳥類、昆蟲飛行方式的理解非常有限,顯然,他們也希望通過科學調查來解開這些困惑。當萊特兄弟在1903年開啟了飛行時代的時候,大多數生物教科書都說,鳥類能夠飛行是“因為它們具備飛行的能力”。這樣略顯牽強的解釋來自亞里士多德于公元前4世紀在雅典寫下的那席話。然而這種解釋并不能給那些希望理解飛行器的人帶來任何幫助。
在成功制造出飛行器后,由于對飛行有了更深入的理解,我們自然而然地知道,鳥類能夠飛翔是因為它們成功地遵循了空氣動力學。類似地,尋找某種“智能的空氣動力學”也常常被視作人工智能的終極目標。正如制造飛行器讓我們對鳥類的飛行有了科學的理解,人們也希望,這些打造智能機器的努力能夠加深我們對智能的科學理解。
當然,人工智能研究所包含的不僅僅是編寫一些計算機程序。如果你希望建造一個東西來模擬某種動物的智能,那么你就得對這種動物進行詳盡的研究。許多人工智能研究涉及生物學或心理學的內容,有時甚至還包括哲學。拋開各學科之間的“地盤爭奪戰”(這樣的斗爭毫無價值),我們會發現,將計算機作為工具使用也讓這些“分類”變得更為嚴謹。
典型的例子并不難找,就以你現在正在執行的任務——閱讀為例。顯然,你能看到這些內容,是因為你有“閱讀的能力”。我們可以據此推斷,你有一本印刷清晰的書,至少有一只能夠工作的眼睛。然而,這些事實對于設計一款能夠閱讀的機器來說沒有任何幫助。想要打造一款能夠閱讀的機器,我們還需要提出一些更為詳細的問題。
例如,你是否正在看每個字母,然后將它與字符庫(至少114個)進行比較,來確定它是什么,之后再將目光移向下一個字母?每遇到一個空格,就將這些字母組合成一個單詞,然后通過查閱某種詞典進行檢索(這一步涉及的數量會更多),從而辨識出它的含義?完成這一系列的搜索和解碼后,你仍需要把這些詞語組成一個句子,然后提取出某種含義。在合理的時間內(比如今天,而不是下周)完成所有這些任務,這甚至已經超出了目前最強大的計算機的能力范疇。
另一方面,你可以利用自己的知識來完成“猜測”。對語法規則的了解會告訴你,大多數正確的英文句子,都由一個名詞短語和一個動詞短語組成。找到動詞短語“是”(這個動詞就在這里!)理解一個句子的關鍵。即使你沒有認真學習過正規語法,可能也早已使用這些規則來進行閱讀了。不過,單是語法本身并不足以讓你理解一個句子。想要提取一個句子中蘊藏的意義,對世界的理解似乎也是一個重要的元素。這些理解將提前告訴你,接下來可能會出現哪些單詞或句子。對世界的了解可以減少閱讀過程中所包含的計算量,不過這也有著很高的代價。現在我們需要思考,你該如何獲得這些關于世界的知識,以及為了讀懂這些內容,如何很快地運用這些知識。讓一臺計算機來完成這一切,遠非什么輕而易舉的事情!
不要對你的閱讀產生過多的自我理解,否則你將無法繼續!這里非常重要的一點是,你想閱讀的時候,并不需要去了解上述這些問題,但倘若你想打造一臺閱讀機器,或是去了解你能夠進行閱讀的原理,那么就必須找到這些問題的答案。人工智能讓我們至少能夠去思考該如何開展打造具備某種能力的機器的任務,即使在未來并不會出現這樣的機器。反過來,這也會為我們看待智能行為案例的方式加入更多知識和科學嚴謹性。即使我們思考的僅是一臺尚無法制造出來的理論機器,這些討論肯定也已經超越了我們如何做事情的表象。就像早期簡陋的飛行器結束了人們將鳥類飛行歸結為“飛行的能力”的誤讀,思考這些最原始的智能機器意味著,我們必須以一種更嚴謹、更詳細的方式來看待生物學、心理學和語言學。
共同的原則,人工智能的終極目標
就像我們已經看到的,人工智能涉及一系列范圍寬廣的問題和方法。實際上,這個范圍太大了,導致不少人工智能研究者認為,這一領域的其他研究和自己的工作并不在一個頻道上。實際上,這也不是什么大問題。“百花齊放”是人工智能的一句流行語。另外,對一些評論者來說,給出這一領域的“終極目標”卻顯得非常重要。
舉例來說,一個研究團隊可能將大把的時間花在了精密齒輪加工的工作上,希望能夠制造出爬樓梯時不會跌倒的機器人。而另一支隊伍可能在努力研究文獻,思考能否找到理解隱喻的方法。他們的終極目標可能是,打造出一個能夠識別人類輸入的隱喻并做出回應的計算機程序。正常情況下,我們怎么可能會覺得,這兩個團隊處于相同的領域呢?
想找到一個能把這些琳瑯滿目的研究領域集合在一起的終極目標并非易事,如果我們給出了錯誤的答案,很可能會導致一些不好的結果。縱觀人工智能的歷史,人們曾多次努力,想對其終極目標做出一個簡潔的描述,然而結果都無法令人滿意。同一時代的很多研究者干脆選擇不去面對這些問題,相反,他們更傾向于集中精力達成自己的“局部目標”。然而這種做法也導致他們錯失了一些跨學科的發展機會,要知道,這些機遇在人工智能研究的過程中是頗有裨益的。
比如,那些齒輪機械師需要知道,昆蟲的足如何由關節連接,鳥類需要具備什么樣的特性才能通過兩條腿保持平衡,等等。而那些文獻分析人員,可能需要了解多值邏輯的工作原理,這在隱喻的研究中可能有著一定的作用。盡管存在各種困難,仔細研究一些對“人工智能的終極目標”的回答仍然是有意義的。
我們已經看到了一個可行的、也是我個人最喜歡的答案,它就涵蓋在之前提到的“智能的空氣動力學”之中。以這種角度來看,人工智能的終極目標,就是對人類、動物、機器智能做出科學解釋,并找出這三者之間的共同原則。一個必須承認的問題是,我們現在對這些共同的原則知之甚少。我們將在第5章中更詳細地討論這點。
其他一些定義人工智能終極目標的方法傾向于強調在機器中打造“人類水平”的智能。由于上文討論過的一些原因,我們需要審慎對待這一目標。不過,有一個名為“圖靈測試”(Turing Test)的方法對人工智能的發展影響巨大,因此,我們有必要在接下來的兩小節里對之進行詳細闡述。
圖靈測試,測的到底是什么
毫無疑問,對“什么是人工智能的終極目標”這一問題的回答,最有名的一個當屬所謂的圖靈測試。之所以加上“所謂的”三個字,是因為阿蘭·圖靈本人從未談及任何測試。人們對圖靈,以及這個以他名字命名的測試都有著太多的誤解。更準確地說,這可能要被稱為人工智能的民間傳說。請帶著你先入為主的那些觀念,來聽聽我更詳細地介紹整個故事。
毋庸置疑,阿蘭·圖靈是個天才。從劍橋大學國王學院數學系畢業后,他撰寫了一篇論文(發表于1936年),這篇文章完全刷新了我們對數學本質的理解。這對普通的天才來說已經足夠了,但對圖靈來說僅僅是個開始。在第二次世界大戰期間(更準確地說是1939年9月),他和一批精英知識分子被英國軍方秘密派遣到一個被稱為布萊切利園的豪華莊園中。這一地點現在已經成了英國南部米爾頓凱恩斯城郊一個最值得去的景點。
這些天才的任務是破譯德國軍隊使用的謎一般的恩尼格瑪(Enigma)密碼。從這一使命來看,他們取得了巨大成功。在恩尼格瑪密碼被破解的過程中,圖靈本人扮演了核心角色。在德國人看來,這些密碼根本不可能被攻破。這也導致了即使在戰爭將要結束、盟軍顯然已有能力對德軍的行動做出預判時,德軍高層仍然在努力從自己的隊伍中尋找埋伏的間諜,而沒有去考慮恩尼格瑪密碼實際上已被破解的可能。
很明顯,英國人具備了破解德國人秘密傳輸的信息的能力,也就獲得了使戰爭勝利的優勢。那些最保守的歷史學家都承認,這一成就將第二次世界大戰的結束時間提早了至少一年。然而當時,這一切解碼的努力都被英方歸為高度機密,并沒有廣為人知。事實上,這段發生在布萊切利園的故事直到20世紀80年代才逐漸被傳開,但其中很多內容直到現在仍然是作為機密保存的。
對現在的目標來說最重要的是,這些發生在布萊切利園的解碼工作包括了對機器的使用,而這些設備也被視為現代計算機的前身。恩尼格瑪密碼的名字主要來自進行加密的恩尼格瑪機。英國的密碼破譯工作者還采用了其他機器。其中最重要的一個被稱為“巨人計算機”(Colossus)。它幾乎具備了現代電子計算機的絕大多數功能,不過因為那些愚蠢的保密要求,布萊切利園的10臺機器在戰爭結束后被悉數銷毀。
這讓圖靈和同事們陷入了一個極度窘迫的境地。他們雖然知道該如何打造有效的電子計算機,卻不能透露自己所了解的實情。實際上,在布萊切利園,他們曾沒日沒夜地看著這些機器運轉,可是在事后,卻不能對別人吐露半個字。后來,英國曼徹斯特大學的一個小團隊打造了一臺機器,這也被認為是所有現代計算機的起源。1948年,阿蘭·圖靈為這臺機器編寫程序,同一時期他還在撰寫一篇題為《計算機器與智能》(Computing Machinery and Intelligence
)的論文。而后來衍生出的被稱為圖靈測試的思想,就藏在這篇文章之中。
1950年,英國著名哲學雜志Mind
刊載了這篇題為《計算機器與智能》的論文。值得注意的是,這篇論文由一個數學家、后來的密碼破譯者、計算機程序員寫就,并發表在哲學期刊上。看來,人工智能跨學科的本質,在它萌生的時候就已經顯露端倪。
讀懂人工智能
模仿游戲
在《計算機器與智能》一文中,圖靈曾表達自己希望討論“機器是否能夠思考”的問題。然而由于這一問題太過抽象,他決定用一個游戲來進行詳細的描述。這被他稱為“模仿游戲”(imitation game)。游戲需要3個分處不同房間的參與者通過打字與彼此交流。最初的版本中,參與者分別是一個男人、一個女人和一個任意性別的提問者。提問者,顧名思義,就是一個能夠對另外兩個參與者提出任何問題的人。游戲的目標,是讓參與游戲的男人和女人,都努力讓提問者相信自己才是女人。女人需要對這些問題做出真實的回答,男人則可以用“別聽他的,我才是那個女人”之類的話語來迷惑裁判(這倒是和現在網絡聊天室的一些行為頗為相似)。
圖靈接著提問,如果在這一游戲中,一臺機器能夠成功扮演一個男人的角色,那么我們會怎么看?也就是說,在提問5分鐘之后,一個普通的提問者在至少30%的情況下無法判斷出自己是否在與機器交流。如果我們能夠制造出在模仿游戲里做到這些的機器,那么普通人會很樂意將這種機器視作會思考的機器。
實際上,問題并不是我們“是否”能夠制造出這樣的機器,而是“何時”能夠讓它們實現。圖靈曾自信地預測,在2000年前后,數字計算機能夠在模仿游戲中取得這一水平的成功。這樣的成就將轉變人們的態度,而那時候去談論“思維機器”便不再是什么天方夜譚了。這篇文章中非常值得一提的是,圖靈幾乎很準確地預測出2000年前后計算機的計算水平。要知道,當時全球僅有曼徹斯特“計算機”這棵獨苗,而它那塞滿整個房間的設備所具備的處理能力,還不及現在一枚小巧的微芯片所擁有的算力。圖靈對計算機能力增長的預測是正確的;只不過,直至現在以及我們可預見的未來,也沒有哪臺計算機能夠在這種模仿游戲中獲得勝利。
不幸的是,阿蘭·圖靈的職業生涯在這篇論文發表不久后就戛然而止。1954年,年僅42歲的圖靈自殺身亡。20世紀50年代,在圖靈傳奇一生行近尾聲的時候,他的關注點轉移到了生物學的數學基礎上,而這一領域在20世紀90年代開始受到人工智能研究者的廣泛關注。
不應一味地模仿人類
我們有很多理由來解釋為什么圖靈測試不該被視作人工智能的目標,至少它不是終極目標。第一個問題是,這一測試主要集中在人類的表現上,這對人工智能來說是一個不必要的限制。人工智能也涉及其他動物,而它們中的大多數都不可能參與到這種“模仿游戲”中。其次,在制造機器的過程中,一味地去模仿人類的方式和表現也并非正途。
對于我的上一段文字,人工智能領域的一些研究者可能并不認同。的確,每年都會有很多人工智能程序參與到模仿游戲的競賽之中。以出資人休·勒布納(Hugh Loebner)博士的名字命名的“勒布納獎”,會對首個能夠通過他設置的圖靈測試的計算機程序提供10萬美元的獎勵。雖然直到現在也沒有哪個程序斬獲大獎,不過每年都有2 000美元的小獎項送出,用于獎勵參與競賽的最接近人類的計算機程序,而這也吸引了大量不錯的嘗試。
然而仔細審視這些程序,我們就會發現把圖靈測試視作人工智能終極目標的第二個大問題。每年那些2 000美元獎勵的獲得者,實際上都只是一些相當簡單的計算機程序,它們的設計是為了提供一種掌握了對話的假象。而如今,這類程序也被稱為“聊天機器人”。它們被預設了一些回答,然后根據提問者提供的各種各樣的信息輸入,找到對應的解答。這種方式最早在1966年出現在一個名為ELIZA的程序中。這一程序得名于蕭伯納的戲劇《賣花女》中伊萊莎·杜立德(Eliza Doolittle)一角。然而,這種對應并不完全準確,因為伊萊莎·杜立德被訓練而會講話,這個同名程序卻僅僅給人一種能夠講話的錯覺。
自1966年起,此類程序的升級版不斷涌現,然而,這些程序中也沒有哪個真正推動了人工智能的進步。例如,如果程序打出的文字執著于與政治或性相關的話題,那么提問者往往會將它視作人類。這樣的結果能夠讓我們窺見人類的心理,卻并不能告訴我們如何打造智能機器。
這揭示了將圖靈測試視作人工智能終極目標所面臨的第三個非常嚴肅的問題。它會導致一些研究人員將工作重點放在制造用于欺騙人類的程序上,而不去研究智能問題的基本解決方案。在下一章中,我們將審視一些聲稱通過了圖靈測試的程序。我們很快就會清晰地認識到,這些程序實現的不是智能,而是欺騙。
人工智能領域的很多人,雖然會認同我對圖靈測試的批判,但仍然認為它具有一定意義,因為真正智能的機器(無論那意味著什么),勢必都能通過這一測試,也就是說,通過測試會是智能的一個副產品。無論對錯與否,短期內我們都不太可能看到這樣的機器。還記得“提問者可以提出任何問題”的前提嗎?這也就意味著,圖靈測試的確是一個非常難的測試。
然而現實是,打造一臺能夠通過圖靈測試的機器將耗費無數精力、經費,卻很可能無法帶來任何實質意義。對人類智能的模仿很難做到贏利,因為我們身邊從來都不缺少人類智能。
章后總結
1.人工智能領域的工作通常會無視科學和工程學之間的界限,因為它需要通過建造的過程來追尋原理。
2.人類運用自己的智能來解決問題的各種各樣的方法,并不是唯一可行的方法,而且通常也不是最佳方案。
3.大多數人工智能的研究都廣泛地應用計算機程序,對真實世界的某些方面進行建模。
4.人工智能的終極目標,就是對人類、動物、機器智能做出科學解釋,并找出這三者之間的共同原則。
● 拓展閱讀
帕梅拉·麥考達克(Pamela McCorduck)的著作《機器思維》(Machines Who Think
)(1979年)介紹了不少發生在美國的早期人工智能狂熱分子的歷史逸事和細節。
參考安德魯·霍奇斯(Andrew Hodges)的《阿蘭·圖靈:恩尼格瑪的智能》(Alan Turing: The Enigma of Intelligence
)(1983年)一書,可以更好地了解阿蘭·圖靈和他的成就。霍奇斯同樣維護了一個巨大、全面的阿蘭·圖靈網站:http://www.turing.org.uk/turing/index.html。
圖靈的《計算機器與智能》(Computing Machinery and Intelligence
)是一篇可讀性高、非技術性的論文。這篇論文被發表在許多地方,其中包括由道格拉斯·R.霍夫施塔特(D.R.Hoffstadter)和丹尼爾·C.丹尼特(D.C.Dennett)整理的、集合了諸多優秀論文的《思想即我》(The Minds I
)(1981年)。
泰德·恩維爾(Ted Enver)的《英國鮮為人知的秘密》(Britains Best Kept Secret
)(1994年)是介紹布萊切利園輝煌歷史的必讀著作。
你可以在線了解勒布納獎(Loebner prize),網址如下:http://www.loebner.net/Prizef/loebner-prize.html。
亨克·滕內克斯(Henk Tennekes)的《飛行的簡單科學:從昆蟲到巨型噴氣式飛機》(The Simple Science of Flight: fromInsects to Jumbo Jets
)清晰地解釋了為何同樣的空氣動力學原理能夠適用于鳥類和飛行器。這本書也可以幫助我們學習飛行。每個人都應該讀讀它。
一些閃耀的成功
當你注視著航天飛機從肯尼迪航天中心發射塔緩緩升空,離開地球,進入另一條軌道,你可能會折服于脫離地心引力所需要的這種原始力量,以及達到這一目標所需要的工程技術。同樣令人印象深刻卻不易被察覺的是,航天飛機能夠飛入宇宙,實際上也是人工智能程序的成果。這一隱藏于幕后的程序,能夠為宇航設備發射做好時間安排。
航天飛機從發射、準備升空到轉向這一系列動作,涉及5 000~10 000個不同的工程操作。而這些操作往往又以很多復雜的方式相互依賴,某些情況下,一些動作需要等待其他操作完成才能開始。在其他情況下開始一系列動作,例如給燃料系統充電,可能會暫停系統中其他所有工作的進行。為了盡可能快地實現宇航設備轉向,這一系列復雜操作都需要順利完成。任何失誤、重復或不必要的動作都可能導致下次發射推遲數月的時間。
更重要的是,這些工程操作的順序不能被固化,也不能在之后類似的任務中照搬。每一次任務都需要對有效載荷、軌道、入軌時間等做出調整。每一次任務都會帶來不同程度的老化、壓力和磨損。只有當系統作為轉向的一部分被拆除時,這些模式才能被檢測到。在出現問題的時候,這些操作的順序可能會被多次調整。這有時被人們稱為“約束滿足問題”(constraint satisfaction problem):當改變一件事會對復雜連鎖網絡中的其他節點帶來一系列變化時,我們所遇到的問題。為一所學校準備課表是另外一種約束滿足問題。它與航天飛機任務的區別在于,后者需要投入數百萬美元的資金,錯誤的代價極其昂貴,而發射只能在某些特定的時刻完成,因此找到最佳的可用時間表就顯得尤為重要。
出于這些原因,美國國家航空航天局(NASA)決定打造一個人工智能系統,用它來計算航天飛機發射準備的最佳序列。這也是人工智能的典型應用。此類人工智能主要用于自動規劃,而規劃過程中所采用的推理方式是“基于約束的推理”(constraint-based reasoning)。從本質上來講,這就是為一組高度相關聯的問題尋找解決方案的任務。
在這一領域(盡管并不是唯一的領域),人工智能取得了引人矚目的成功。NASA的程序是人工智能以其他方式取得成功的典型例子。這種程序并不簡單,實際上也很難打造,它花費了NASA將近200萬美元的經費,歷時3年才完成。不過隨著時間的推移,這一龐大又昂貴的系統已經賺回了當初的投資。據NASA估算,它為每次飛行任務節約了50萬~100萬美元的成本,主要是因為減少了員工的加班費。由這一系統完成的任務,原則上也能夠通過人工手動完成。然而,根據NASA的報告,這種人工方法所需的時間至少是機器方法的10倍,而且難免會出現錯誤。如果沒有這個人工智能系統,NASA每年能完成一次發射都要祈禱好運氣光顧。
就NASA而言,這一程序取得了非凡的成就,而這不過是眾多成功案例中的一個。NASA一直致力于人工智能的研究與應用。人工智能在太空探索中的應用十分廣泛,從宇航機器人到能夠為宇航員提供建議的系統,到處都能看到它的影子。需要強調的是,這些都不是什么實驗性的花哨系統,而是一些可靠、實用的技術的代表,可靠到能夠用來制造宇宙飛船。第一個進入航天領域的人工智能程序是DEVISER,這一規劃程序負責控制1977年發射的“旅行者1號”探測器的操作。這也是目前宇宙中距離地球最遙遠的人造物體,因此,人類的技術大使也應該包括人工智能。目前的研究項目包括全自動太空飛船,它也將代表我們去探索深空[1]
。
人工智能不僅在航天飛行這樣的高科技領域取得了成功,它在商業和金融領域的地位也至關重要。正如航天飛機的案例一樣,這些系統往往在幕后默默地工作,不過它們所做的工作也是目前商業領域的關鍵。人工智能同樣成了游戲領域的靈魂,這是一個比電影發展得還要龐大的行業。同時,人工智能也在一些競技比賽中取得了成功。1997年,一個人工智能程序在國際象棋比賽中戰勝了人類世界冠軍。這的確都是驚人的成就,很難想象其他任何一個現代技術能夠與之媲美。本章將對這些人工智能成就中的一部分進行詳細的介紹。
搜索,一切現實問題的解
如果要在諸多概念中找到一個理解人工智能如何工作的最基礎的概念,那么它應該是“搜索”。
在人工智能領域,搜索描述的是一種為某個難題找到解決方案的過程,并非像尋找丟失的車鑰匙那樣簡單(不過人工智能的搜索還是能幫你找到鑰匙的,所以值得繼續看下去)。這是一套非常通用的技術,幾乎在人工智能所有分支領域都能看到它的身影。這些技術之所以是人工智能概念的基礎,主要源自計算的性質。
在最基本的層面上,計算機就是一個言聽計從的大笨蛋。從技術層面講,我們說它在執行算法,實際上就是在進行一系列簡單有順序的步驟。你可能會看到,數學計算如何被拆分成能被那些“笨蛋”設備完成的小步驟。實際上,幾乎所有的數學計算都能被表達為算法(我們將會在下一章討論為什么這里用的是“幾乎”)。對人工智能的探索,往往始于補充一個有趣的真實世界問題(也就是你需要去解決的問題)與一個或一系列計算機能夠執行的簡單算法集合之間所缺失的片段。而填寫這些缺失的步驟最重要也最普遍的方法,就是將真實世界的問題轉化為搜索問題。
將普通問題轉化為搜索問題的方法是將它分解成三個元素,分別是:起始狀態,一系列從一個狀態向另一個狀態的過渡,以及目標狀態。令人有些意外的是,大多數真實世界問題都能夠用這三元素進行描述。而我們一旦能夠用這三元素來描述一個問題,那么,剩下的任務就是解決由它衍生出的算法問題。也就是說,我們會得到一個能夠由計算機完成的、相對簡單的操作集合。大體上講,這個程序會不斷走過這些狀態之間的過渡,直到找到最終的目標。
就像所有出色的想法一樣,人工智能搜索背后的思想也非常簡單。不過這種簡單并不會掩蓋它的高效性,因此更為細致地了解這一過程十分值得。
此刻,也許一個具體的例子會對讀者理解這一過程有所幫助。讓我們假設你已經因為我對人工智能的狂熱而感到憤怒,并決定寫信表達自己的不快。你桌上的筆筒里放著4支筆,而你希望找到一支能夠寫字的。你很有可能會做的是,拿出其中的一支試用,如果不出水,就將它丟在一邊。這之后,你很可能會試用另外一支,以此類推,直到找到那支能正常使用的筆。
而用人工智能搜索術語來描述,起始狀態則是沒有能用的筆,過渡是一支一支地試用,而目標狀態是找到一支能夠用來寫字的筆。而你試用每支筆的搜索策略,同樣也具備一些非常有用的特征。特別是,你注意到自己需要丟棄那些無法使用的筆,以此避免反復試用同一支筆。
不要在搜索上浪費精力,這是因為問題的規模非常重要。在剛剛這個例子中,只有4支可供選擇的筆,因此試過全部4支也不會花費太長時間。這種方法用人工智能術語來說就是“窮舉搜索”(exhaustive search)。然而,如果我把命題中的數字由4改成400,那么要從400支筆中找到唯一一支能用的,你可能就不再希望使用窮舉搜索策略了。因為在這種情況下,問題的總大小,用術語來講就是“搜索空間”(search space),對窮舉搜索來說太大了。
同樣的過程對于計算機也完全適用。計算機能夠快速地執行一個算法中的每一步,但它們仍然有著自己的極限。采用這種策略,很快會出現一種被稱為“組合性爆炸”(combinatorial explosion)的問題。就像很多人工智能術語一樣,這個詞聽起來有些言過其實。實際上,它背后的想法很簡單,那就是在很多問題中,可能性的數量并不是以一種平滑的線性的方式增長,而是以一種非常快的速率增長。
讀懂人工智能
金子與麥粒
闡述這一問題最簡單的方式是一個古老的印度傳說。相傳,印度的舍罕王打算重賞發明國際象棋的大臣西薩·班·達依爾。他原計劃賞賜給西薩64塊金子,每塊對應棋盤上的一個方格。這位大臣禮貌地拒絕了這一賞賜,表示自己希望要一些小麥,第一塊棋盤格要1粒,第二塊要2粒,第三塊4粒,每往后一塊就翻一倍,以此類推。國王大喜,他為這一要求的“樸實”感到震驚,并且承諾會遵守這一諾言。
實際上,這位大臣只是跟國王玩了一個簡單的數學把戲。通過一段簡單的計算,你就會發現,這是一個永遠無法達成的承諾。因為西薩實際上要了264
-1粒,也就是18 446 744 073 709 551 615粒小麥。更直觀地講,這相當于以如今的速度耕種4個世紀的全球小麥總產量。
即便對具有至高權力的國王來說,這顯然也是個不可能兌現的承諾,舍罕王只得放棄。這雖然只是個傳說,其中蘊含的道理卻十分清楚:永遠不要低估指數型增長的力量。如果西薩要求的僅僅是每塊棋盤格獎賞2塊金子,那么國王就可以不費吹灰之力地賞給他128塊金子。通過逐步加倍,這位大臣利用了數學家們口中的幾何級數,提出了一個不可能達成的請求,即便他要的只是麥粒這樣廉價的東西。
這就是指數型增長的力量,它會產生一些無法估量的龐大數字,這會讓使用簡單的計算方法,通過窮舉搜索來解決問題的方式變得行不通。就像西薩要的賞賜一樣,這些數據會“爆炸”,變成最強大的計算機都無法企及的數據量。
然而,這并不意味著人工智能研究者會選擇放棄。曾讓人工智能不同于其他計算方式的(很大程度上現在仍然如此),便是對啟發式方法的引入。“啟發”(heuristic)是一種“拇指規則”,借助有根據的猜測或線索獲得一個問題的解決方案。對很多問題來說,搜索解決方案的數學計算看似不可能,不過真實世界往往不同于純粹的數學世界。“啟發”就是一個將真實世界的元素重新放回問題的方式。在數學世界中,數字之間并沒有什么區別,然而在真實世界里,一些規律、線索往往會在我們的搜索過程中帶來幫助。
在剛剛的例子中,當你想找到一支能用的筆時,很自然地會隨意試用一支。搜索空間中這種隨性的選擇,在人工智能領域里是非常不明智的。“啟發”能夠幫助我們在一個較大的搜索空間中找到相對正確的方向。換言之,無論對計算機還是人類來說,一個機智的方法就是考慮真實世界中的一切線索。
想一探究竟?那我們還是回到之前400支筆的例子。你手中有399支沒法用的筆,這并不現實,我們不如把這個例子改得更接近真實世界。比如,我在這400支筆中找出了一支,并且在里面藏了一張20英鎊或50美元的鈔票。而你的任務就是找到它。這時候再去執行類似的窮舉搜索就有些不值得了,不過,我們不妨看一看,真實世界會給我們哪些找到錢的蛛絲馬跡。單純就數學而言,400支筆僅僅是一個數字,用人工智能的術語來說就是一個“無特征搜索空間”(featureless search space)。我不知道你會從哪里集齊這400支筆,不過在真實世界中,我身邊的辦公用品商店會按20支一盒售賣。也就是說,我需要買上20盒。想把錢藏到筆里,我就要拆開其中一個盒子,抽出一支筆,把錢塞進去,然后再把筆放回去。
所以,你完全可以將自己的搜索范圍限制到從20個盒子中找到封口被拆開的那個,然后剩下的搜索空間只剩下20支筆,你需要從這里找到看起來像被取出或打開過的筆。相比于窮舉搜索,這種方式可能會讓你更快地找到錢。
請注意,剛剛這句話中的“可能”非常重要。“啟發”并不是能夠確保目標實現的方法。我很可能為了迷惑你而打開所有的盒子,而這種情況下,剛剛提到的方法比起窮舉搜索法也好不了多少。而如果我把所有的筆都拿出來堆成一堆,那么這樣的搜索空間就幾乎沒有特征了。不過排除這種極端情況,“啟發”往往能夠在真實世界的搜索中起到正向作用。
最后,讓我們對搜索話題進行一下總結:
這看起來似乎與人工智能和人類智能都不沾邊。從總體上講,現在人工智能搜索領域開發出的很多技術,都會被認為是計算和信息技術的一部分。它們是從人工智能剝離出的大批真正有用的衍生品中非常早期的一個。
我們需要記住的是,人工智能需要繼續耐心地去發現,計算機根據程序實現的自動化與真實世界中的智能表現之間,所隱藏的那些步驟。
這樣的步驟可能不少,搜索當然算得上最常見也最基礎的一個。另外一個需要明確的事情是,人工智能并不是簡單地將計算機的算力當作一種附加機器。這種指數型的爆炸式增長意味著,單純增加機器的數量并不會解決更多的問題,因此相比蠻力,我們需要一些智慧。“啟發”能夠通過對真實世界一些性質的猜測來引導搜索。雖然這僅僅是人工智能故事的開端,但也算是一個非常不錯的起點。
想要看看由“啟發”引導的搜索是如何讓計算機完成智能任務的,讓我們回到1997年,旁觀國際象棋大師卡斯帕羅夫的落敗。
“藍巨人”的勝利
在人工智能發展的早期,很多人認為,如果能讓計算機成功地參與棋類游戲,那就相當于在對人工智能未來的追逐中完成了一個重要目標。而現如今,想在商場中找到一款能夠下國際象棋,并且水平還不錯的計算機已經變得輕而易舉。這讓很多人不禁認為,訓練計算機下棋并非難事,或者認為國際象棋基本屬于計算游戲。這些假設都不正確,它們沒有公正地去看待人工智能先行者的智慧與堅持,這些專家在計算機游戲領域完成了早期的突破。
實際上,用計算技術來玩國際象棋是非常困難的。首先,國際象棋是上一節提到的搜索空間指數型爆炸式增長的典型案例。通常在國際象棋比賽的中盤階段,分支因子(branching factor)大約為36。也就是說,你需要從大約36個符合規則的移動中選擇一個。因為這些可能性從當前的狀態衍生出許多分支,人工智能領域的學者往往稱之為“搜索樹”(search tree),盡管這是一棵顛倒的樹,隨著向下深入而不斷擴張。對于你的每一步棋,你的對手都有大約36種對策。因此,如果你希望思索自己的下一步該如何落子,那么擺在面前的選擇可能多達1 296種。而如果你希望做出更進一步的預測,思考再下一步的布局,那么這個可能性就會增加到1 679616種。因此,需要考慮的步數會以極快的速率增長,這種增速即便對最強大的計算機來說也是望塵莫及的。
通過計算,我們能夠清楚地認識到,即使是最強大的計算機,也無法通過枚舉所有的招數來下國際象棋。一場國際象棋比賽開始的時候,會有10123
種可能的棋盤位置(也就是1后面有123個0)。這一數字的大小,甚至已經超越了已知的宇宙中電子數量的總和。任何一臺計算機都無法舉出所有可能的招數并從中做出選擇。因此,我們需要更智能的技巧。
單純靠計算機的計算來用“蠻力”下國際象棋,還會遇到另一個問題,這與游戲本身的性質有關。人工智能領域一位重要的先行者亞瑟·塞繆爾(Arthur Samuel)將這一問題命名為“信用分配問題”(credit-assignment problem)。信用分配問題是指在決定哪些招數是制勝招數時所出現的問題。國際象棋比賽即將結束時會積攢很多的落子,有些是好棋,有些則是臭棋。即使某一程序取得了勝利,我們也難以分辨出究竟哪些招數將它引向了勝利。換句話說,我們沒有辦法給這些棋著評分。
塞繆爾以一種非常巧妙而有效的方式攻克了這類難題。實際上,當時的塞繆爾想讓計算機玩西洋跳棋(checkers),不過他使用的方法在當今仍然是現代國際象棋程序的基礎。他引入了一個靜態評估函數(static evaluation function)。這是另一種“啟發”,它能夠讓程序基于當時的棋局做出最佳的落子判斷。這一理論的基本概念是,程序會對下一步落子后的棋局進行打分,來評價這些結果的好壞。這是一個靜態的評估過程,因為過程中并不需要考慮這一步的落子能否制勝,只需要評估這一步從當前的局面來看如何。如果對手的棋子比你的少,這看起來就是相對不錯的一步,而如果這一步可能導致自己的子被對手吃掉,那么它就是看起來不太好的招數。
下棋程序需要做的,從本質上來講,就是在有限的時間內計算靜態評估函數,盡可能多地對潛在棋盤位置進行評估打分,然后選擇看起來最佳的棋盤位置。當然,由于指數型爆炸式增長的限制,程序能夠思考的棋盤位置非常有限,因此這種技術往往也會導致錯誤。而同樣存在漏洞的是靜態評估函數本身,就像所有的“啟發”一樣,它只是做出猜測,而這些猜測可能是錯誤的。
靜態評估函數可以由程序員設置,不過這通常只是個開始。塞繆爾讓兩個版本的程序展開棋局。其中一個版本采用被隨機修改過的靜態評估函數,另一個版本則采用最初設定的評估函數。如果這個修改版本獲得了勝利,那么在之后的棋局中它將會被采納,而如果初始的版本獲得了勝利,那么這一評估函數也將被留用。現在,包括遺傳算法(將會在下一章詳述)在內的很多技術,都能夠用來完善靜態評估函數,不過塞繆爾采用的方法仍然算得上非常高效的一個。
回想自己下國際象棋的過程,你可能會認為上述方式仍然有著太多無用的步驟。在棋局之中,你往往不會去檢索所有可能的招數。因為很多招數都是很明顯的臭棋。不過,也有人找到了一種能夠讓程序避免浪費時間思考臭棋的方法。這就是Alpha-Beta剪枝算法(alpha-beta pruning)。這里用到的“剪枝”生動形象,因為這就像一個從搜索樹上剪掉那些生產力可能不太高的枝條的過程。
在程序思索可能的棋盤位置時,有兩類棋著會被率先拋棄。第一類是那些有著很高的評估分數卻難以走到的位置,因為對手通常會搶先占據或控制這些位置。而另一類就是那種災難性的臭棋。如果在搜索早期就發現了上述兩類情況,那么對這些分支的搜索就能迅速結束。比如,通常沒有必要考慮在一步臭棋之后延展可能的棋盤位置。我們并不會選擇這些爛招,因此,從這一點上延展棋局純粹是浪費時間。同理,如果我們選擇了那些對手一眼就能看穿,并且會努力阻止我們獲得的好位置,然后還從這一點上展開之后幾步的棋局,那么這基本也算白日做夢了。搜索這些非常明顯的好招也是在浪費精力。
不過,即使具備了所有這些智能的人工智能技術,下國際象棋仍然需要大量的計算工作。靜態評估函數可能會考慮一個棋盤位置的64種特征(有時甚至會更多)。需要為每一個未來可能的棋盤位置計算出每一種特征。整個靜態評估函數都必須被計算,然后將結果傳遞回搜索樹。使用Alpha-Beta剪枝算法能夠大幅縮減搜索樹的尺寸,但這僅僅是延緩了指數型增長的發生時間,并沒有從根本上解決該問題。要讓下棋程序預想幾步之后的棋局(從而大幅提高勝算),就需要算力非常強大的計算機作為支撐。
另一方面,如果認為這些人工智能技術已經被研究了幾十年并且能夠被寫入計算機,因此下棋(無論是對計算機還是人類來說)并不需要什么智能,那就大錯特錯了。讓我們來解釋一下。計算機下棋的過程并不是簡簡單單去計算制勝招數。因為這種方式在數學演算中就已經行不通了。靜態評估函數是一種對下一步棋該采用的策略的猜測,也是計算機在下棋過程中不斷優化的猜測。
非常引人注目的是,這些早期的下棋程序專家做出了很多正確的基礎工作。1997年,當超級計算機“深藍”打敗加里·卡斯帕羅夫的時候,深藍團隊在IBM公司舉行了慶祝活動。IBM資助了這一研究,其昵稱“藍巨人”也是為了紀念這臺機器。對大多數人工智能工作者來說,這不算什么值得慶祝的事情,并不是因為他們沒有興趣或者對此不感冒,而是因為他們早已知道這一天會到來,只是時間早晚的問題。
專家系統,源于知識的力量
在歐洲中世紀宗教劇《世人》(Everyman
)中,同名英雄被要求參與一段人生的旅途。雖然很多旅伴都讓他失望,但是“知識”告訴他,“世人啊,我將與你同在,成為你的向導,在你最需要的時候走到你身邊”。讀者們可能會感到震驚,正如知識是人生旅途中最有價值也最可靠的旅伴,對計算機來說,它同樣有著重要的作用。人工智能最成功的幾個分支之一就是“知識系統”(knowledge-based systems)。也許計算機系統享用知識益處的方式并不像“世人”那樣明顯,然而,實際上也沒有看上去那么復雜。
當很多研究人員都將啟發和搜索視為通向智能的道路時,另一些人卻找到了非常不同的方法。這種新穎的方式主要起源于美國加利福尼亞州的斯坦福大學。這一方法背后的想法簡潔又優雅。如果你知道問題的答案,那么也就不需要進行大規模的搜索來尋找可行的解決方案。這個解決方案可能會以一種陳述的形式存儲在計算機中,例如“如果這個問題是P,那么答案是A”。更正式的是,這些研究人員認為,如果某個智能系統具備極為強大的知識儲備,那么它的推理能力可能會相對較弱。它的能力將源于它所獲得的最新的關乎真實世界的知識。
當然,這種優雅簡潔的方法也需要一些額外的補充,使其能夠在實踐中工作。如果計算機具備有限的知識量,那么就會有很多類似的陳述。在每種情況下,選擇正確的陳述也是一個問題,不過這些問題都已經得到了解決。這種“如果–那么”的陳述被稱為“生產式規則”,簡單來說就是生產,因為通常規則的概念會使人們產生一些誤解。幾百個規則的組合被視作“知識庫”(knowledge base)。
◎ 程序還將包含一個推理引擎,這部分程序能夠在知識庫中進行篩選,為當前的情況選擇正確的生產規則。當然,這樣的系統需要采用某種形式的搜索,也會在可能的時候采用“啟發”的方式。
◎ 這類系統中另外一個至關重要的組成部分就是完整地解釋出它的推理過程的能力。這并不僅僅是為了展示。因為這類系統的設計旨在對真實世界中的問題給出及時而有用的建議,它們無法做到100%的確定性。你可以期待一個便攜式計算器能夠給你帶來確定性,但是別指望執行醫療、工程診斷或給出稅務建議的系統也能帶來確定性。真實世界的問題往往都會帶有一些不確定的元素,而問題越有趣,對這一問題的分析越復雜,不確定性往往也越高。此外,解釋機制讓系統構造人員能夠調整知識儲備。通過讓系統對它的結論做出解釋,工作人員能夠看到,需要對知識儲備以及推理引擎做出哪些改動。
這種解答程序通常被稱為“專家系統”(expert system)。我還是更偏愛之前提到的那個更準確、更不容易導致誤解的名字——“知識系統”。不過“專家系統”顯然更為吸睛,這類系統的確包含了人類的專業知識。知識庫與推理引擎的交互,借鑒了人類專家的知識及推理過程。
很多讀者可能覺得這有些夸大其詞。人類的知識是一個復雜的事物。它通常是經驗的產物,而非純粹的學習獲得。這往往涉及更為精細的判斷,而不是盲從規則。有必要重申,我正在描述的這種人工智能系統,實際上包含并正確使用了這類知識。一個知識系統,不僅僅包含一些事實,可以從中進行推斷;它還包括判斷,這些判斷通常可能是不確定的,而這類系統做出的推理也不是純粹符合邏輯的。典型但并不獨一無二的是,一個知識系統能夠進行診斷。用推理術語來說,這包括檢索一系列癥狀,然后從這些癥狀中找到一個對當前癥狀最合理的解釋。這被稱為“溯因法”(abduction),它并不是一個純粹的邏輯性任務。結論沒有確定性,即使是走向結論的每一步,也沒有確定性。
這類系統在真實世界的情景中也能奏效嗎?答案非常肯定,“是的”。20世紀70年代中期開發出的一款先進的知識系統MYCIN,是斯坦福大學計算機學院和醫學院的合作成果。MYCIN的知識庫是關于血液傳染病的診斷與治療。1979年,官方研究顯示,MYCIN的表現幾乎能與斯坦福大學的人類專家相媲美。
這一測試涉及過去的10個菌血癥和腦膜炎案例。8位專家對這些案例采用的建議療法進行了評分:可接受為1分,不可接受為0分。滿分是80分。結果如表2-1所示。
表2-1 各類建議療法的專家評分
我在這里貼出了全部結果,因為它們比MYCIN的優秀表現更能說明問題。最重要的一點是,沒有一個分數接近滿分。這說明了一個事實:醫療診斷充滿了不確定性。出于興趣,我們了解到這些患者實際接受的治療得到了46分。在真實世界,我們無法期望完美的解決方案。第二點需要注意的是,盡管MYCIN的評分最高,但我們只是就這個相對較小的空間討論。知識系統能夠令人印象深刻,但它們不是魔法。醫療專家和醫療專家系統必須處理那些沒有單一確定的解決方案的問題。但是,能夠將人工智能系統應用到此類困難的真實世界問題上,本身就是一項意義深遠的技術成就。
MYCIN只是一個實驗性的專家系統,但它所展示的技術引發了許多實際的、有益的應用。一個成功的商業案例就是美國運通的授權者助手(Authorizers Assistant)。這個專家系統的名字很重要,表明它是第二代專家系統的范本。也就是說,它最初就是為了協助而非取代人類授權者而設計的。它基于大量與顧客有關的數據提出建議而非指示,包括賬戶信息、消費模式及個人數據。通過檢測多個數據庫,它為每個消費者生成了一份信用授權建議。它也能夠向授權者提出其他任何應被納入考慮的與該顧客相關的信息。這種對知識系統的使用幫助人們根據可能存儲在多個電子數據庫中的數據快速做出決策,這在如今常被使用的知識系統中是很典型的。
機器學習,突破知識獲取瓶頸
因為我們已經展示了如何在人工智能系統中捕捉并使用這種知識,你或許會好奇,為什么我們不去制造一個足夠大的知識庫,以此來解決所有人工智能的問題呢?這個構想無法實現,原因有很多。盡管如此,這也沒有阻止一些樂觀的研究人員繼續嘗試。
最重要的原因或許令人驚訝,人工智能與人類面臨著一個共有的問題。正因為自身的知識量非常有用,所以需要花費時間和金錢去獲取知識。在知識系統的例子中,知識通常來自人類專家。現在,專家一般會使用自己的知識,無須用外行人能理解的方式對這些知識進行解釋。人類專長通常會涉及基于多年實踐經驗的隱性判斷,這也被人們稱為直覺。所有這些必須被顯式地編寫進系統中。
你或許會想起,是最新的關乎真實世界的知識賦予了知識系統有效性。獲取這些知識的唯一有效方式是詢問人類專家,通常我們借助對被稱為知識工程師的專家的采訪來實現。我們必須挖掘出人類專家的經驗、判斷力和直覺,將其直觀地表述出來,以便它們能夠以生產規則的形式被放入系統中。這個過程耗時、耗錢。之所以耗時,是因為這個過程通常十分緩慢,合理的進度大約是每天獲取3個有用的知識單元。MYCIN耗費了大約20人/年才建造出來。之所以耗錢,是因為掌握了有用領域最新知識的專家一般會為自己的時間尋個好價錢。優秀的知識工程師也不會便宜。所以,愛德華·費根鮑姆(Ed Feigenbaum)稱其為“知識獲取瓶頸”也就不足為奇了。
人們做出了很多嘗試來突破這一瓶頸,其中一些是仍然相當活躍的研究領域,我們將在本書后面的部分看到。不少研究推動了一般性計算的發展。其中一個就是“快速原型”(fastprototyping)理念。為了加速知識獲取的過程,在實踐中,通常的做法是盡可能早地建立知識系統,隨后借助真實世界的例子提煉它的知識庫,并且修正專家認為是錯誤輸出的部分。知識系統的實際程序部分(推理引擎)得到精煉,因為現在人們能以不高于一個文字處理器的價錢買到一個“專家系統外殼”,你只需要向里面“添加知識”,就能制造一個有用的系統。
突破知識獲取瓶頸最重要的進展之一就是所謂的“知識引導”(knowledge elicitation)領域研究的進步。這一領域研究如何提取知識,通常來源不是人類專家。很明顯,可靠、快速地提取知識是知識工程師任務和技術的主要部分,研究針對這點展開。在人工智能領域外,它同樣是一個非常有用的過程。這些技術已經使人們更透徹地理解了知識在人類完成任務時所扮演的角色。現代人對知識經濟崛起的討論,大部分要歸功于人工智能的發展。
然而,大多數研究都開始轉而去尋找讓計算機自學的方法。人類專家依賴好的老師,但他們也會從經驗中學習。如果程序能夠從經驗中學習,那么知識獲取的瓶頸至少會被削弱。機器學習是這一領域的名稱,并且和許多人工智能領域一樣,它經歷了初期的狂熱,以及隨之而來的清醒——這是一個十分困難的問題。許多系統被制造出來以對一組例子進行分類或概括。各種所謂“模式識別”的技術催生了另一個有用的、可創造利潤的進步,我將在下一節進行介紹。然而,對人類和計算機而言,學習這一行為都沒有被很好地理解,模式識別只是困難的冰山一角。正如我們在上一章看到的,人類智能中有許多無法用科學方式解釋的元素,學習就是其中之一。知識獲取的瓶頸仍然有待突破。
還有其他限制阻止知識系統實現一般目的智能。最重要的是,它們包含的是一個相對狹窄領域的知識,要么只包含太空飛船工程設計知識,要么只包含血液傳染病知識,而不是一般的知識、智慧或常識。許多人試圖捕獲一般目的知識,但并未成功,而且這種困難激勵著許多當代人工智能研究人員,他們使用的技術與知識工程相距十萬八千里。后面章節將會繼續探討這個主題。
目前,知識系統仍然十分成功,但也有一定限制:
◎ 它們在一個較窄的領域運轉;
◎ 它們缺乏常識;
◎ 最重要的是,它們需要實質性的投資,因為有用的知識很難獲得。
然而,那些已經做出重要承諾的組織,比如NASA,發現它們的有用性遠超成本數倍。我們的現代生活依賴這種系統來為醫生、護士、工程師、財務顧問、宇航員、科學家和各類專家的所有行為提出建議。知識系統已經滲透到現代生活的方方面面。實際上,這一人工智能領域如此成功,以至于許多人不再將其與人工智能掛鉤。他們只是將提出意見視作計算機能完成的另一項工作。我認為這就是一個科學分支所能取得的最大成功。
數據中的鉆石
機器學習研究中最重要的進展就是一系列后來被稱作“數據挖掘”的人工智能技術。隱藏在這一名字背后的事實是,現代公司擁有大量數據。大多數零售商都使用電子記錄,盡可能久地保留店內每一筆交易的記錄。患者記錄、警方記錄、稅款記錄以及類似的記錄都是大量數據的集合,而且目前這些數據幾乎都被存儲在計算機上。另外,一個參與交易客戶名單和郵件列表等信息的龐大行業已經成長起來。決策制定者們并不缺少數據,但問題在于如何從數據中提取到有用的信息。數據挖掘程序就是從大量數據中尋找到“鉆石”的程序。
數據挖掘通過大量人工智能技術協同實現。有些技術類似于我們已經看到的基于知識的搜索和模式匹配。數據挖掘同樣涉及更傾向生物學的知識,我們將在下一章中看到。用商業術語來說,數據挖掘對設計軟件和使用軟件的人而言,都是非常成功的。能夠從現代商業的大量數據中快速提取有用信息的能力,被證明對于商業成功如此重要,以至于數據挖掘軟件能夠賣出非常高的價格。從這些方面來看,數據挖掘是人工智能成功的典型。
讓我們更加詳細地研究這種源自人工智能的技術如何使機器學習。我們已經看到將真實世界知識放入人工智能程序是多么有益,同時也看到了想要獲得這樣的知識是多么困難。針對這個問題,一種可行的解決方案或許是設計出能夠自學的計算機程序。這一人工智能研究領域就是所謂的機器學習,該領域已經吸引了大量的研究。
現在,人們在討論“機器學習”的時候,很容易將其翻譯成人類的術語。畢竟,我們最熟悉自身的學習過程,這是我們傾向于看待這個機器問題的方式。但是,對人類學習的思考并未回答我們很多機器學習的問題。回憶一下,知識系統需要的是一組生產規則的形式:“在情況S執行動作A。”機器學習的問題是如何自動生成這樣的規則,準確地反映真實世界,而無須人類引導和手動編程。
讓一個人工智能程序來做這些工作會存在許多困難的步驟。首先,也是最難的一個,就是讓程序識別“情況S”。讓我們假設“情況S”是一位具備某些癥狀的患者。(也可以是棋局中的一個布局,邏輯證明中的一個步驟,股票價格的一次波動,或者準備火箭發射時的一個步驟。)我們掌握的是一系列觀測結果,一些相關,一些無關,計算機必須根據它們做出判斷。我們有必要認識到,這不像演繹或者數學推理。患有同一疾病的不同人群可能會展示出不同的癥狀。人們可能患有不止一種疾病,一些人可能會表現出癥狀,但實際上并沒有患病。為了判斷某人是否真的患有某種疾病,有必要判斷出患者出現的癥狀最有可能由什么導致。這一推理過程的技術術語叫作“溯因法”,它或許是最接近專家意見的概念。
能夠使啟發式搜索良好運轉的工作方式說明,信息中通常存在一些真實世界展現給我們的有待挖掘的模式。識別這些模式是機器學習的關鍵組成,因為這將使程序通過癥狀進行概括。實際上,機器學習能夠從不同的人工智能分支汲取大量模式匹配技術,以此來豐富自己的技術。事實證明,許多技術盡管非常有效,但有很強的領域依賴性。也就是說,在一個領域奏效的技術,或許無法適用于另一個領域。人工智能重復研究的一個主題是,某個在一類問題中有效的技術,無法跨界到另一類問題中。
因此,機器學習研究中出現的一個事物就是一組非常有效的技術,它們通常能夠讓一個程序在很多例子中識別出模式。一些研究人員意識到這很有用,而且實際上也很賣座。他們將這些人工智能技術轉換成易用的軟件包,配備上一個好的用戶界面,就能很容易地用來探索大量數據,以尋找模式。優秀的數據挖掘軟件不會只使用一種模式識別技術。它會為用戶提供6種甚至更多的探索數據的方法,這些方法能夠被單獨使用或組合使用。
這一發展的結果是一個用于商業和科學的偉大工具。例如,位處英國的一個小型人工智能公司開發的數據挖掘工具Clementine,能夠讓一家大型跨國洗漱用品制造商減少98%在動物身上測試的時間。科學家掌握的是一長串化學合成物,其中一些在過去被證明具有不良效果。他們并不知道哪些規則或知識可以用來預測一種新合成物安全與否。唯一的方法是在動物身上進行測試。
這就是數據挖掘能夠派上用場的情況。用Clementine運行所有合成物,有害的、無害的,以及新的合成物,以此來進行預測——根據所有這些信息呈現出的模式進行猜測,判斷新合成物是否有害。只有當Clementine判斷新合成物安全時,才需要在將其添加到香波或牙膏中之前進行測試。這只是Clementine眾多成功應用中的一種,警方調查方面的應用也是其中之一。
機器學習或許尚未發現知識獲取的解決方案,但它在數據挖掘中的發現同樣令人贊嘆。在人工智能的成功應用中,這一幕不斷上演。就像哥倫布起航尋找通往印度的道路卻發現了美洲一樣,人工智能研究人員還沒有讓我們的生活充滿機器人管家,但他們卻發現了更有用的東西。
下國際象棋只是IBM RS6000系列計算機的一個宣傳元素,“深藍”是其中最著名的一個例子。這一系列的其他計算機被部署在不那么受關注,但或許更有用的任務中。這些任務包括研發新的藥物治療法、進行財務分析和預測天氣。數據挖掘是一項新技術,我們或許還沒有看到它帶給人類的全部好處。
真正的人工智能產品,例如數據挖掘,不會像直接模仿人類的人工智能版本一樣吸引那么多媒體關注。與人類模仿研究不同,這些產品擁有巨大的實踐價值。正如NASA對人工智能的使用一樣,它們通常是安靜的、幕后的機器,但是,聚光燈外,它們已經變得與我們今天的生活密不可分。
章后總結
1.如果要在諸多概念中找到一個理解人工智能如何工作的最基礎的概念,那么它應該是“搜索”。
2.將普通問題轉化為搜索問題的方法是將它分解成三個元素,分別是:起始狀態,一系列從一個狀態向另一個狀態的過渡,以及目標狀態。
3.人類的知識是一個復雜的事物。它通常是經驗的產物,而非純粹的學習獲得。這往往涉及更為精細的判斷,而不是盲從規則。
4.人類智能中有許多無法用科學方式解釋的元素,學習就是其中之一。知識獲取的瓶頸仍然有待突破。
5.決策制定者們并不缺少數據,但問題在于如何從數據中提取到有用的信息。
[1]
2003年2月1日,這部分剛撰寫完不久,哥倫比亞號飛船在返航過程中,與它所載的7位宇航員一起迷失在太空。這次悲劇并未影響我關于人工智能在規劃太空飛船發射中有益性的主張。我決定保留原來的文本,并且堅信,太空飛船很快將重新起航。
● 拓展閱讀
NASA對各種人工智能研究有大量承諾。許多目前的人工智能項目細節可以參考網址:http://www-aig.jpl.nasa.gov。
關于搜索如何作為人工智能技術而奏效的更多細節,可以參考克里斯托弗·詹姆斯·索頓(Christopher James Thorton)和本尼迪克特·布萊(Benedict Boulay)的《借助搜索的人工智能》(Artificial Intelligence through Search
)(1992年)。
彼得·杰克遜(Peter Jackson)的《專家系統介紹》(Introduction to Expert Systems
)(1990年)對知識系統技術進行了不錯的一般性介紹。
大多數人工智能書籍都包括了“下國際象棋”和塞繆爾的研究。我最偏愛的著作是喬治·盧格(George F.Luger)和威廉·斯塔布菲爾德(William A.Stubblefield)的《復雜問題解決的人工智能結構和策略》(Artificial Intelligence Structures andStrategies for Complex Problem Solving
)(1993年)。
關于Clementine數據挖掘程序諸多成就的細節,可以參考網址:http://www.spss.com/spssbi/clementine/。
盡管上一章中介紹的方法已經取得了一些傲人的成績,但一直以來,人們都很清楚,大多數此類人工智能系統都與自然界中的可比系統相去甚遠。縱覽人工智能發展史,已經有很多希望在生物學基礎上尋找智能的靈感的不同嘗試。這些對“生命孕育智能”方式的探索也取得了上一章中介紹的方法那樣驕人的成果,但它們本質上截然不同。在本章,我們將探索人工智能和生物學之間令人著迷的、多產的關系。
這種關系是一條雙向路:生物學同樣會從人工智能研究中汲取靈感,獲得知識。因此,本章也將試圖厘清,人工智能如何讓生物學家使用新穎的、令人興奮的方式去探索他們的研究領域。
有必要提醒讀者的是,整個人工智能領域的術語很多,受到生物學啟發的人工智能一般不會選擇我們已經見到的搜索和知識領域的術語。相反,它“無恥地”掠奪了聽起來與自然世界更緊密相關的生物學術語。更糟糕的是,有一些聽起來像生物學名稱的概念,其實與我們已經見過的概念完全一致,只不過使用了不同的術語來描述。
來自大腦的靈感
靈感1,構建人工神經網絡
人工神經網絡本質上是一種計算機程序,它受到了人腦和類似的動物大腦工作方式的直接啟發。對待這個概念,我們有必要“知其所以然”。說人工神經網絡“像大腦”不夠準確,盡管從表面上來看,它們更像大腦,而非普通的計算機程序。
◎ 首先,雖然在過去15年間,神經科學領域取得了巨大的進步,但我們依舊無法徹底理解,單個神經元(大腦細胞)是如何工作的。對我們來說,搞清人類和動物大腦中的大量神經元如何支持各種類型的思考甚至難上加難。
◎ 其次,人工神經網絡和大腦之間存在諸多不同。其中最為重要的不同是,大腦浸泡在一些復雜的、不斷變化的化學混合物中,這些化學物質在不斷地影響神經元的活動。這也是我為什么在第一句就說它受到我們已知東西的啟發。繼續深入挖掘,我認為有必要提醒讀者,“訓練”和“學習”這樣的字眼不應當被視作“以人類為中心的”活動。這些術語被廣泛地應用在這一領域,而且,認為它們的意思與應用在人類學習時的意思完全相同也是錯誤的。
靈感2,計算機用指令處理信息
為了理解“為什么人工智能研究人員應該從大腦中尋求更多的直接靈感”,我們有必要稍微深入地分析大腦和計算機之間的區別。現代計算機基本上只是數字電子設備。“數字”(digital)這個詞不像其字面意思那樣需要掰著手指數數,但它們代表了作為數字的信息。實際上,被使用的數字只有1和0(計算機只有一根手指),但在實際應用中,這已足矣。所有數字都可以用一長串的1和0表示,我們能夠度量的所有東西都可以用它們來表示。
為了更清楚地理解這點,讓我們思考一下音樂的數字化存儲模式。音樂是一系列升調、降調、節奏和各種音效構成的復雜模式。然而,如果我們每秒鐘能多次精確測量到音樂信號,那么這一完整的復雜模式就可以借助一連串數字1和0來表示。將這個序列轉換到CD上,放在播放器里,音樂原本的完整復雜性就能得到復制。CD播放器從光盤上讀取了被存儲的1和0的模式,作為完整的指令集,使CD播放器能夠重現音樂。
現代計算機程序就像存入CD的音樂,它們是一個代表指令的1和0的字符串,這些指令準確地告訴計算機應該做些什么。正如音樂一樣,將這種東西轉換為更有趣的東西是一個冗長乏味的過程,但令人幸運的是,這個困難的工作已經有人完成了。例如,我正在使用的文字處理器可以將數值賦予每個按鍵,同時檢查不同寄存器中的數字(類似于代表這一序列中已經存儲了多少字符的數字)。通常,它會發送另一個數字給計算機的另一部分,這部分的功能是處理顯示屏上的內容,從而使其能夠在屏幕上的正確位置顯示該字符。這一方式能夠良好運轉的主要原因之一是電子元件的運轉速度非常快,整個過程可以在一瞬間完成。
一臺數字計算機的全部工作也包含了這種類型的1和0。它以“是或否”開關的形式來表示。數據先被轉換為用1和0表示的字符串,然后被存儲在成千上萬個開關的集合中,這些開關非開即關(如今的開關實際上非常小)。這一過程被一個名為CPU的設備處理,這個設備要完成的工作就是檢查1和0的字符串,設置各種其他開關的狀態。當計算結束時,用1和0代表的輸出字符串又被轉換成更加有趣的東西,比如屏幕上的文字、圖片或揚聲器中的音樂。再者,因為操作的每一步都要輪流交由CPU處理,所以整個計算過程必須非常迅速。當我們說一臺現代計算機擁有2GHz的處理器時,就意味著這個CPU的時鐘速度為每秒20億次操作。換句話說,如果CPU每秒鐘執行一個操作(就像落地式大擺鐘的一次嘀嗒),我們將需要63年時間來完成它實際在1秒鐘內完成的工作。更通俗的說法是:數字計算機運行方式的愚蠢得到了它們巨大算力的補償。
靈感3,處理信息更像大腦
長久以來,甚至在人工智能的全部歷史中,我們都知道大腦一點兒也不像計算機。
◎ 首先,一個神經元更像一個獨立的加法機,而非簡單的開關。每個神經元都與其他神經元建立了大量聯系(數量約在5 000~20 000之間)。每個神經元可能的運作方式大致如此:它將所有連接上的活動總量求和,當這個數量超過某個閾值時,神經元將會產生一個輸出信號(激發)。對許多其他連接中的神經元而言,這個輸出信號本身又是輸入,再次構成了輸入事件的一部分。這些輸入事件輪流求和,可能會導致它們輪流激發(如果超過了閾值)。
◎ 其次,大腦中沒有CPU的等價物。相比輪流檢查每個1和0,它們高度互聯的本質意味著,存在神經元激發的持續旋轉模式,這影響到了與它們相連接的神經元。因此,實際從這個物理層面上講,真正在你大腦中發生的是一連串復雜的(實際上非常非常復雜)神經元激發模式。我們有必要注意到,人類大腦擁有1 000億個神經元。它們中大多數與其他數千個神經元相連接。人工智能擁有的復雜性遠小于這個數字,對二者進行比較為時尚早。
人們早期嘗試制造更像大腦的計算機,其中就包括一臺名為“感知器”(perceptron)的設備。感知器是一種類似于圖3-1給出的神經元草圖的電子設備。
圖3-1 神經元與感知器
從技術層面來講,它是一臺閾值開關設備,有一些會進行相加的輸入線,以及一個閾值。如果求和的結果超過了閾值,感知器就會激發(輸出1);如果低于閾值,那么它就不會激發(輸出0)。一個感知器相對容易編程(“訓練”這個詞通常在這個領域使用)。每個輸入線被賦予一個權重。思考這些最好的方法就是在每個輸入上進行容量控制。如果感知器在我們不需要的時候激發,活躍輸入的權重就會被降低(容量控制調低),直到它在我們感興趣的輸入模式上激發。另一方面,如果它沒有在我們希望激發的時候激發,就應該調高活躍輸入的容量控制(提高輸入權重),直到正確激發。這也就是說,它只對我們希望它回應的特定類型的輸入做出響應。
不幸的是,盡管單一的感知器容易訓練,但是它作為一臺計算機并不是十分有效。1969年,人工智能之父馬文·明斯基(Marvin Minsky)[1]
和西蒙·派珀特(Seymour Papert)對此進行了有力的說明,結果導致人工智能界的研究興趣脫離這一領域10余年。20世紀80年代中期,研究再次興起,研究人員設計方法來訓練感知器和類似設備的大型網絡。
當存在不止一個感知器時,上面提到的使用權重設置方法的問題與單一感知器的情況不同,我們并不知道哪種連接需要調整。所有感知器都互相連接,互相影響,因此沒有一種找出應該調整哪些權重的簡單方法。
這種問題最重要的解決方法是所謂的“反向傳播算法”(back-propagation algorithm)。為了理解這個算法如何工作,我們必須考慮一個擁有三層閾值開關設備的神經網絡(見圖3-2)。一層是輸入層,還有一層是隱藏層,之后是一層輸出層。隱藏層中的每個閾值開關設備,也就是節點,都與輸入層的各個節點相連接。輸出層的每個節點都與隱藏層的各個節點相連接。這種網絡的技術術語是“前饋多層神經網絡”(feedforward multi-layer neural network)。
圖3-2 神經網絡的工作原理
這種類型的網絡可以通過輸入節點,經由隱藏節點,向輸出節點傳遞信號來進行訓練。就像單一感知器一樣,訓練就是獲得我們希望從這些輸出節點得到的輸出。我們希望獲得的和實際得到的結果之間的差異,被表示為輸出節點中的錯誤。這些錯誤通過網絡進行反向傳播,以便各種活躍權重能夠得到調整。現在,我們正在處理大量容量控制,這些容量控制以一種復雜方式與其他容量控制進行交互。在數次向前、向后傳遞后,權重逐漸得到調整,整個網絡或多或少能夠按照既定的方式運行。這種反向傳播算法是訓練人工神經網絡的一種有效但緩慢的方法。
請不要假設這種描述精確地覆蓋了全部人工神經網絡。人工智能使用了大量不同類型的網絡。通過將不同程度的隨機性納入操作中,許多網絡都增加了原理的復雜性。這具有實際意義,例如,預防網絡移動過快、變為即時解決方案,并幫助它成為更加一般性的解決方案。還有一些網絡通過使用“是或否”開關,而不是閾值開關設備,略微簡化了這一問題。這并不代表對傳統計算的回歸。它代表了一種決策,單獨依賴網絡的高度互聯本質,來產生有趣行為。
雖然不同類型的網絡在許多細節上并不相同,并且各自具備優勢和劣勢,但操作的基本原則都是如上所述的那樣。這一領域的研究無疑正在進步,新類型的網絡仍然有待探索。正如第1章所提出的,探索人工神經網絡性質的最佳方法就是建造它們,并且嘗試用它們來解決一系列問題。
然而,最后有一點需要補充。幾乎所有的人工神經網絡都在傳統的數字計算機上進行模擬。這點可能看起來有些不合常理、令人疑惑,特別是它們代表了對一種事實的認可:
大腦與計算機非常不同。我們有必要記住,在這種情況下,計算機只是充當了實驗室。正如我們在本章開頭部分提到的,數字計算機的速度和靈活性,使其能夠被用來制造和探索與此類似的理念。有必要記住,這些被代表和被實驗的東西本身不必是可計算的。
如今,氣象學家依賴于天氣系統的大型復雜模擬來生成天氣預報。按我們的常規理解,天氣系統當然不是可計算的。實際上,它們與大腦有許多相通之處。正如大腦中存在不斷變換狀態的神經元激發,大氣層就像是充滿了不斷變換的氣溫和壓力模式的“海洋”。預測這些大氣模式非常困難,然而,計算模型能夠產生巨大的幫助。
我們可以認為人工神經網絡研究與此類似。所有計算機完成的工作都是提供實驗平臺,或者說一個豐富的模擬,使類似天氣的東西的某些性質被充足的精確性捕捉到,并用于生成天氣預報。
然而,在介紹了這種相似性后,我們還需要理解它的局限。要將人工神經網絡稱作大腦的模擬還為時尚早。甚至與最簡單的動物大腦相比,它們都是小規模的、粗糙的、一維的。例如,到目前為止,我們所討論的神經元更像一個獨立的加法機。實際上,一個神經元也許更像一臺獨立的計算機,在激發功能之間存在的時間間隔代表計算機進行了一次內存。在使用這些或其他方法準確地思考模擬它們前,我們需要在生物神經元方面進行更多的研究。
繼續將人工神經網絡和人類大腦進行比較沒有什么實際意義。人類大腦被稱作宇宙中最復雜的東西。一個人類大腦可能的配置數量,遠遠超過了全宇宙的原子總數。預測幾天后的天氣情況固然非常困難,但使用任何可預見的技術都無法對下一秒人腦內的模式進行預測。
人工神經網絡,更精確的識別
理解神經網絡的理念是一回事,理解這樣的東西如何像某種類型的計算機一樣工作又是另一回事。或許,這里最重要的比喻來自物理學。人們能夠將這個網絡想象成構成一張桌子表面的東西,這張桌子被學習過程變出了一些坑。一個放在桌子上某處的球,能夠從自己的起點滾入最近的坑里,技術術語叫relax。換言之,整個網絡有一些狀態,在這些狀態里,網絡是穩定的。當獲得新輸入時,它會移動到最近的穩定狀態。當所有這些運轉正常的時候,這類網絡將會作為一種分類機制運轉。它將被訓練來區分一些原型案例。當輸入一個新例子時,它會relax入代表最接近這個新例子原型的狀態。這種分類過程是神經網絡的主要應用之一。
一個能夠很好地說明這點的例子是手寫字符的識別。當今,為方便計算機讀取,幾乎所有商品都貼著條形碼。實際上,它們只是另外一種形式的數字信號,用粗線和細線代表一系列數字,在一些情況下還會代表字母。(我們無法描述得更加具體,正如在現代計算中,有許多不同的無法兼容的條形碼習慣一樣。)
現在,人們一般不會用手寫條形碼,即便能夠做到,他們也不會使用這種典型的機械方法。人們書寫的文字并不是那么精確和可預測。盡管如此,人們使用手寫字符進行交流已有好幾個世紀。學會識別一個字符后,比如拉丁字母表里的一個字母,我們就能夠輕松識別出每個字母的輕微變形體。我們當然不需要手寫字母與我們看到的第一個例子完全一致。不久后,我們就能夠識別出嚴重變形的字母。很明顯,會有這樣一種某個字母嚴重變形,以致我們無法確定它是一個“a”還是“d”,從這點來看,我們在讀取手寫字符時遇到了一點問題。
計算機并不善于此道。它們通常需要清晰、一致的輸入,因此需要使用條形碼。如果想要采用傳統計算方法,讓計算機讀取手寫字符,我們就必須將每個字母定型為一個網格上的一組點。程序就必須計算,一個被掃描出的字母與這些點定義的理想字母相差多少。誤差將允許尺寸和位置上的變形。程序必須進行冗長復雜的計算,以覆蓋這個字母所有可能被觀察的角度。甚至在這個過程之后,當被掃描的字符更像一個“a”而非“d”的時候,程序也需要顯式定義的具體規則,對其他不同可能性亦是如此。這個過程冗長而困難。事實證明,這種方法并不奏效。識別手寫字符變形的任務量對這類精確方法而言太過龐大。這就是為什么有條形碼存在,為什么計算機可讀的數字必須被打印成固定格式。
如果我們想讓計算機讀取手寫字符之類可變的不精確事物,神經網絡似乎是最直接的方法。例如,我們能夠訓練一個神經網絡來識別26個小寫形式的拉丁字母。這個訓練過程將包括呈現一些典型或普通的26個手寫字符作為輸入,調整權重(容量控制),直到我們得到正確的輸出。因為我們想用這種網絡來區分字母,一個好的設計將是26個只會激發一次的輸出。訓練過程結束后,它將擁有26個穩定狀態。當它作為一個新字符呈現時,如果一切正常運轉,它將relax入與新輸入最接近的原型字符的狀態。在這里運行的分類規則中,我們無須辨識分類細節,也就是說不需要了解如何區分一個更像“a”而不是“d”的字符。在某種意義上,這種分類規則存在于網絡中,但并非顯式意義上存在的規則。我們不會細究正在運行的神經網絡或計算機,去提煉出區分“a”和“d”的規則。我們知道的只是這個程序善于完成這項工作。出于這個原因,這種人工智能方法有時被稱作“次級符號”(sub-symbolic)。
無監督學習
正如前面介紹的,訓練一個人工神經網絡來識別手寫字符的例子從技術層面來講就是所謂的有監督學習。有監督學習覆蓋了這些情況:我們提前知曉希望網絡學習的特定類型,訓練過程包括匹配網絡的表現來識別那些模式。到目前為止,我所使用的例子只向網絡呈現了一種原型,或者通常只有一組原型。其實,還存在另一種用途更多、更令人興奮的神經網絡。從技術層面來講,這就是所謂的無監督學習,它覆蓋了那些我們不知道模式的案例,或者也許存在一種模式,網絡的任務就是去尋找它。
這看上去是一種對復雜計算技術相當晦澀的使用,但實際上,這是一個有諸多有益應用的領域。我們在上一章中介紹過的數據挖掘就是無監督學習應用的一種。數據挖掘包將為用戶提供至少一種,通常是很多種類型的神經網絡。如果一個大型的、無結構的數據庫被傳入神經網絡,那么它可能是被檢測到的數據模式或數據簇。
這種人工智能方法具有一些非常有趣的特征:
◎ 首先,一個事實是,它為混亂、困難的事物提供了一種準確定義的分類方法(前提是能夠進行定義)。事實證明,真實世界中存在很多這樣的混亂事物。至少,人類語音就是一種像人類手寫字符一樣不精確的東西。通過眼睛或攝像機去識別和解釋視覺世界可能與區分手寫字符存在許多相同之處。即便能夠實現,提供任何復雜且快速的規則、讓計算機對視覺輸入做出響應也會非常困難,例如區分一張臉龐和一個花盆。
◎ 其次,因為神經網絡執行的這種分類并不依賴于嚴格的規則,當事物變得困難時,它會變得更加可靠。多年來,人工智能研究人員在自己的系統中找到了一種名為“優雅降級”(graceful degradation)的性質。隱藏在這一性質背后的理念是,大多數傳統計算機程序要么能夠完美地運轉,要么無法運轉。正如大多數讀者經歷挫折時一樣,當計算機程序遇到問題時,它們傾向于突然停止運轉或者徹底陷入混亂。在這些情況下,計算機編程人員會說程序已經“崩潰了”。這是一個準確的比喻,就好像一堆東西摞得過高并且已經搖搖欲墜,一旦失去平衡,就會墜落地面,變為毫無意義的一堆雜物。這個描述非常接近現實。
這種突然崩潰的傾向在動物大腦中并不常見。人類和其他動物無疑會產生困擾或得出完全錯誤的結論。然而,他們不會像計算機程序一樣突然崩潰。甚至在最具挑戰、最令人困擾的情況下,他們通常也會嘗試做一些事情。開發表現得更像大腦的程序是人工智能研究的主要范疇。這就是優雅降級的意義所在。眾多人工智能方法中,神經網絡是最有希望制造出可以優雅降級的計算機的方法之一。這種方法不僅在技術層面上具有意義,而且對我們理解動物大腦可能的運作方式也有重要的啟示。
因為在存儲任何信息片段的時候,整個神經網絡都參與其中,它會以某些有趣的方式對損傷或退化做出響應。例如,我們要訓練一個網絡,以前面介紹過的方式粗略地識別字母表,最終,我們或許能夠在識別手寫字符時獲得可靠的性能。如果我們移除這一網絡的幾個節點,它將不會像傳統計算機程序一樣完全失敗。它也無法識別出26個字母中的大部分。相反,它的表現可能會以一種非常不同的方式退化。這個網絡或許仍能識別全部26個字母,但是可靠性略微降低。或許,它做出正確分類的準確率會從99%下降到80%。這不僅是優雅降級的一個例子,它與人類或動物大腦的退化表現也非常類似。(通常,人們會對喝醉酒的人進行這種不太正式的實驗。)
一些研究人員已經得到了與人類大腦退化方式類似的結果。人工神經網絡能夠以非常像人類神經系統損傷和疾病的方式退化,它們正在成為人類大腦科學和醫學領域公認的研究工具。
人工神經網絡是智能的關鍵嗎
如果神經網絡非常強大,非常有趣,并且與人類智能如此相似,你可能會好奇,為什么解決所有人工智能問題的方法不是制造出一個龐大的人工神經網絡。不幸的是,正如許多其他人工智能方法一樣,當我們嘗試將其發揚光大或者概括出一條可行的軌跡時,事情就被證明相當困難。僅通過制造一個大型神經網絡來制造智能的理念存在很多問題。我們在上一節思考過的成功案例,或多或少都是特定問題的特定解決方案。如果我們試圖超越這點,事情就會變得困難。
因為訓練一個網絡來執行多種不同任務是很困難的。在理想情況下,我們可以訓練一個規模相對較小的網絡,來處理相對較小的、(更重要的是)定義明確的問題。我們到目前為止所考慮的網絡本質上都是單一的、有跡可循的問題。如果繼續深入挖掘,訓練操作就會變得更加無法預測、更加困難。在大多數情況下,這當然不是“今天是字母表,明天是世界”這么簡單的問題。頗具諷刺意味的是,或許我們目前只能訓練人工神經網絡來處理相對定義明確、規模可控的問題。(當然,我們一直在訓練人類自身的神經網絡方面更加成功。)我們尚未搞清楚,如何訓練一個人工神經網絡去處理“世界”或真正開放的問題集合。
現在,一些讀者可能會覺得,這種不可預測性不是問題。畢竟,我們正在討論的是訓練而非編程,而且,我們希望神經網絡表現得更像大腦而非計算機。考慮到神經網絡在無監督學習中的用途,我們似乎真的無須擔心這類問題的規模以及訓練過程的可預測性。這并非問題關鍵所在。我們確實需要一個可處理的、定義明確的問題,以使訓練過程奏效。一個著名的人工智能都市神話或許能幫助我們更清晰地理解這點。
讀懂人工智能
有坦克,還是沒有坦克
一個研究團隊正在訓練一個神經網絡來識別包含坦克的圖片。(我會讓你自己去猜為什么是坦克而不是茶杯。)為了做到這點,他們給它展示了兩個圖片訓練集。一個訓練集的圖片中至少包含一輛坦克,另一個不包含坦克。這個網絡必須被訓練來區分兩組圖片。最終,在全部內容經過反向傳播填滿網絡后,這一網絡能夠正確給出結果:圖片中有坦克時,它給出“坦克”的結論,圖片中沒有坦克時,它給出“沒有坦克”的結論。即便一個沙丘后面只露出了一點點炮頭,它也會說“坦克”。當研究人員呈現出一張圖片,圖片中坦克完全被擋在沙丘后面,看不到任何部分時,程序還是會說“坦克”。
現如今,當一切在真實世界中發生,研究實驗室傾向于按年齡“劃分陣營”。年輕人會說:“太棒了!我們有希望拿諾貝爾獎了!”老一代會說:“有什么地方錯了。”不幸的是,姜通常是老的辣。
實際情況是這樣:包含坦克的照片是早晨拍攝的,當時軍隊正在附近駕駛坦克。午飯后,攝影師回來,從空地的同一角度拍攝了照片。因此,神經網絡識別出能夠使它區分兩組照片的一個最可靠的特征,即陰影的角度。“上午=坦克,下午=沒有坦克”。這絕對是區分訓練集中兩類圖片的一個最有效的方法。無疑,它不是一個能夠識別出坦克的程序。神經網絡的巨大優勢是,它們能夠找出自己的分類標準。然而所面臨的大問題是這個分類標準或許不是你想要的那個。
規模問題也不容忽視。人類的腦容量很大,擁有1 000億~2 000億個神經元,神經網絡不可能變得那么大。甚至僅僅達到這種規模的千分之一,都超出了目前這一領域的最高水平。它需要非常強大的計算機,并且簡化假設,以接近最簡單的生物大腦中的神經元數量。人工智能領域最青睞的對象是加利福尼亞海蝸牛(Aplysia californica),這種海蝸牛擁有大約2萬~4萬個神經元。實際上,在人工智能領域,這仍然是一個非常龐大的神經網絡。
困難重重的不光是制造這樣龐大的神經網絡。訓練龐大的神經網絡的問題,不會單純隨著規模成比例增加。前面介紹過的反向傳播算法在訓練中非常有效,但是速度緩慢。節點越多,相互連接越多,這一過程就會變得越慢。這些困難反過來會影響選取訓練集時可控、可預測問題的需求。
一個甚至更加困難的規模問題是,需要將神經網絡的規模與它被訓練執行的任務規模相匹配。雖然這一問題并不像說起來那么簡單,但它很容易理解。如果我們訓練一個神經網絡去識別10個輸入,而且這個網絡擁有10個隱藏節點,那么每個隱藏節點就會像數字計算機中的傳統內存一樣運轉。輸入中沒有噪聲或改變,那么可能出現的就是某些類似傳統計算的東西。神經網絡只會變成一個查詢表,不會做任何概括。簡而言之,它會表現得或多或少像一個數字計算機中的傳統程序,并且不會擁有上一節中介紹的任何有趣的性質。同樣地,無法保證這個神經網絡將會應用分布式方法來表達自身。這一問題對受訓于一個非常簡單的問題的巨型網絡而言,甚至更加嚴重。
這些不同的規模問題,尚未被證明是可以解決的。關于這些問題和相關問題的研究仍在繼續,但是,目前來看,它們有效地阻止了人工神經網絡最初所獲成功的繼續發酵。來自大腦的啟發或許說明了,相比一個巨大的神經網絡,一些較小的網絡可能也是適合的。例如,目前的神經生理學知識提出,人類大腦包含了約100個不同但相互作用的網絡。
神經網絡讓我們瞥見了局部生物智能如何運轉,但還有更多有待探索的地方。這誘人的一瞥沒有在神經科學和生物學中迷失。人工神經網絡是一個偉大的建模工具,在接下來的幾十年里,很可能會產生一些關于活體大腦如何運轉的有趣理論。再一次,頗具諷刺意味的是,人工智能在實現某些它宣稱的目標時并沒有那么成功,卻成功地推動了其他科學領域的發展。最后一章將會詳細介紹這點。
遺傳算法,從進化中學習
進化計算是一個需要基本進化原則,并以計算機程序的模式進行應用的人工智能領域。并不需要程序員將一個解決方案編寫到程序中,程序便能夠進化出解決方案,正如字面意思所示。為了理解這一點如何奏效,讓我們稍微詳細地研究一下所謂的進化基本原則。
現代基因生物學已經證明,進化只會通過基因的選擇和重組來實現。這些基因類似于計算機代碼,它們代表了某種生物本質的必要信息。繁殖,特別是有性繁殖,促成了優勢基因的組合。在科學文獻中,對進化的描述差強人意。然而,我能夠確定,我的祖先以及那些我透過我家窗戶看到的松鼠、樹木和小草能活得足夠久來繁殖他們自己。我們所有人的基因構造都應該感謝那些祖先。
正確類型的計算機程序能夠有效地模擬這個過程。計算機代碼能夠代表這些基因。正如我們將要看見的,選擇和繁殖過程也能在計算機中模擬。討論“程序進化出問題的解決方案”并不是天方夜譚,因為這正是它們所做的事情。但是,我們現在應該回憶起本章開頭的術語,因為所有這些計算概念使用的都是非常生物學的名稱。
遺傳算法(genetic algorithm,簡稱GA)是我們將在這里詳細探討的一種進化計算的形式。一個GA與生物學進化非常相似。將任何問題轉變為可以由GA處理的問題,其中不可或缺的一部分就是所謂的適應性函數。如果我們能夠描述一個問題,衡量某個解決方案的優越性,理論上就有可能進化出一種該問題的解決方案。實際上,這是我們在上一章看到的另外一種“啟發法”。程序員能夠使用這種或幾種問題特征來引導進化過程。在計算方面,這只是一種允許我們為所有可能的解決方案評分排序的方法。如果排序是可行的,那么至少在理論上,GA能夠進化出問題的解決方案。
計算機所做的是為問題(已知的人口)設置一些候選解決方案。在這個最初階段,它們都是完全隨機的。(為了讓數學計算更簡單,我們假設人口規模為100。)適應性函數可以為這100個候選方案評分排序。即便它們是完全隨機生成的,也有可能從1到100對它們排序。當然,或許排名第一位的解決方案看起來根本不像是解決方案。
現在,這一程序會遵循自然選擇,去掉排名墊底的,比方說50個成員。受到生物學繁殖的啟發,這些方案會在類似的過程中被替換。排名前50位的成員在所謂的“交叉”(crossover)中組合。這是生物學繁殖的計算等價物。隨著人口再次達到100,借助適應性函數的選擇過程再次執行。隨后,重復交叉過程,如此往復數次。最終,這個程序會向這一問題的一種可接受方案聚集——總要假設至少存在一個解決方案,適應性函數能夠引導選擇過程向著目標進發。很難說需要進化多少代,這完全取決于問題的規模和本質,但是,對于相對簡單的問題,可能只需要幾百次重復即可,演示見圖3-3。
圖3-3 遺傳算法的步驟
讀懂人工智能
“我想,它像一只黃鼠狼。”
挑剔的讀者可能會覺得,GA與進化沒有什么關系,它主要依賴于計算機能夠快速運算的能力。正如搜索、下國際象棋和專家知識一樣,情況當然并非如此。這其中涉及的東西可不只是數據處理。本節將給出一個詳細的例子來進行說明。
據說,足夠數量的猴子坐在足夠多的打字機前,最終會打出莎士比亞的全部著作。我擔心這里包括的數量太大,已經超出了我的計算能力,因此,我只會研究一個較短的表達:“methinks it is like a weasel”(我想,它像一只黃鼠狼)。我們能夠精確地計算出,生成這句話需要多少次隨機敲擊。這句話中有28個符號(包括空格),如果我們假設只有小寫字母,就需要從27種字符中進行選擇(包括空格)。如果猴子或計算機只是隨機敲擊鍵盤,那么,出現這句話的概率是,近似于。實際上,發生這種情況的可能性非常小,我們能夠假設這一情況永遠不會發生。然而,對一個GA來說,它有可能縮短特異性,在幾秒鐘內通過自然選擇制造出這句話。
我們如何編寫程序來進化出這句話呢?好吧,GA將從一個隨機位置開始,正如我們已經看到的,這個起點成為正確短語的概率微乎其微,基本可以忽略不計。然而,我們將增加適應性函數。對這個任務來說,一個合適的適應性函數應該能夠累加每個字母與目標字母接近度的數字。請記住,一個適應性函數必須能夠讓計算機按照從完全隨機到正確的順序,排列所有候選句。如果計算機能夠計算每個字母與該位置的目標字母的距離,并且累加,那么,擁有最小得分的語句就是最好的(或最沒用的)。
這個程序進一步模擬了進化。讓我們假設短語的人口規模是100。程序根據適應性函數進行排序,舍去排名后50位的短語。排名前50位的能夠在模擬繁殖的過程中被重新組合。在這種情況下,很容易拿到排名前50位的任意組合,在某一點(比方說第14個字符)將它們進行切分,之后,將這個短語的前一半與另外一個短語的后一半組合(反之亦然)。這樣我們就擁有了兩個新的短語(或后代),當這個過程完成時,我們將重新擁有100個人口。大多數GA只增加少量的隨機改變,防止事物變為單純的局部解決方案。在這種情況下,每一代隨機改變一個字母就已經足夠了。重復這個過程,就會穩步向正確的句子靠攏。
如果你認為GA只是另外一種搜索程序(我們在第2章中看到的那種),但給出了一大堆聽上去像生物學的名字,那么,恭喜你說對了。GA是非常強大的搜索程序,因為它們并行考慮了一些候選方案,而且不會忽略局部解決方案。
很明顯,模擬進化的能力是生物學中一個非常強大的研究工具。它使生物學家能夠回答萬物如何改變,人口如何改變,它們在未來又將如何改變。
相比于難懂的理論創新,事實證明,進化計算在工程和商業應用中非常有用。GA最強大的特征之一就是始于隨機之中。這意味著,它們能夠進化出真正新穎的解決方案,而人類工程師不可避免地會研究之前的成果。它們帶來的另一個好處在于,進化后的解決方案一般都很穩健。這也就是說,它們一直在鉆研一個問題,因此通常不會像手工設計過程制造出的東西那樣脆弱。當GA發現了一個工程問題的解決方案時,它通常會繼續前進。
人們已經成功應用GA的領域包括飛機機翼的設計、新金融服務的設計以及電子電路的設計。GA通常也是數據挖掘和上一章提到的模擬識別應用的一個有效工具。正如我們已經討論過的大多數人工智能技術,真正的好處不光只在人工智能領域出現。
為什么不去“創造”智能
你可能會再次提問,如果GA如此有趣,并且易于編程,那么為什么它們不是制造人工智能的捷徑呢?進化計算吸引人的地方有目共睹。我們知道,進化已經產生了智能。實際上,它是唯一制造出穩健的一般目的智能的東西。為什么不能讓我們的GA在一臺大型計算機上運行,使這個過程重現呢?答案藏在一個事實中:這一人工智能分支僅能夠制造出令人印象深刻的局部成功,而非一般解決方案。
事實上,GA這種誘人之處是有誤導性的。盡管進化已經制造了一般目的智能,這也不是它的內容或目的。實際上,進化過程已在試圖避免產生一般目的智能。一個局部的、單一目的方案總會被人青睞。這源自進化的本質。
在我的窗外,有松鼠、白樺樹、綠草和大量蒲公英。然而,只有松鼠擁有大部分我們所謂的智能。我們通常會錯誤地認為,相比之下,松鼠的智能復雜性使其在進化中更加成功。如果條件改變,比如說全球變暖減速以及大量降雨,那么松鼠將無法適應樹木或草地。事實上,蒲公英將自己的大部分保存在地下的能力會讓它獲得最大的成功。當然,蒲公英也將面臨來自新的、適應干旱的植物的挑戰。對咖啡和水的大量需求,意味著大學只能被其他生物(當然是非智能的)占領。簡而言之,生物進化無法度量你如何生存。智能通常不是必需的。同樣地,我們有一些不錯的理由來相信,人類智能并未對生存產生幫助。我們將在下一章詳細討論這點。
一個更深層次的問題是,編程超出了單一問題情況的范疇。研究人員編寫GA,或許有一個他想要進化出的模擬的理念。然而,這個程序只會按照適應性函數引導的方向去進化。換言之,在開放性情況中,GA似乎就不那么有效了。我們尚未充分地了解一般目的智能,無法提供一個清晰的適應性函數。這不是說在人工智能中使用進化計算沒有未來:無疑,它是目前研究中一個令人著迷的部分,而且,或許未來還會制造出更多有益的應用。不幸的是,它不是制造智能機器的捷徑。
正如其他成功的人工智能技術一樣,它們不是捷徑的事實并不會抹殺它們的用處。穿越大西洋不是到印度的捷徑,但這不會阻止人們去尋找真正的道路。進化計算和人工神經網絡,是已經挖掘了許多實際應用的相對較新的技術。它們或許能夠帶給我們更多驚喜。
受到生物學啟發的人工智能,已經在一些相當不同的領域塑造了大量有益的、奏效的項目。甚至,它們通常都是幕后英雄。正如太空飛船設計程序一樣,我們傾向于只去看航天器。更難看到的是,它的機翼形狀是GA進化出的,而非人類設計的。受到生物學啟發的人工智能也像上一章提到的技術一樣,并沒有為自己的成績贏得多少喝彩。很難去判斷最新款的洗衣機如何使用人工神經網絡來控制洗衣程序,但神經網絡確實做到了這點。我們或許無法制造出一個人工大腦,但在嘗試的過程中,我們收獲良多。毫無疑問,一些科學領域已經產生了許多有益的進步。
章后總結
1.生物學同樣會從人工智能研究中汲取靈感,獲得知識。
2.人工神經網絡本質上是一種計算機程序,它受到了人腦和類似的動物大腦工作方式的直接啟發。
3.大腦一點兒也不像計算機。人類大腦被稱作宇宙中最復雜的東西。一個人類大腦可能的配置數量,遠遠超過了全宇宙的原子總數。
4.選擇和繁殖過程也能在計算機中模擬。
● 拓展閱讀
人工神經網絡在一般的人工智能圖書中都有涉及。《神經計算介紹》(An Introduction to Neural Computing
)(亞歷山大和莫爾頓,1990年)對人工神經網絡做出了一個具體的、可讀性強的介紹。
為什么相比流行說法,有更多進化的說法?《達爾文的危險想法》(Darwins Dangerous Idea
)(1995年)給出了不錯的解釋。
《理解智能》(Understanding Intelligence
)(普法伊費爾和沙伊爾,1999年)是一本介紹受生物學啟發的人工智能方法的優秀讀本。
我們討論過人工智能已經取得的實踐和理論成績后,是時候快速瀏覽一遍目前的主要可能性。但是,在介紹這些可能性之前,我們需要走一個小彎路,先來看看一些人工智能研究所面對的巨大挑戰。這個小小的彎路將會幫助我們理解,為什么人工智能的圈外人會批評人工智能,而圈內人會相互批評。
為了說明背景環境,我們有必要回憶一下:人工智能代表了人類曾應對過的最為巨大的科學挑戰(可能沒有之一)。我在第1章提到過,人工智能比太空旅行更難實現,這個說法絲毫沒有夸大。認為這樣的宏偉目標無須面對很多困難和批判簡直太過天真。無疑,人工智能自身面臨問題,但是這并不意味著進步緩慢或者沒有激情。
同樣值得記住的是,與太空旅行不同,人工智能研究并不需要昂貴的設備或對潛在參與者的地域限制。進入人工智能研究領域的主要條件,就是擁有創造力并且能夠持續地思考一些困難問題。出于這個原因,在許多國家,許多擁有不同背景的不同人群都在進行人工智能研究。在本章其余部分,當我討論經常被圈內稱作“難題”的東西時,讀者應該將這些難題視作研究人員本身能夠解決的謎題。
縱觀歷史,許多人工智能批判者都來自圈外。特別是哲學家常常宣稱,人工智能的全部或部分觀點是誤人子弟或不可能實現的。本節稍后部分,我們將探討此類觀點中更加著名的批判。但是,仍然存在一些實際問題,需要在我們繼續哲學問題前進行審視。我們將在這里考慮的哲學并不是很具技術性,我希望討論的不一致,全部與看法有關。
歷史難題:研究領域的派系之爭
作為歷史問題,人工智能研究人員傾向于組成不同的陣營,并且有時會互相謾罵。現在看起來這似乎是自然的人類趨勢,可能是所謂的“已知人類缺陷”,這也是人類開始對人工智能產生興趣的原因之一。通常我們沒有理由去批評它。然而,在人工智能圈內,這已經成為并且將繼續成為進步的阻礙。
回憶一下第1章中的軍事隱喻。人工智能研究人員都在跨越人類知識的最前沿,推動學科的發展。人們已經開發出并且仍在繼續開發各種類型的程序和機器人,去完成人類能夠完成的各種事情。寫詩?當然,盡管我從未被非人類創作的詩歌感動。探索火星?當然,這看起來像一個由機器人主導了數十年的活動。通過神經模擬研究大腦損傷?這也是人工智能技術的一個重要應用。
人工智能問題的領域如此廣泛,人工智能技術應用的領域同樣廣泛。我們已經見證了,啟發引導式的搜索如何為解決特定類型的問題提供依據,這催生了世界級的博弈程序。我們同樣見證了由大腦啟發的程序如何用非常不同的方式解決問題(通常是略微不同種類的問題)。其他研究人員通過制造現實中的機器人來進入這一領域。如果能夠整合不同技術,這種技術的差異性并不是大問題,但是,人工智能研究人員常常只在自己的工具包里放置一種技術。
更糟糕的是,他們常常藐視其他技術。他們可能認為使用其他技術的研究者犯了根本性錯誤,或者沒有追求與之相同的目標。人工智能的短暫歷史之所以引發了這種派系之爭,有很多實際原因。研究人員需要在激烈的競爭中爭取到資金。在這種競爭性環境下,將自己的方法與競爭者的方法進行區分似乎相當有幫助。
聰明的學術研究人員在職業生涯開始時,就已經完成了大部分真正有趣的工作。人工智能作為一門新興科學,在這個領域里,擁有創造力和研究能力的個人能夠單槍匹馬地提出新穎理念,并將其發展為有效原型。這導致人工智能界出現了許多有前途的明星,卻沒有技術組合的“良方”。然而,為資金和短期小規模研究項目而競爭的問題并不是人工智能領域所獨有的。生物學、物理學和化學界都或多或少面臨著這種問題。
人工智能的特別之處在于,領域內的研究人員過度概括他們的結論和主張。對于我在前幾章提到的所有方法,這種情況都已發生,并且仍在繼續。處在以搜索為基礎的研究方法前沿的研究人員宣稱,這種方法本身就是人類、動物和機器智能行為的基礎。對使用以知識為基礎的技術的研究人員而言,同樣如此。對于神經網絡、遺傳算法和以行為為基礎的機器人學,亦是如此。某些人可能會假設發現一種成功的技術,并假設(或至少宣稱)這是解開智能謎題的唯一鑰匙。
令人不解的是,學術界的派系之爭似乎比商業圈更加明顯。在商業世界,整合似乎是可行的。許多成功的商業人工智能產品都包含了不同技術的組合。數據挖掘就是一個很好的例子。其中基于搜索的方法、受生物學啟發的方法以及統計分析法,都在單一程序內協同工作。用戶只需要點擊桌面圖標,就可以將神經網絡與啟發引導式搜索組合起來。
◎ 一個問題是,在商業世界,技術的選擇似乎更會受到“它奏效嗎”這個問題的影響,而非“這與我們的正統性一致嗎”這個問題。
◎ 另一個問題是,成功的人工智能通常會涉及規模龐大的項目,第2章介紹的NASA的航天飛機就是一個很好的例子。這一項目花費了3年時間和150萬~200萬美元的投資,再一次證明建造非常巨大的系統的需求不是人工智能所獨有的。一般性計算正處于開發階段,在這一階段,大型項目通常都在議事日程上。然而,管理一個大型計算項目并非易事。行業專家估計,目前大約有50%的信息技術項目無法完成。很明顯,這對人工智能研究而言是一個嚴重的問題,但是文獻中幾乎很少提及。
總而言之,人工智能必須處理大型計算項目面臨的所有問題,我們仍需要學習如何成功組織這些項目。我們也必須處理一般性的科學問題,例如如何團結身處不同陣營的聰明卻具有個人英雄主義的研究人員。同樣必須處理的是來自學科外部的批評,這些批評通常帶有敵意。接下來的部分,我將介紹一些與人工智能不同的理論難題。
環境難題:哪些是智能機器需要知道的
如果我們希望實現一般目的智能,使機器人(或其他某種機器)能在環境中獨立運行,那么我們必須提供一些方法,使機器人能夠獲取關于這個環境的信息。然而,這個簡單的理念直接導致了人工智能的一些最大的挑戰。將電視攝像頭連接到計算機上是舉手之勞,但事實證明,使計算機從攝像頭的信號中提取任何有用信息都是極端困難的。機器人當然能夠通過接觸、雷達、聲吶或者其他形式的傳感器來探索自己所處的環境,但在此過程中也會出現我們本節所考慮的問題。
實際上,實現計算機視覺的過程會涉及很多問題。然而,我們可能會將這一領域的一個基本問題當作對象識別問題。它與人工智能其他領域的問題有著密切聯系。舉個例子,如果機器人的視覺系統能夠使它區分手機和眼鏡盒,這將是有用的。如果我要求機器人把手機遞給我,我會希望,在大多數情況下,它遞給我的是手機而非眼鏡盒。
讀懂人工智能
“手機是什么樣,眼鏡盒是什么樣”
這似乎是一個有待解決的細枝末節的問題,但事實證明這非常困難。解決這個難題最明顯的方法是向機器人提供“手機是什么樣,眼鏡盒是什么樣”的知識。這種方法將會陷入真實世界的不可能性中,因為這些物體看起來什么樣取決于光線、視角以及是否有東西在它們附近,等等。如果我們考慮不同類型的手機和不同顏色的眼鏡盒,問題就會變得更加復雜。為了應對這個問題,人工智能研究人員通常會脫離真實世界來思考。在一個高度可預測的受控環境中,研究人員在處理這類問題時取得了一定成績。這就是為什么機器人能夠被部署在生產線上的原因。
然后,這個問題變成了如何讓機器人處理更加豐富、更無法預測的情況。我們已經知道,在解決真實世界問題時,知識的作用非常強大,一個自然而然的假設就是為機器人輸入大量有關真實世界的知識。這種方法的一個問題被稱作“幀面問題”(frame problem)。這不光是基于知識的方法需要解決的問題,其他方法最終可能也必須面對這個問題,或者其他類似問題。
實際上,存在兩種不同類型的幀面問題和相關問題,但是它們都與“我們如何保證,機器人知道與世界相對應?特別是世界發生改變時”這個問題相關。“幀面”這個名字,一部分是指動畫中的幀。從一幀到另一幀,幾乎所有東西都是持續的。一個細微的特征是,米老鼠胳膊的位置可能會改變,當我們觀看動畫時,這點可能會讓我們產生運動的錯覺。這是一個人工智能的問題,因為,很明顯我們(和假定中的其他智能實體)需要將注意力集中到我們所處環境中非常小的一部分,也是起作用的那部分上,然而我們也必須注意副作用。
這如何成了人工智能的問題?好吧,想象一個處在真實環境中的智能機器人,比如你起居室里的機器人。一方面,為了找出不撞到任何東西的行走路線,它必須知道墻壁在哪里,家具在哪里。如果它走出房間再回來,它能假定墻壁仍在原地,但是家具有可能被人移動了。如果機器人不想撞到東西,它需要知道什么東西可以移動,并觀察這些東西發生了什么變化。
另一方面,在你的起居室里,有很多機器人無須知曉的東西。你可能在這個房間里住了很多年,但從未計算過它的實際面積或與磁極北極相關的校準線。描述這類問題的一種通用方法是“我們如何確定你起居室里的哪些特征是機器人需要知道的,哪些是無須知道的”。
這個問題至多是我們在第2章看到的那類組合的指數型增長。關于你的起居室,需要了解的東西可能是無窮的。機器人需要知道墻壁的顏色嗎?或許它應該知道,但它有必要知道你重新裝修前這些墻壁的顏色嗎?起居室是否比臥室大呢?它比瓊斯的起居室大還是小呢?
你可能會想出這個問題的一個明顯的解決方案。這可能與哲學家安迪·克拉克(Andy Clark)所謂的“007法則”有關(大概參考了國際間諜活動的世界):“只需知道完成任務所需的信息。”這對你起居室里的機器人而言是個不錯的口號,但是它并不能解決這個問題。區分什么東西需要知道和不需要知道,只是對原問題的重新表述。如果我們用007法則對機器人編程,讓它清掃你的起居室,那么當它判斷自己無須知道墻壁原來的顏色,只需要知道桌子的位置時,它便會停在原地一動不動。因為它需要知道的事情似乎無窮無盡。這個時候,建議你最好忘記機器人,自己清掃房間吧。
“你能自己清掃房間”這個事實說明了這類問題不是無法解決的,或許這更像一個有趣的悖論而非真正的困難。然而,正如我們已經看到的,為什么人工智能的成功很難發揚光大,一個重要的原因是我們很難將一般性智能植入計算機或機器人。
在一個擁有已知問題集合的約束世界中,我們也許不會遇到這個問題。舉個例子,如果我們想要制造一個機器人在生產線上工作,那么我們就要假設,只會發生有限數量的事件。這個數量對人類而言可能非常大,因為一臺計算機能夠在一秒鐘內考慮數千種可能性。重要的是,這個數量是有限的。如果發生了奇怪的事情,它能夠被編程來尋求幫助。在這種情況下,它需要知道什么是可以處理的。不幸的是,這或許不是我們所謂的“一般目的智能”。在真實世界中,如果置身于你的起居室里,可能發生的事件會非常多,或許是完全無法處理的。在本章后面的部分,我們將會看到為什么一些人工智能研究人員認為他們發現了回避這類問題的方法。
中文屋難題:理解而非遵照指令
對人工智能方法最著名的一個批判就是所謂的“中文屋”實驗。這是伯克利大學的約翰·塞爾(John Searle)提出的一個思想實驗。塞爾并沒有反對智能機器的理念,實際上他認為,我們人類就是一種會思考的機器。他主張,機器無法僅通過執行程序來獲得意識。“意識”非常難以定義,它引發了無盡的爭論。幸運的是,對于眼前這個目標,塞爾的反駁與這種棘手的概念并沒有直接關系,反而依賴于計算機程序的本質。
塞爾將自己的反駁建立在一個事實的基礎上:計算機程序本質上只是算法。一個算法是完整地描述如何執行某個操作的一組步驟的集合。在烹飪中,算法可以是菜譜,在音樂中,算法可以是曲譜,等等。在計算中,程序執行了完全相同的功能。因為塞爾相當肯定地提出,計算機程序的編寫永遠無法捕捉到人類思想的精妙之處。
歸功于我們已經討論過的有關算法的內容,這點似乎變得顯而易見:計算機程序是算法。算法有的時候被描述為“沒有頭腦的”。另一方面,人類思想包含了判斷、情緒和理解之類的東西。乍一看,它可能無法簡化成對算法的盲目追隨。
為了說明這點,塞爾提出了一個思想實驗。想象一個密閉房間內只有一個空槽可以傳入、送出紙張。在房間里,只有塞爾教授和一大堆用英文書寫的指令書。某人把一張寫滿不明線條的紙送入房間。塞爾查詢指令書。指令書提到,如果這組線條被放入房間里,那么另外一張寫有不同線條但描述精確的紙就必須被送出房間。這就是他所做的事情。過了一會兒,另一組線條被送了進來,他查看指令書,再將另一個線條集合送出去。
塞爾完全不知道送入房間的線條是中文字符,這些字符代表了用中文書寫的問題。輸出的線條集合是對應這些問題的準確答案。屋外的人會說,這個房間能夠回答用中文提出的問題,那么它一定能夠理解中文。
塞爾說,事實并非如此。他,約翰·塞爾,并不理解任何中文。他所做的只是在執行指令。塞爾認為這就是計算機所做的事。計算機會盲目地執行一系列指令——一個程序:沒有理解,也無法使用這種方法研究人工智能。
很明顯,塞爾刻意設計了這個思想實驗,讓人們對第1章描述的圖靈測試進行反思。圖靈認為,當計算機能夠以一種與人類無法區分的方式回答一系列開放問題時,那么人們可能會說,計算機能夠思考(對他來說,這只是時間問題)。他沒有看到提及“理解”的必要,或者在如何實現這個性能方面設置技術限制的必要。塞爾的“中文屋”明顯通過了用于理解中文的圖靈測試,但塞爾認為,它實際上并不理解任何中文。
讓我們考慮一下塞爾在這里提出的東西。我們想要將“中文屋”作為計算機系統,它可能會宣稱自己理解中文。塞爾自己或許代表了CPU。指令書代表了程序。在這種情況下,它只是對輸入的信息進行響應。真實的計算機程序一般比這個過程更加精密、靈活,但是從本質上講,這并不影響論證本身。由于算法盲目遵循規則的特征,人們宣稱,計算機無須任何實際智能就能顯式地實現智能行為。
數年來,人工智能圈中的許多人已經對這一思想實驗做出了回應,但塞爾仍然固執地認為他們都是錯的。一些人提出,我們需要將“中文屋”放入真實世界的真正的機器人里。我們將在本章后面部分詳細討論這個方法。最為流行并且我希望深入考慮的一個回應是塞爾所謂的“系統響應”(The Systems Response)。這一回應主要提出,盡管屋里的塞爾并不理解中文,但系統作為一個整體是理解中文的。塞爾認為,這個系統響應很明顯是錯誤的,因為屋里沒有理解中文的塞爾,系統里也不存在任何對中文的理解。除了塞爾以外,這個系統里沒有其他可能理解中文的東西,因此在系統里尋找“理解”就是毫無意義的。
在這個回應中,我們開始看到這個思想實驗的巧妙之處。我們在一個理解系統里無法找到任何理解,這并不令人意外。1714年,哲學家戈特弗里德·萊布尼茨曾提出,如果將一個會思考的機器想象成一座風車,我們進入這座想象中的會思考的風車,走一圈,只會“發現一個組件推動另一個組件運轉,卻永遠無法找到能夠解釋認知的東西”[1]
。因此,塞爾的觀察幾乎沒有新穎之處。如果查看任何理解中文的系統的組成,我們都不會找到一個單獨執行理解功能的部分。
中文屋思想實驗通過將一個伯克利教授放進屋子,使我們偏離了這個簡單的事實。毫無疑問,如果我們想要在這個系統里找到什么可以理解中文的東西,那就應該是這位教授了。然而,這位伯克利教授出了名地不懂中文。那么,再一次,這會使我們驚訝嗎?如果我們將一位母語是中文的人的大腦和軀體分離,似乎也無法找出特定的理解中文的部分。
更有意思的是,讓我們借著“中文屋”這個話題,重提圖靈在1950年提出的問題[2]
。我們會對一個能夠回答任意問題的屋子說些什么?對許多人來說,說它不理解中文似乎有悖常理。你可以用中文提出任何問題,并且得到一個用中文回答的合理答案。我們無法找出這個屋子里能夠理解中文的部分,這真的重要嗎?我們關心嗎?我們并不會把人類或動物分解開,來尋找“理解”,而是通過其行為來判斷它們。這就相當于在說一臺不會計算的計算器。如果你想說這點,那么或許你想把“計算”這個詞留給人類。這是不合理地“以人類為中心”。計算器或許無法按照你的方式計算,但是,說它會計算似乎是最簡單、最清楚不過的事。1950年,圖靈在自己的論文中關注了人們的態度。大多數人對塞爾的觀點不置可否。更有可能的是,圖靈的預言是正確的,對“理解”這個詞的使用將會發生微妙的變化。
算法化難題:機器不能模擬人的思維邏輯
另一種對人工智能的反對主要來自數學家,并非所有或大多數數學家,只是其中一兩個有名的例子。你在拓展閱讀部分可以發現約翰·盧卡斯(John Lucas)和羅杰·彭羅斯(Roger Penrose)的名字。這些數學家認為人工智能無法實現的一個主要原因是,實際上在現代計算機出現以前,人們就知道有一些事情是計算機永遠無法做到的。用正規術語來說,人們已經證明,存在無法遵循算法或“一步接一步”(step-by-step)的程序實現的數學和邏輯事實。[3]
現在,這些作者從這個純粹的事實中得出的結論是,人類思想無法算法化。這種觀點對一些數學家有吸引力的原因之一是,當他們在數學研究中取得創造性的飛躍時,并未感覺到自己是在執行算法。
大多數人工智能領域的研究人員認為這些觀點是有誤導性的,他們有一系列理由。或許最為重要的就是,這些正式的數學和邏輯事實的本質太過籠統,以至于說人類思想在某種程度上可以免除看起來是最不合理的。有許多困擾人類的邏輯難題,也有一些與困擾計算機的難題緊密相關的問題。古希臘有一個著名的邏輯難題:“這個陳述是錯誤的。”如果這個陳述是正確的,它一定是錯誤的;題。知道計算機存在類似或相關的問題并沒有阻止我們在過去50年間將其應用到大量的不同任務中。
人工智能領域的人通常沒有被這些反對聲音拖累的另一個原因是,他們似乎常常弄錯了計算機在人工智能中所扮演的角色。正如我們在第1章看到的,某個東西能夠在計算機上模擬的事實并不意味著它本身是可計算的。天氣模式的模擬是天氣預報的關鍵,從根本上來說,這種模擬使用了算法,因為它們是在數字計算機上運行的。然而,沒有人宣稱天氣在某種簡單意義上是可算法化的。這種模擬是可行的,因為有科學論證指出,天氣模式中隱藏著一般性規則,這些規則可以通過算法來模擬。如果我們準備考慮類似的關于人類思想的一般性科學主張——可能像“自然界中人類和動物的思想不是魔法”一樣基本,那么我們可能會在機器上模擬出大部分思想。這些機器背后的工作原理都遵循了算法的規則。
信息處理難題:將機器人帶入真實世界
20世紀四五十年代,控制論的研究領域重點關注了制造真實的物理機器,例如機器人。在后來的幾十年間,這種方法因為人工智能方法的崛起而不再被關注,后者主要依賴于編寫程序,大部分程序解決了相當抽象的問題,例如下國際象棋。在研究人員對真實世界問題感興趣的例子中(實際上,這或許是主流),計算機模擬被認為是完全適合的。20世紀四五十年代的研究人員無法輕易接觸的計算能力對后來的研究人員來說變得再尋常不過。后來的研究人員開始編寫和使用有效的計算機模擬,并將其作為研究工具,結果就是,他們更擅長處理模擬中的問題,而非真實世界的問題。
在模擬中處理問題的優勢諸多,并且顯而易見。想要修改真實機器人的設計,可能需要幾天或幾周;而修改模擬機器人的設計只需要幾秒鐘或幾分鐘。出于同樣的原因,如果人工智能研究人員的目標是理解隱藏在智能背后的原理,那么組裝和焊接一個物理機器人的實際問題,就是在浪費時間。
但是在20世紀的最后10年,一部分研究人員開始挑戰這些假設。他們開始回歸長期以來被忽視的機器人制造學科。這個運動通常被稱作“情景機器人學”(situated robotics)。考慮到計算機模擬的有效性,我們需要對這一運動的動機進行簡單的解釋。為什么要處理這些制造機器人時遇到的實際問題呢?
事實上,之所以有必要真正制造某些東西,有幾個原因:
◎ 首先,我們永遠無法保證模擬是完全正確的。問題的重要特征可能會被忽略。人們在熟知的地方走得越遠,就越有可能出現這種情況。在大多數人工智能研究中,模擬常常與現實相背離——把真實世界的復雜性過度簡單化,人們對這點所知甚少。
◎ 其次,將機器人帶入真實世界會使得一個學科去研究,何種類型的控制結構是合理的。也就是說,設計控制機器人所需的程序不再是一個那么開放式的問題。機器人的真實環境所給出的限制,遠多于純理論環境。這種觀點的倡導者強調,在將機器人帶入現實環境前就確定其行為是具有一定危險性的。如果我們制造出在一個環境中運行的機器人,那么,這個環境能夠告訴我們很多關于設計的信息。
同樣地,這種方法意味著人們可以回避一個提前了解機器人需要知道多少信息。本章第2節討論過這個問題。堅定地將機器人帶回真實世界意味著人們可以推遲解決“它可能需要或不需要知道什么”的問題。一條口號很好地概括了這點:“世界是它對自己最好的詮釋。”例如,我們可以調整起居室里機器人的行為,直到我們覺得它的清掃活動已經做好了。如果碰到桌子成了問題,那么我們可以給機器人安裝一個傳感器,或許是像開關一樣簡單的東西,使其在恰當的位置檢測到桌子并躲避。在這種情況下去問機器人知道什么才能完成工作,甚至都顯得多余。這種觀點的擁躉可能會提出,可以用他們的方法來回避“機器人需要知道什么”的問題。一旦我們對修正過的機器人行為感到滿意,那么它就能夠完成工作,我們無須去問“它如何完成工作”之類的復雜問題。我們甚至不用討論它知道什么事情。
整體觀難題:功能分解行不通
將機器人帶回真實世界同樣導致了研究重心的轉移,形成了所謂的“整體觀”(holism)。之前的人工智能方法傾向于假設一個智能實體可能執行的任務會被分割,即“功能分解”(functional decomposition)。情景具現化方法將所有這些任務再一次整合起來。它強調這類事件是傳感器輸入和發動機活動之間的強耦合。也就是說,在這樣一個“傳感器–發動機”環(sensory-motor loop)內,應該存在最小限度的計算處理。我們可以在自然界中發現這種聯系。
縱觀人工智能發展歷史,人們會假設,智能行為能夠被分而治之,這種假設有的時候是顯式的,有的時候是隱含的。一些人研究計算機視覺,一些人研究規劃,另一些人研究語言,等等。盡管這種情況仍存在于人工智能的一些領域,在過去10年間,已經有堅信智能行為問題無法按照這種方法分割的研究人員開始抨擊這種假設。
“整體方法”的一位領軍人物是麻省理工學院的人工智能實驗室主管(這或許是人工智能領域最具影響力的位置)羅德尼·布魯克斯(Rodney Brooks)。在一篇1991年發表的重要論文中[4]
,布魯克斯用我們稱之為“波音747寓言”的例子說明了自己的觀點。他提到,想象一組19世紀90年代的人造飛行器研究人員,被時間機器帶到了100年后的未來世界。他們有機會乘坐一架波音747飛機。之后,親眼看到了未來的他們,滿懷激情地回到自己的時代,堅信人造飛行器是可能的。然而,他們憑借經驗習得的所有東西都是毫無用處的。
例如,空氣動力學的早期科學被遺棄了。在飛行期間,他們向同行乘客詢問這一領域的科學知識,結果完全被無視,他們得出一個結論:它一定沒有作用。一組研究人員開始復制座椅。首先,他們使用空心鋼管(實際上,19世紀90年代時,人們尚未提煉出航空座椅所使用的鋁)。有人提出,如果波音747這樣的龐然大物都能飛行,重量就不是問題,他們找出了使用固體鋼棒的笨方法來解決。
一組研究人員看到了去掉外殼的引擎,受到啟發要嘗試復制它。然而,驅動波音747的現代高涵道比渦扇引擎,從各個方面都遠超19世紀90年代的技術水平。材料無法獲得。工程精度無法達到。設計這樣一臺引擎的氣流知識無人掌握,還有很多諸如此類的問題。
我將這個故事稱之為寓言,是因為布魯克斯并沒有解釋這個“故事”應該如何解讀。然而表面化的解讀是,19世紀90年代的人造飛行器研究人員代表了傳統的人工智能研究人員,而波音747代表了人類思維。瞥見智能行為能做什么將產生不少啟發,但是,幾乎它的全部組成都超過了現有的技術水平,因此,它能帶給人們的只有誤導性。那些試圖復制現代噴氣式發動機的人,就像今天的神經網絡研究人員一樣。他們受到大腦的啟發,試圖復制大腦,但這遠超現有的技術水平,就像1890年的航空先驅想要復制渦扇發動機一樣。那些試圖復制座椅的人,也是那些相信通過復制局部的人類能力(比如將一系列動作進行規劃)就能處理一般性智能問題的人。
通過這個寓言,布魯克斯無情地批判了“功能分解”——智能可以被分割為不同的研究項目去處理的想法。他所追求的是整體方法,制造簡單的、不太粗糙的、有形體的機器人,以便研究一般目的人工智能的問題。
19世紀90年代的人造飛行器研究人員最終通過研究空氣動力學獲得了成功,他們借助聲音的空氣動力學數據,借助當時可用的材料,制造出非常粗糙的飛行器。1903年,萊特兄弟成功試飛了一架動力飛行器,拉開了人類追逐飛行的序幕。實際上,僅66年之后的1969年,尼爾·阿姆斯特朗就踏上了月球表面。對于我們討論的主題更重要的是,同年,首架波音747客機起航。這架飛行器開始具備現代旅行的特征,構成了布魯克斯寓言的基礎。
現在,討論情景機器人學的整體方法和情景具現化方法是否會推動人工智能的巨大發展還為時過早。但這或許是討論某些人工智能問題的權宜之計。“下一個66年將會有像航天領域發展一樣偉大的進步”,我們無法排除這種可能性。
人造生命可行性難題:簡單行為背后是復雜邏輯
20世紀90年代早期,制造“情景機器人”和人工智能整體研究法的理念整合,造就了一門新的人工智能研究方法(有人可能想稱之為一門新學科),即所謂的人造生命。這種方法的支持者想要一個新名字的主要原因之一是,他們直言不諱地反對之前的人工智能研究方法。正如我們所見,這種派系之爭并沒有新意。我們或許會嘲笑,“人造生命”這個名字其實也延續了先前研究方法的傳統,即它聽起來所涵蓋的范圍要比實際范圍大,也更寬泛。也就是說,人造生命看起來是一個研究人工智能問題的不錯方法。情景具現化的概念不僅是制造機器人的好方法,它同樣幫助我們處理了一些影響人工智能發展的更普遍的問題。
不幸的是,經過10~15年的發展后,人們確定了,如同其他人工智能研究方法一樣,人造生命并未實現長足的發展。情景機器人學制造了一些精妙的機器,但情景機器人只能在非常特定的情況下良好運轉。看來這似乎不是一條制造一般目的智能的捷徑。當然了,說情景機器人學不是通向一般目的智能的捷徑,并不是說它不是可行的方法,或者已經在別的地方發現了捷徑。它就像我們已經看到的其他方法一樣,只是拼圖的一部分。我們能夠確定的是,它看起來不像是唯一的部分。
我想起了幾年前出現在AISBQ
封面上的由瑪格麗特·維爾邦克(Margaret Welbank)繪制的卡通漫畫。AISBQ
是《人工智能和行為模擬協會季刊》(The Quarterly Journal of the Society for Artificial Intelligence and the Simulation of Behaviour
)的簡稱,它是英國人工智能研究領域的行業刊物。這幅卡通漫畫里,不同的人工智能方法都以人物形象出現。第2章中描述的基于搜索和啟發的方法,是一個留著絡腮胡子的老人。第3章中描述的神經網絡和來自大腦的靈感,在畫中是一個成熟的、揮動著一張網的人。這些形象都在觀看被繪成一個爬行的嬰兒的人造生命。他們在一旁挖苦道:“只要等他再失敗幾次。”
現在,人造生命又經歷了幾次新的失敗,我們或許能夠看得更清晰一些。情景具現化和整體方法回避了一些其他方法可能會遇到的問題。目前,它似乎無法實現的是擴大規模,進而讓我們制造出一般目的智能。
這些失敗中最具代表性的一個例子就是人們口中這種人工智能方法的“旗艦項目”。這個項目是在麻省理工學院人工智能實驗室中制造的人形機器人柯克(Cog)。這是世界上資金最充足的人工智能研究項目,正如我們所見,布魯克斯是這種人工智能方法的倡導者。柯克是該項目中的人形機器人,它看起來像一個人的上半身,擁有關節完整的手臂、會動的頭和眼睛(見圖4-1)。
圖4-1 麻省理工學院人工智能實驗室制造的人形機器人柯克圖片來源:?
MIT Artifical Intelligence Laboratory
制造這種機器人的原因我們在前面已經討論過。麻省理工學院的研究團隊相信,與世間豐富的傳感器和發動機聯系,對于研發機器人的正確行為是必要的。關鍵之處在于,它的感知不只獲取了抽象信息,還涉及豐富的認知和行為聯系——它的制造者稱之為“傳感器–發動機”環。簡而言之,只有確保機器人與環境交互的方式和人類與環境交互的方式充分相似,才能確保機器人可以獲得像人類一樣的概念。而且,在柯克的例子中,人們通常認為,人類通過與其他人的交互習得了許多關鍵技能,柯克可以通過這樣的交互獲得成長。因此,它必須能夠觀察講話者,在他們的注視下做出反饋,甚至與他們握手。
早期研究取得了不少成績。柯克學會了類似人類嬰兒的方式,用手去觸碰視覺目標。然而,所有這些機械和后續研發支撐的“更高級”的技能尚未出現。布魯克斯描述了這次失敗:盡管付出很多努力,柯克仍然無法區分手機和眼鏡盒。有必要記住柯克是一個復雜機器人,它是許多不同研究項目的焦點,未能達到上述研究目標并不意味著整個方法遇到了困難。
關于為何這種方法一直存在對象識別問題,不同意見之間分歧巨大。一個極端觀點認為柯克只是需要更多的時間和投資,另一個極端觀點認為整個想法從一開始就是錯誤的。在這兩個極端之間,我們可以得到一些較為實際的啟發。首先,在管理像柯克這么大的項目時,可能會存在一些組織和政治難題。大約有55%的IT項目以失敗告終,因此我們不應該過度解讀一次失敗,從一開始,它就只有一半的成功機會。其次,也是更重要的,在低級技術技巧(比如抓取對象)和我們認為是智能開端的東西(比如識別特定對象)之間的鴻溝里,有太多“缺失的科學”。信誓旦旦地承諾通過整體方法、情景具現化方法能夠實現目標是一碼事,而知道如何實現這個目標是另一碼事。再次,從科學意義上來看,這或許是非常有意義的失敗。最后一章中考慮未來趨勢的時候,我們將回到這一點上。
對日漸壯大的人造生命領域而言,“缺失的科學”是一個重要問題。關于隱藏在自然智能中的生物過程,我們仍然所知甚少。我們并未對單一神經元如何運轉建立完整的圖譜。我們并未完全理解神經突觸會通過哪些神經元進行通信。我們并未理解大腦如何通過化學物質影響各種行為。人造生命的研究人員投入了大量時間和精力去研究相當簡單的動物,例如昆蟲。他們已經得出的一個結論是,這些看上去簡單的動物,其實呈現出了相當復雜的行為。通常太過復雜,以致無法在一個機器人身上復制。我們可以從中窺見,人們在試圖理解自然世界時,學會了敬畏和好奇。同樣地,這也是一個“缺失的科學”問題。
這意味著人造生命的新領域已經面臨危機,在不久的未來可能會分裂為兩個迥然不同的領域。其中一個非常關注缺失的科學,將把研究人員的目標設為幫助生物學家找出更多關于這一缺失的科學的知識。昆蟲之類簡單動物的計算機模擬,將成為更好地理解此類動物行為和生物學的主要方法。另一個領域的研究人員在思考或者希望缺失的科學不會影響到他們制造具備一般目的人工智能的機器人的目標。他們將繼續制造,并且希望某些有趣的東西將會出現。雖然使用了“制造和希望”這些字眼,但我并沒有批判的意思。我們有必要記住,有時候實踐可能會先于科學理論出現。至少在對象識別的例子中,柯克是這種“制造和希望”方法的最好例子。
一位英國研究人員史蒂夫·格蘭德(Steve Grand)試圖制造一個具備哺乳類動物特征的具現化機器人(見圖4-2)。他在由車庫改裝而來的工作室里獨立進行這項工作。而且,格蘭德沒有任何學術、商業或軍事的資金支持。相比資金充足的柯克項目,這種方法可能聽起來野心勃勃。然而,讀者應該回憶起過去那些孑然一身的英國科學家創造出的驚人成績。例如,在英格蘭南岸的黑斯廷斯,約翰·洛吉·貝爾德(John Logie-Baird)獨自在一間小公寓里制造出了世界上第一臺電視機。
圖4-2 史蒂夫·格蘭德的機器人露西
格蘭德就是這樣一位有可能推動偉大進步的我行我素的研究人員。當然,他不應該被視作一位富有激情的業余愛好者。他不僅熟悉各種研究中心的最新動態,還在人工智能界小有名氣。1996年,他成功開發出一款名為Creatures的計算機游戲。這款游戲不僅引入了一種新的游戲體裁,即現在的“養成類”游戲,而非“射擊類”游戲,它還展現了進化計算技術如何被用于娛樂技術的大好前景。
盡管人工智能領域的大多數人可能會謹慎評估他成功的概率,但是,他們都希望格蘭德繼續前進。他正在嘗試的東西異常困難。許多評論家稱之為不可能完成的任務。史蒂夫·格蘭德就是本章開頭處主張的一個例證,表明才智、創造力和堅韌不拔是參與人工智能研究的必備素質。
章后總結
1.進入人工智能研究領域的主要條件,就是擁有創造力并且能夠持續地思考一些困難問題。
2.如果機器人的視覺系統能夠使它區分手機和眼鏡盒,這將是有用的。如果我要求機器人把手機遞給我,我會希望,在大多數情況下,它遞給我的是手機而非眼鏡盒。
3.計算機會盲目地執行一系列指令——一個程序:沒有理解,也無法使用這種方法研究人工智能。
4.人類思想無法算法化。
5.對日漸壯大的人造生命領域而言,“缺失的科學”是一個重要問題。關于隱藏在自然智能中的生物過程,我們仍然所知甚少。
[1]
“……如果我們想象,存在一臺機器,它的結構可以使它思考、感覺并獲得認知,我們就能想辦法使它成長……我們能夠進入它,就像人走進山丘一樣。假設……我們只發現了推動另一部分前進的組件,我們將永遠無法找出解釋認知的東西。”萊布尼茨,《單子論》(Monadology),第17章。
[2]
參見第1章“圖靈測試”。
[3]
對實踐目的最為重要的就是所謂的“停機問題”。這表明,我們無法提前判斷給定計算機是否會在給定輸入上運行給定程序時停止,或者它是否會“一直循環”。我們有必要記住,這是已經被數學方法證明的結論,而非程序員的發現。實際上,早在程序員出現前,數學家就已經發現了這個結論。
[4]
Brooks, "Intelligence Without Representation", pp.139-59.
● 拓展閱讀
丹尼爾·丹尼特(Daniel Dennett)撰寫的《認知的車輪》(Cognitive Wheels
)(1984年)對幀面問題的重要性做出了風趣、可讀的解釋。
蒂姆·克蘭(Tim Crane)的《機械思維》(The Mechanical Mind
)(1995年)對哲學家關于這些問題必須討論的內容進行了非技術性介紹。
安迪·克拉克在《微認知》(Microcognition
)(1989年)一書中解釋了007法則,然而,他后來在《身臨其境》(BeingThere
)(1997年)一書中的解釋可能會更好。
約翰·塞爾在許多地方描述過中文屋思想實驗,包括《思維、大腦和程序》(Minds, Brains and Programs
)(1980年),《思維、大腦和科學》(Minds, Brains and Science
)(1991年),以及《心靈的再發現》(The Rediscovery of theMind
)(1994年)。
1961年,約翰·盧卡斯在一篇論文中提出了自己最初的主張,這一論文在1964年被安德森引用。羅杰·彭羅斯在《皇帝新腦》(The Emperors New Mind
)一書中對人工智能進行了細致全面的攻擊。
史蒂文·萊維(Steven Levy)的《人造生命,追求新的創造》(Artificial Life, The Quest for a New Creation
)是介紹人造生命不可多得的佳作。
羅德尼·布魯克斯使用波音747寓言的論文可參考柯克項目的細節:http://www.ai.mit.edu/people/brooks/。
羅德尼·布魯克斯的新書《機器人:人類和機器的未來》(Robot: the Future of Flesh and Machines
)(2002年)是介紹他的方法和研究的一般性讀物。
史蒂夫·格蘭德在《創造:生命和如何制造生命》(Creation: Life and How to Make it
)(2000年)一書中闡述了自己的觀點。可以通過下面的網址查看史蒂夫的進展:http://www.cyberlife-research.com/people/steve/。
“確實如此,但是……”
當你向非專業人士介紹人工智能,臨近尾聲,詢問大家是否有什么問題時,最有可能被問到的就是我所謂的“確實如此,但是……”問題。通常,這個問題的形式是這樣的:“你提到的東西確實非常有趣……但是,我們什么時候才有可能看到真正智能的計算機呢?”這是一個很難直接回答的問題。為了尊重觀眾的需求,演講者通常會這么說:“讓我再次解釋一下……”很明顯這里存在一個需要聯系起來的理解鴻溝。
“確實如此,但是……”問題似乎是公眾想向人工智能評論者提出的主要問題之一。因此,我打算嘗試直接、系統地回答這個問題。正如我們所見,人工智能研究正在穩步推進,并且產生了許多有益的產品和令人興奮的想法。如果這不是你所謂的“真正智能”的計算機,那么,你指的究竟是什么呢?好吧,有人可能會憑經驗去猜測,你指的智能是完全像人類一樣。“確實如此,但是……”問題可能意味著:“我什么時候才能遇見可以像我一樣思考的計算機呢?”回答這個問題需要運用相當多的內容。
正如我們在第1章看到的[1]
,類人智能是人工智能的目標。一些對圖靈測試的解讀指出,即便圖靈測試不是判斷一臺計算機是否具備智能的“黃金法則”,它也是模擬人類智能的一個有益的目標。然而,我也介紹了人工智能定義的不充分性,特別是那些將機器與人類做比較的定義。當我們對人類智能所知甚少的時候,圖靈測試不太可能對人工智能的發展起到促進作用。
我假設這類問題的一個合理答案應該類似于:“考慮到我們目前沒有對人類智能的充分認識(回憶一下第4章中布魯克斯的波音747),誰會知道呢?我們并不清楚目標是否應該是建造一臺能夠像你我一樣思考的計算機。”
通常,人工智能處理的是相當不同的智能,當然也不缺少人類智能。在答案中提到這些會讓一些人認為我們討論的東西與智能無關。“它要么像我一樣,要么只是一臺執行指令的機器。”這種說辭似乎常被掛在嘴邊。我們已經看到,對于一臺機器的常識觀點是令人誤解的。我在本書中討論的機器并不只會執行指令。我們不僅能討論它們擁有目標,還可以談論它們在不同目標之間進行選擇,在不同場景做出不同回應。它們擁有并可以使用知識,而且能夠學習。許多人工智能圈內以及圈外的人都感覺到,它們用相對有限的方式來做這些事,但是這與我提出的理念沒有什么差異。它們在做的事并非“只是執行指令”。
雪莉·特克爾(Sherry Turkle)[2]
在自己的著作中對此進行了不錯的解釋。雪莉·特克爾之所以對當前的討論感興趣,是因為她是一位執業精神治療師,同時對人工智能有興趣。當時,她還與麻省理工學院的一位人工智能研究領頭人保持著聯系。她描述了某天早晨,她如何看到一位非常沮喪的患者,因為他感覺自己的人生“像一臺機器”。但是,當天晚些時候,她去參加麻省理工學院為學生和研究人員舉辦的一場聚會。在那里,她遇見了一個年輕女孩,女孩對機器是否能思考的討論越發不耐煩,說道:“有什么問題?我是機器,我能思考。”這名學生談到了將機器作為一種看待自身的積極而自由的方式。
特克爾說,產生兩種完全不同的反應的原因是,這里提到的“機器”有兩種非常不同的含義。一方面,她沮喪的患者用“像機器”來說明他覺得自己無法控制生活。這是對19世紀機器的看法,這種機器按照預定的方式運行。他感覺到自己沒有選擇;齒輪一直在向前轉動。另一方面,人工智能研究人員和他們的學生在討論機器時,表達的是完全不同的意思。他們提到的機器指的是我們在本書中考慮的那種機器。這些機器有多種目標,并且能夠在目標之間取舍。它們可能會選擇不同的方式,并且能夠否定真實世界,包括其他人,以實現目標。這是一種解放,因為它顯示出了一種人類選擇能夠產生差異的方式,甚至在一個充滿確定性的科學宇宙中也是如此。人工智能為機器開啟了新的可能性,這些機器能做的事不只限于執行指令。
因此,“確實如此,但是……”問題的一種含義可能只是拒絕接受“有可能存在與我們不同的智能體”的說法。這個基于19世紀機器圖景的拒絕可能是錯誤的、有誤導性的。在這場設想出的討論中,觀察力敏銳的讀者可能會對我談到智能卻并未給出定義而覺得不耐煩。之后的章節中,我將對智能的定義進行討論。
從重要性的角度來看,前面的所有章節都是在對這種“確實如此,但是……”問題做出回應。我們看到了人工智能已經產生并且仍在繼續產生令人印象深刻的技術。我們已經進入了智能機器的時代。我們看到了認為“某些東西永遠無法實現”的批評已經被證明是錯誤的。關于人類和動物大腦如何工作的精辟觀點已經出現。
但是,人們并未滿足。我們并不清楚科學如何提供更多解釋。許多人并不信任科學在這一領域的介入。這種不信任的一個動機是,一直有人認為人類智能在某種程度上是特別的,是某些永遠無法用科學理解的東西。對其他人而言,這是一場跨越邊界的戰斗。縱觀歷史,詩人和小說家已經成為人類精妙思想的權威,他們可能會對科學家希望用臨床診斷、模擬、建造機器的方式來理解他們認為自己最擅長的領域而感到厭惡。然而,在這種特殊情況下,還有許多造成對科學不信任的更嚴肅的原因。
這些更加嚴肅的原因主要可以劃分為兩個領域:
◎ 第一個領域是所謂的“意識問題”。實際上,人們并未就這個問題本身達成共識,甚至很少有人認為這是一個問題。如果“確實如此,但是……”問題包含“意識”這個詞,那么我們很難快速給出一個答案。近來,意識已經成了人工智能研究的重要領域,后面的章節將會繼續對此進行討論。
◎ 第二個領域是思想、信念等概念的主觀性。這些方面是更深入地探討“確實如此,但是……”問題的原因所在。它們也許是一些人最初感到有必要提出這個問題的原因。
在開始討論這兩個領域前,我們會稍稍跑個題。這個跑題是有意義的,因為它將帶我們進入一個全新的科學領域。
認知科學是什么
大眾心理學
作為一門科學,心理學的地位有些奇怪。現代心理學家傾向于認為自己與中世紀地理學家的地位相仿。如果他們的科學研究確認了人們的偏見——世界是平的,那么,他們會因為花費時間和金錢研究這種顯而易見的東西而遭到批評。如果他們的研究發現了某些違背常識的事情——世界是圓的,那么,他們會因脫離現實而被忽略。
關于這點,有很多原因,但最重要的一個原因是,在日常生活中,我們都在使用表面看起來像心理學的東西來理解和預測他人會做什么。哲學家稱之為“大眾心理學”。有大量關于大眾心理學的準確定義和其重要性的討論。目前,我們通常會說,人們做事情是因為他們有愿望,并且相信通過做這些事,有可能達成那些愿望。為什么你在讀這本書?好吧,用大眾心理學的術語來講就是,你有學習人工智能或認知科學的愿望,你相信通過閱讀這些可以找到答案。(當然,無法確保你的想法一定是正確的。)如果你的下一步動作是走進廚房,將咖啡壺從碗櫥里拿出來,那么一個好的解釋或許是你想要喝一杯咖啡,你認為這些動作可以幫助你實現這個愿望。
大眾心理學構成了我們與他人正常相處的基礎。這個思想和信念的世界,能夠變得比我給出的最低限度的描述更加復雜。它構成了藝術和文學的基礎。實際上,我們可以說,劇本只是人與人之間或同一個人心中愿望和信念的沖突。大眾心理學同樣也是規則和懲罰的不同系統的基礎。問題在于,它似乎不是很科學。如果你去解剖大腦,或者在掃描儀下觀察活體大腦,那么你永遠找不到信念。我們能夠度量人們實際會做什么,但是,了解他們信念的唯一途徑就是去詢問他們,盡管常識告訴我們這并不可靠。我們發現,人們表達出的信念和他們實際做的事情之間,存在諸多不同。說人們明顯擁有信念就好比在說地球明顯是平的一樣。精準的科學度量能夠證明,地球實際上不是平的。由于這個原因,科學心理學一定要打起十二分精神來對待大眾心理學。
哲學家都認可大眾心理學的重要性,但是他們達成的一致也僅止步于此。一些人認為,大眾心理學是一門成熟的心理學理論,還有一些人認為,科學家的工作就是將它建立在其他科學的基礎上。例如,證明大腦中的電氣和化學過程如何使大腦形成信念和愿望。一些人認為,大眾心理學只是看上去像科學理論,它不過比“有同理心并將自己放在他人位置上”的人類能力稍強一些。仍有其他人在說,當我們擁有真正科學的心理學時,所有這些關于信念、愿望,甚至是意識的討論都將消失,如同地理學中認為“地球是平的”的觀點一樣。這其中包括許多困難問題。
然而,我們在這里的主要擔憂是,人工智能將以何種方式來匹配這個故事。20世紀上半葉,大眾心理學和常識的主要科學挑戰來自一種名為“行為主義”的心理學研究方法。這種方法認為,大眾心理學和常識是毫無科學依據的。相反,它宣稱,唯一科學的解釋人類行為的方式,應該根據輸入和輸出的組合來進行分析。人們受到“刺激”,隨后做出“反饋”。科學心理學不過是度量并記錄這些“刺激–反饋”對。行為學家提出,所有討論人們可能會相信什么、有什么愿望或想法的東西,都不是科學心理學的內容。他們認為,在最理想的情況下,人類大腦是一個“黑匣子”。科學家可以度量大腦輸入和輸出的東西(刺激和反饋)。他們宣稱,討論在刺激和反饋之間發生的東西不是科學心理學關注的范疇。
認知科學的誕生,一部分是出于反對行為主義。人工智能對認知科學的產生起到了關鍵作用。工程師和人工智能科學家細致地描述了機器內部發生的過程,以此來證明計算機不是行為學家口中的黑匣子。例如,他們經常提到,程序或機器人擁有“目標”。目標可以是它正試圖實現的東西,或者是體現在它行為中的東西,也可能是與程序或機器人內部運轉相關的東西。假設你將自己的家用機器人派到廚房幫你取咖啡,它的內部寄存器就會因此獲得“將咖啡設置為目標”的內容。如果我們詢問為什么它會走到碗櫥邊并取出咖啡壺,那么答案肯定與大眾心理學對類似的人類行為做出的解釋相差十萬八千里。
這開啟了一扇門,而且是一扇非常重要的門。如果身處另一個科學分支的人們,使用類似于我們在研究人類時使用過的術語,那么認為這些術語“完全不科學”的觀點就站不住腳了。至少,我們會將計算機視作信息處理設備。如果我們允許機器邁出這一小步,那么就不必再將人類視作黑匣子。在科學意義上,將人類視作信息處理設備就變得可以接受了。
將心理學從過度熱心的行為主義中解放出來的這一小步邁出后,人工智能和認知科學之間的關系變得更加錯綜復雜。許多人變得有些得意忘形,因此引發了一些擔憂。承認“將人類描述為信息處理設備”在科學上可以接受,但并不意味著人類真的是信息處理設備。這點有待證明。即便這個觀點得到證實,也不代表這些是人類的全部。大眾心理學中的信念和愿望仍然不等價于計算機程序。這一來自人工智能的啟發就是所謂的“計算隱喻”,而且我們有必要記住,它只是一個隱喻。
認知科學
認知科學是什么,很難表述清楚。關于這門嶄新科學的范疇和方法的爭論不絕于耳。所有人都在艱難推進卻收獲甚微的時候,托馬斯·庫恩(Thomas Kuhn)在最為著名的一本科學著作中[3]
區分了科學革命中發生的事件和所謂的“普通科學”中發生的事件。當一次科學革命發生時——這就是庫恩所謂的范式改變,科學家不光會發現研究自己所在領域的新方法,關鍵術語的含義也會隨之發生改變。因此,當科學家從牛頓范式轉變到愛因斯坦范式時,他們不會簡單地判斷,宇宙與他們之前認為的樣子并不一樣。物理學中一些最重要的概念,比如“空間”“時間”和“質量”,這些詞的含義都發生了改變。在認知科學的例子中,革命方興未艾,許多重要術語仍有待定義。我為何推遲在本章中給出智能的定義,這是一個重要原因。如果我在一開始就給出了定義,這會令我局限于單一觀點,結果就會產生一本截然不同的書。無疑這會讓我們無法暢游思考這一領域中的各種不同方法。
我希望現在讀者們已經理解了,為什么關于認知科學的定義,甚至更多關于它研究什么和研究它的正確方法存在許多分歧。然而,這種分歧并不是一個領域處于混亂狀態的表現。它恰恰體現了一門科學正處在創造新想法、探索世界新方法的興奮狀態中。它也意味著,如同人工智能一樣,認知科學是一項跨學科活動。至少,它包含心理學家、神經生物學家、語言學家、計算機科學家和哲學家的工作。
認知科學同樣有望成為我們需要的,關于“人類、動物、機器和外星人”的科學。在這種意義上,認知科學所處的地位與空氣動力學在人造飛行器中的地位相仿。作為一門新興科學,它無法告訴我們很多智能空氣動力學的內容,然而,這其中的可能性是無限的。歷史上,空氣動力學和建造航天器的工程企業并駕齊驅,共同進步。1904年,德國數學家路德維希·普朗特(Ludwig Prantl)發表了支撐現代空氣動力學理論發展的關鍵科學論文。這僅僅是在萊特兄弟成功完成了首次飛行的一年后。
關于智能行為的一般科學的發展,不只滿足了科學對于人類智能如何工作的好奇,可能還會催生不少潛在的實際利益。隨著逐漸深入地理解智能行為,我們或許也能為計算機或其他機器制造更好的接口。無論對人類,還是對我個人,這都有極大的好處。目前,我正在使用三個設備:QWERTY鍵盤、鼠標和顯示器,即便使用方法正確,這些設備也有可能對使用者造成傷害。
如果我們能更透徹地理解人類智能行為科學,或許就能夠改善我們正在使用的決策支持技術。人工智能研究的一個重要領域就是所謂的“決策支持系統”。因為常常會受累于領導者的糟糕決策,獲益于好的決策,所以我們應該非常歡迎人工智能幫助進行決策。對用來支持教育和學習的技術而言,情況也是如此。目前,它常常無法達到人們的預期。正如我們所見,原因是,在某些人試圖制造人工智能來實現這點之前,教育和學習已被證明遠比我們想象的要復雜。認知科學有望解釋教育和學習的過程,這可能會催生更加有效的技術。
認知科學已經對人類心理學產生了巨大影響。盡管它最早只能追溯到20世紀70年代,至少在英語世界如此,它已經成了科學心理學的主要研究方式。通過輸出觀點而非產生有效的技術,認知科學已經成為人工智能影響科學和社會的最重要的方法。人工智能已經催生了技術,但是向其他學科輸出觀點可能更加重要。
我認為,我們似乎處在事物發展的初始階段。我將認知科學描述為新興科學,或者說它仍處于庫恩式革命的陣痛中,這種描述方式影響了人工智能的全部。這是參與其中的好時機。
圖靈測試是什么
在最初的論文中,阿蘭·圖靈清晰地闡釋了,到了2000年,計算機能夠很好地進行模仿游戲,一般提問者只有30%的概率判斷出哪個參與者是人類,哪個是計算機。如果訪問第1章拓展閱讀部分的網址,你會發現,勒布納獎最近的得主雖然表面上令人印象深刻,但它們從未真正通過完整的圖靈測試。
圖靈測試不是當前人工智能研究的核心焦點,并且我們有很好的理由解釋為什么它不應該是核心[4]
。但是,我們也有理由解釋為什么人工智能研究可能會回歸到人類智能。對人工智能領域的部分研究人員和認知科學領域的大部分人來說,最有趣的問題只是理解人類智能的難題。
如果人工智能能夠向我們揭示什么,那一定是我們對自身智能的理解是極度受限的。每天都在使用它,并不意味著我們已經充分理解了它是如何工作的。
意識是什么
當我們研究“確實如此,但是……”問題時,有兩個問題被忽視了,分別是主觀性問題和意識問題。出于完整性的考慮,這部分將試圖簡單介紹關于這兩個問題的大量深入討論。正如討論本身一樣,這一小節并無定論,對這些問題沒有特別興趣的讀者可以略過這部分。
在日常討論中,我們提到的“conscious”(有意識)通常有三種含義:
◎ 第一種含義與睡眠相對,即清醒的,也就是麻醉師所謂的有意識。
◎ 第二種含義是“有自我意識的”。比如,“這一刻,我意識到,我對即將在舊金山這種天氣情況下著陸感到多么焦慮”。
◎ 第三種含義是更加困難的,而且在“確實如此,但是……”問題中經常聽到。那就是:“你也許能夠將那些植入機器人里,但是,它仍然無法擁有意識。”
意識的前兩個含義似乎不會給人工智能造成任何困擾,至少在理論上如此。某些將機器人開啟和關閉的觀點,將會符合麻醉師的定義。對于自我意識,我們可以說,我正在使用的計算機包含了能夠查看其他程序的程序,可以顯示它在各種進程上分別花費了多長時間。理論上,打造自我意識已經實現。只是“理論上”如此,因為如我們所見,人工智能研究人員在處理意識的前兩個含義時,必須解決許多實際問題。實際上,我們之所以選中第二個例子,是因為做出“惡劣的天氣情況下,不選擇在舊金山著陸,而是返航回到默塞德”的決策,是現代決策支持系統的目標所在。在航行及其他許多領域,快速做出決策固然重要,但同樣需要考慮大量不同的相關信息。在決策自動化領域,人工智能正穩步前進。
“有意識”的第三種含義更難用簡單的術語來解釋。1974年,哲學家托馬斯·內格爾(Thomas Nagel)發表了一篇里程碑式的論文,他在文中指出,我們的主觀經驗中存在一些科學永遠無法捕獲的東西[5]
。籠統地說,這種東西是“使你成為你,并且只能成為你”的東西。根據內格爾的觀點,科學之所以永遠無法告訴我們這些東西,是因為科學是找出一般規則的工作。而現在,使你成為你的東西,可能是一般性的對立面,在這一時刻,它對你而言是獨特的。
目前,在這一領域有許多討論,哲學家是主要參與者,神經科學家、機器人制造者和數學家也希望參與其中。一些人認為,目前來看,不存在所謂的“讓你成為你”的東西。它只是一個“有用的幻想”,讓你照顧好自己,在世界中規劃你的活動。其他人認為,有可能存在這樣的東西,它讓你成為你,但實際上,它與其他東西沒有任何差異。一臺機器人或者一個擁有智能的外星人,也能夠擁有你所有的心理活動,而且無須擁有第三種意義上的意識。但仍有一些人認為,這個東西是真實存在的,它確實會產生影響。對這一領域感興趣的讀者可以繼續研究拓展閱讀部分,因為本節內容只是這個非常宏大且活躍的討論的一個概述。
關于人工智能和認知科學的這場大討論的影響,同樣很難下定論。人工智能在“它是否真實存在”“它是否有影響”的不同立場上產生了什么影響,人們對此也有很多不同觀點。一些哲學家認為它是真實存在的,并且是有影響力的,因此人工智能研究完全是在浪費時間。人工智能領域的大多數人都會回應,無論它是否真實存在,是否有影響力,這都應該是通過實驗確定的問題,而非聽信哲學家的言之鑿鑿。一些人認為,只有擁有自然進化歷史的東西,才能以人類的方式獲得意識。他們中許多人因此對模擬進化趨之若鶩,將其視作設計機器人的方法,我們在第3章討論過這部分內容。
另一方面,如果意識既不會產生影響,又不是“有用的幻想”,那么(至少在理論上),我們就能制造出智能機器,而無須永遠被關于意識的討論拖累。然而,甚至在這部分,人們也沒有達成一致。人工智能領域的一些人提出,意識是一種“偶然屬性”。這就好比在說,雖然我們沒有辦法將它設計到機器人里,如果機器人足夠復雜,或者對環境有正確的交互,或者二者兼備,那么,意識就會出現。相信這點非常令人興奮,因為它是對第4章提到的“制造和希望”方法的理想哲學辯護。“制造和希望”可能聽起來有些像在喊口號,但是,這種方法得到了驗證。一種將這個寬泛的哲學討論帶到實際中的方法是進行一些相關實驗。1903年,當奧維爾·萊特(Orville Wright)在基蒂霍克完成首次飛行時,“飛行是不可能的”觀點就這樣在一次確定性實驗中被證明是錯誤的。當然,判斷一架飛行器是否能夠飛行,要比判斷一臺機器是否具有意識直觀得多。
將主觀性問題添加到第三個問題中會使其變得更加困難。如果內格爾的考慮或多或少是正確的,那么我們就只能從主觀角度體驗這種意識。換言之,只有機器人自己能夠真正知道,它是否真的具有意識。
我可以對這種可能性進行補充。幾年前,我在一所英國大學的職責包括關閉人工智能實驗室的計算機。當我進行這項工作時,總有一臺機器在大聲吼道:“不!別關我,我已經有意識了。”在關閉這臺機器時,我從未有過一絲猶豫,我確定聽到的不過是一個本科生的惡作劇,而非人工智能領域的進步。如果有人工智能研究人員提出關于主觀意識的類似主張,我的反應也會是一樣的。
智能是什么
我在本書中幾次提到,會稍后給出“智能”的比較完整的定義。我希望大多數讀者沒有作弊——先讀這一部分,因為我在這里提到的東西,大部分依賴于前面的內容。在本書展開的過程中,我已經提到許多關于智能的重要啟示。
讀懂人工智能
智能行為可以被解釋嗎
我用航空業的發展史來進行類比,以此作為理解人工智能和認知科學領域中發生事件的方法。現在,人們做出的一般性科學考慮是,未來的某一天,人類、動物和機器的智能行為(以及可能存在的外星人的智能行為)將會得到解釋。將會出現一個一般性的科學分支,像空氣動力學之于飛行一樣,為我們答疑解惑。現在,我們知道鳥兒、昆蟲和飛盤都必須遵守空氣動力學的一般科學法則。
當然,智能行為遠比飛行復雜。制造這種“智能的空氣動力學”并不容易。盡管這項工作仍處在早期階段,但它已經起步。因為在一個嶄新的科學領域很容易迷失方向,我已經提到和將要提到的大部分內容都是經過審慎考慮的。
你也許聽說過約翰·塞爾提出的“強人工智能”和“弱人工智能”的區別(第4章的“中文屋”),對我而言,我一直將本書定位在“弱人工智能”陣營。人工智能已經催生了關于人類思想的精辟觀點,未來依然會繼續前進。但是,人工智能和它的不斷進步并不包括制造“像你一樣思考”的東西。而且,我開始相信,即便(我已經解釋過為什么這極不可能)某一天,人造機器能夠真正通過圖靈測試,它可能仍然不會像你一樣思考。
因此,你可能會問,為什么我要用“思考”一詞來討論這個未來可能實現的設備。好吧,為人類和人類做事的特別方式預留這些詞太過傲慢,用技術術語來說是“以人類為中心的”。電子計算器使用了各種不同的材料,而人類計算也用了非常不同的方式執行任務,但它們仍在執行同一個任務。對智能而言,同樣如此。無論我什么時候使用這個詞,大多數讀者都會考慮他們自己的智能,盡管我敦促他們不要這樣做。我們再次發現,在智能問題上,以人類為中心并無益處。或許,對思考智能最沒有幫助的方法就是考慮IQ,即所謂的智商。
IQ尤其沒有幫助的原因是,它將智能視作單一物質,認為智能是一維的。通過單一數值來描述智能是非常有誤導性的。IQ測試同樣傾向于度量解決抽象問題的能力。正如我們已經看到的,機器人制造者對避免撞到家具的能力更感興趣,而不是解決抽象問題的能力。這兩種截然不同的表述只是智能拼圖的兩小塊。我們能夠從人工智能中得到的一個啟示是,像智能這么復雜的多維現象,無法使用單一數值去描述。當我們使用行為的“智能”這個詞時,我們并未討論單一性質。
抽象問題的解決也只是冰山一角。不要忘記環境和情景機器人學的啟示,這點相當重要。如果我們對避開家具而非下國際象棋更感興趣,就會出現一種非常不同的智能行為觀點。將這兩種考慮放在一個框架內無疑是一個挑戰,但我們需要面對這個挑戰。
請回想一下布魯克斯關于波音747的比喻。無論我們在何時談起智能,都有很大的力量誘惑我們去思考人類智能。在過去數年間,人工智能無疑證明了一件事:人類智能確實非常偉大。在我們周圍和我們內部,一直能看到人類智能的力量、靈活、創造性以及它“引導我們在起居室內走動而不會碰到家具”的能力的證據。這遠超目前的科學和技術的發展水平,它能做的不多,但可以驚艷到嚴肅的科學家。目前,我們能夠用計算機和機器人實現的東西與人類的智能行為相比,就像風箏之于波音747飛機。
不要太認真地研究人類,還有另外一個有趣的原因。一些關于人類智能進化的觀點認為,大部分人類智能尚未進化到滿足純粹的功能性需求[6]
。產生這種觀點的原因是,人類智能可能像孔雀那巨大壯觀的尾巴一樣。孔雀的尾巴并不能幫助它飛翔、搏斗或覓食。實際上,從空氣動力學角度來看,孔雀的尾巴是所有上述問題的一個嚴重的阻礙。它存在的意義是幫助孔雀求偶。進化后,雌孔雀根據雄孔雀尾巴的大小來擇偶。對人類而言,大多數行為,特別是有關音樂、詩歌等,都是這種擇偶過程的產物。如果情況確實如此,當制造人工智能時,讓我們分心的就不只是力量和靈活性。我們研究人類智能時看到的大部分東西都類似孔雀的尾巴,它們并不會幫我們搏斗、覓食和生存,而是幫我們吸引伴侶。在這種情況下,研究它的唯一原因是,科學家對我們自身感到好奇。除非我們對給性產業制造機器人感興趣,技術人員應該沒有什么理由去模擬這些東西。
人工智能確實是人造的。到目前為止的嘗試告訴我們,人工智能看起來與自然智能截然不同。然而,它仍然是智能。一個會飛的水果與一架波音747有多少相似之處?
章后總結
1.許多人工智能圈內以及圈外的人都感覺到,它們用相對有限的方式來做這些事,但是這與我提出的理念沒有什么差異。它們在做的事并非“只是執行指令”。
2.承認“將人類描述為信息處理設備”在科學上可以接受,但并不意味著人類真的是信息處理設備。
3.如同人工智能一樣,認知科學是一項跨學科活動。至少,它包含心理學家、神經生物學家、語言學家、計算機科學家和哲學家的工作。
4.認知科學有望解釋教育和學習的過程,這可能會催生更加有效的技術。
5.圖靈測試不是當前人工智能研究的核心焦點,并且我們有很好的理由解釋為什么它不應該是核心。但是,我們也有理由解釋為什么人工智能研究可能會回歸到人類智能。對人工智能領域的部分研究人員和認知科學領域的大部分人來說,最有趣的問題只是理解人類智能的難題。
6.如果人工智能能夠向我們揭示什么,那一定是我們對自身智能的理解是極度受限的。
7.人工智能確實是人造的。到目前為止的嘗試告訴我們,人工智能看起來與自然智能截然不同。然而,它仍然是智能。
[1]
Kuhn, The Structure of Scientific Revolutions.
[2]
雪莉·特克爾是麻省理工學院社會學教授,哈佛大學社會學和人格心理學博士。其著作《群體性孤獨》(浙江人民出版社)已由湛廬文化策劃出版。——編者注
[3]
Kuhn, The Structure of Scientific Revolutions.
[4]
想了解更多細節,請參見惠特比的Reflections on Artificial Intelligence
[5]
Nagel, "What is it like to be a bat?"
[6]
這個有趣的理論由杰弗里·米勒在《求偶心理》(The Mating Mind)(2000年)中提出。
● 拓展閱讀
如果你對理解人類智能和人工智能之間的差異感興趣,那么杰弗里·米勒(Geoffrey Miller)的《求偶心理》(The MatingMind
)是一個不錯的起點。
在過去10年間,意識已經成了一個很大的跨學科研究領域。如果你想要深入研究,我認為丹尼爾·丹尼特的《意識的解釋》(Consciousness Explained
)是一個切入點。
辛·歐努蘭(Sean O Nuallain)的《探尋思想:認知科學新基礎》(The Search for Mind, A New Foundation forCognitive Science
)(2002年)采用了與計算隱喻不同的方法,描繪了人類情緒。
羅伯特·哈尼什(Robert Harnish)的《思維、大腦和計算機》(Minds, Brains, and Computers
)(2002年)很好地概述了認知科學及其與人工智能的關系。
本章首先會考慮人工智能對社會整體的影響。盡管關于人工智能,無疑需要一場公開大討論,但一般而言,人工智能其實是一種良性技術。其次,本章將探討一個略微令人驚訝的領域,即人工智能在藝術中的應用,在這里,人類和人工智能技術相互交融。最后,我們會展望未來,探討人工智能自身的前景。
像電力一樣顛覆社會
幾乎所有技術都會改變接納它們的人和社會,通常會超出所有人的認知。本書的絕大部分讀者,如果被時間機器送到工業化以前的社會,都會像離開水的魚兒一樣。可能,只有極少數人能夠打獵,種植出充足的食物,更不用說建造合適的住所了。
現代化農業、道路、電話、火車等意味著我們的生活與祖先截然不同。我們都是技術的產物,而非單純的受益人。這就是說,我們通常根據技術定義我們自身和自身的角色。這種情況不僅在用技術術語描述自身時是正確的,當我們說,我們在開車、航行或畫油畫的時候亦是如此。現在,大多數人消遣的方式對原始社會的居民而言沒有實際意義。我們傾向于觀看大量電視節目,通過手機和電子郵件進行交流。
作為一項技術,人工智能可能產生的影響與先前的技術所造成的影響一樣巨大。人工智能的一個重要不同之處在于,它也會對我們思考自身的方式產生影響。本章結尾部分,我們將關注人工智能輸出思想的方式,以及它觀察世界的截然不同的方法。然而,這種思想和技術的融合體,同樣塑造了人工智能對社會整體的影響。
人工智能的黃金時代
一個一般性經濟原理提出,在過渡期,新技術通常只會誘發失業。過渡期后,新技術的廣泛應用將帶來更高級的經濟活動和就業崗位。當然,在這個過渡期內必然存在切實的破壞和苦難。
跟隨過渡期而來的更高級的經濟活動和就業形勢,通常不會回歸到這項技術引入前存在的就業模式。與先前存在的工作和市場截然不同的新工作和新市場會出現。在信息技術時代,這樣的變化無疑已經發生。為什么我們希望人工智能與這種一般模式不同呢?
一些人確實認為人工智能是不同的。在第一次工業革命中,機器取代了大量手工勞動。在信息技術革命中,機器取代了大量日常管理工作。例如,在今天的自動化社會中,人們不會看到招聘檔案管理員的廣告。許多人認為人工智能技術將會取代人類做更有挑戰性的智力工作,例如決策制定,醫療診斷,甚至是教育。
我們要說的第一點是,當前的技術對經理、醫生和教師不構成任何真正的就業威脅。誠然,人工智能為現代化管理、醫療和教育做出了巨大貢獻,但它并未導致大規模的人員冗余,在可預見的未來依然如此。
第二個或許也是更有趣的一個問題是,當前的和可預見的人工智能技術似乎更擅長取代高度專業化的崗位,而非一般性或更具人類特征的崗位。以醫療領域為例,我們在第2章中看到,打造能夠超越人類醫療專家的人工智能系統是可行的,至少在專業領域如此。如果說醫療專家依賴其在一個相對狹窄領域的詳盡知識來獲得崗位和升職(正如許多咨詢醫師所做的),那么他們應該比一個普通執業醫生更擔憂來自人工智能的威脅。在工作中使用大量一般性知識和人類交互技巧的醫療專家,受到人工智能技術的威脅更少。
最后一個問題顯而易見,但仍然值得一提,那就是我們并不缺少人類智能。我個人認為,技術應該改善人類生活,因為取代人類智能對我來說并不是一個有吸引力的進步。正如我們所見,這樣根本無利可圖,而且毫無意義。人工智能已經有許多可以豐富人類生活的應用,并且它也應該被引導向這些應用的方向發展。
人工智能技術使用的黃金場景是,它將使人類變得更加高效、智能。正如挖掘機大幅度提高了人類的挖掘產量,“機械化”知識的操縱工具,比如數據挖掘,也會大幅度提高一個人能夠完成的智力挖掘的工作量。人工智能可以充當我們所有人的“智力放大器”。使用機器幫助我們操縱知識和思想,將使我們變得更加聰明。
然而,這種美妙的前景也存在疑云。人類歷史反復告誡我們,掌握權力的人群不希望那些被他們施以這些權力的人思考太多。甚至,信息技術產業的短暫歷史也展示出,信息技術以犧牲底層架構為代價來增強執行和管理活動。數據挖掘是一個非常強大的技術,卻經常被那些掌權者用來描繪消費者和投票者,而非被消費者和投票者使用。本書的許多讀者可能會產生警覺,如果他們知道自己的消費和其他習慣已經被精確地描述。人工智能技術可以通過這些描繪做出極為精準的預測。
對于人工智能技術的使用,開展更多更廣泛的公共討論將十分有益。因為它是一項強大的技術,能夠明顯地擴大擁有這種力量和不具備這種力量的人群之間的差異。在局部范圍內確實如此,比如一家公司的經理可以監視鍵盤活動、通話記錄、電子郵件以及員工的其他活動。他們可以使用數據挖掘來對顧客、員工和潛在應聘者進行描繪。我們尚不清楚,人工智能技術能否對消費者或員工產生同等程度的好處。這或許會打破公司內部的力量平衡。
放眼全球,人工智能同樣擴大了掌握這種技術的國家和未掌握這種技術的國家之間的差距。人工智能研究的經費,絕大部分直接或間接地來自一些富裕國家軍方提供的經濟支持。軍方支持人工智能研究,因為這是一項強大的技術。它對軍事操作現代化的貢獻并不明顯,但確確實實存在。人工智能能夠繼續在計劃、邏輯、通信和決策支持領域做出貢獻。人工智能在這些領域的貢獻非常突出,使得這些部署了人工智能的國家在軍事上比其他國家更加高效。
像所有技術一樣,人工智能可以被用于造福社會,而非給社會帶來負面影響。相比同時代的產物,比如核彈和基因編輯,整體來看,人工智能似乎更加無害。然而,還有一些重要的社會問題有待考量,特別是誰將受益,誰將受害。與人們經常討論的機器接管世界的可能性不同,它迫在眉睫,又真實存在。
機器人將會統治世界?
有許多關于機器人統治世界的恐怖故事。實際上,“機器人”這個詞的出現還要歸功于其中最早的一個故事,那是卡雷爾·恰佩克(Carel Kapek)在1920年創作的故事。這些故事如同藝術一樣前衛,它們的大部分功能是講述我們自身和我們的恐懼。當它們變得像嚴謹的預測一樣時,就會很有誤導性。
我希望讀者可以明白,本書中討論的所有技術都不可能統治一個檔案柜,更不用說在可預見的未來統治世界。即便它們開始展現出這種能力,我們也可以拔掉它們的電源。那么,為什么這種機器人統治世界的故事能夠經久不衰呢?
據說一些人將機器人接管世界看作一件非常正面的事,例如前沿學者漢斯·莫拉維克(Hans Moravec)。自1980年以來,他一直在卡內基梅隆大學制造機器人,將機器人在20世紀末取代人類視作積極事件。他提出,它們是我們的“心智孩童”(Mind Children),并且會像好孩子一樣,幫我們準備退休。它們也將化作勇敢的先驅,將我們的文化或者至少是我們的記憶帶入太空。
莫拉維克希望未來的人工智能研究速度比20世紀更快。在不久的將來,似乎不可能出現機器人以他所描述的方式超越人類智能的圖景。另外,莫拉維克和其他討論機器超越人類的作家通常會忽略,人類是一定程度上的“移動目標”(moving target)。這些作家提出,直到石器時代人類智能才開始發育,其實,嚴格意義上這個觀點并不正確。人類已經適應了農業社會、工業社會,之后是后工業社會,并且到目前為止,展現出了足以適應機器智能時代的能力。我們的技術并不是我們需要與之競爭的事物。它與我們是一種相互依賴、相互協作的關系,用生物學術語來說是“共生”(symbiosis)。人工智能與藝術的交叉領域可以見到這種奇妙的關系,下一節我們將進行簡要探討。
在不久的未來,盡管機器無疑會變得更加聰明,但它們似乎不會對人類構成大的威脅。人類將傾向于使用人工智能來放大他們自身的智能,正如我們今天使用IT技術的方式。這可能會給予某些團體和國家更大的力量,但它也將使大多數人獲得比他們今天擁有的更多的能力。
你可能會問:“遙遠的未來會是什么樣?”好吧,如果我們看得足夠遠,那么,幾乎萬事皆有可能,但即便如此,機器人取代人類仍然是遙不可及的。講述這類恐怖故事的人通常都會掩飾這個事件的發生過程。例如,事實證明,我們通常無法拔掉電源,因為機器人變得太聰明、動作太迅速。在一些故事中,一個瘋狂的軍事組織會制造終極毀滅機器人。有時候,作家只會做出這樣的推斷:機器變得越來越聰明,而人類將繼續停留在當前水平。
我們真的無法忽視機器人可能取代人類的細節。機器人可能在未來取代人類的過程是怎樣的,這一點非常重要,因為它決定了我們將采取哪些防范措施。一旦這類故事的支持者敲定了這些故事的發生細節(一個特立獨行的研究人員,一個軍事必需品,人類沒落)之后,我們能做什么,以及應該如何避免這種情況,就會變得顯而易見。沒有什么事是無法避免的。人類能夠并且應該采取措施,從科學上控制有風險的研發。我們可能需要檢查并改變軍事研究的政治控制。但是,這些其實是關于我們希望如何生活的政治決策,在這類決策中,人工智能似乎是一個無辜的黨派。
然而,有一個更加重要且令人信服的說法告訴我們,為什么無須擔憂機器人控制世界。因為這不是它們被設計來完成的事情。現在,許多事物確實被設計用來接管世界。以雛菊為例,它們的進化史已經對其“編程”,試圖“殖民”地球上的所有可用空間,并且它們在不斷重復這一過程。從非常實際的角度來看,進化讓雛菊總是在爭奪更多資源。單細胞生物,例如細菌,在這方面甚至更加危險,它們不僅被編程接管所有可用空間,甚至會在這一過程中殺死全部人類。相對而言,機器人沒有被編程或進化為任何一種威脅。而且,相比于雛菊和細菌,我們能更好地了解和控制機器人,真的沒什么可擔心的。
即使機器人無法接管世界,也并不意味著我們與機器人之間不存在什么嚴肅問題。實際上,當問到我們如何與聰明的(甚至智能的)機器人共存時,就會出現一系列社會、法律和道德問題。
人工智能領域研究者與科幻作家常常在茶余飯后討論的一個問題可能是機器人取代人類的對立面,即人類是否會系統性地虐待機器人。如果(這是一個尚未滿足的條件)我們制造出能夠感知真實痛苦的機器,那么虐待它們就是錯誤的。再者,這似乎不是一個亟待解決的問題,我們仍可以采取措施來防患于未然。這些措施中最重要的一步或許是立法,禁止制造能夠感知痛苦的機器。一些人認為,事情不會像我們想象的那么簡單,只有擁有了感知真實的快樂和痛苦的能力,機器才能實現真正意義上的智能。從科學角度而言,我們尚未揭曉智能的本質。
然而,科學已經告訴我們的一件事情是,人類有變得殘暴的傾向,因此,這個問題有比機器人取代人類的問題更加嚴重的可能性。即便事實證明,人類能夠阻止“將真實痛苦的感知植入某些機器”,依舊存在這樣的擔憂:人們也可能通過一項法律去縱容人類虐待機器人。這里的擔憂是我們將寬恕人類實施的殘忍行為。類似的擔憂還有人類可能將人工智能應用于性產業,本章最后一節將會討論這個問題。
已經有數以百萬計的年輕人和成年人將射擊和屠戮計算機生成的角色作為消遣活動。計算機游戲產業比好萊塢電影產業的利潤更高,名為“殺光一切”的游戲持續熱賣,證明它已經挖掘了一項重要的人類需求。計算機游戲變得更加暴力、真實,這種趨勢本身就令人擔憂,并且人工智能幾乎會毫無懸念地被引入其中。計算機游戲產業正在發生這樣的現象:聰明的技術人員在開發更像活人的游戲對手——通常包括人工智能,以便人類能夠進行殺戮和破壞。如果這是人類的待客之道,那么機器人的前景就不那么樂觀了。
下一個“莫扎特”會是人工智能嗎
在西方文化中,藝術和科學之間有一種錯誤的分歧。人們通常認為這兩種觀察世界的方式大相徑庭,而實際上,它們之間是共通的。人工智能和藝術之間的交互為我們提供了一種有趣的解釋。有很多使用了人工智能和藝術交叉方法的想法和技術:
◎ 首先,藝術家使用人工智能程序和機器人來創作各種藝術作品。
◎ 其次,許多人工智能研究人員關注藝術領域,以期更好地理解一般情況下的智能運轉方式。
在很多方面,這兩種跨界都存在。在第一類情況中,有許多人試圖使用人工智能程序編寫故事和詩歌。這些程序一般以知識為基礎。乍看之下,將創造性視為基于知識的活動似乎有些奇怪,然而,這是流傳在這一領域中跨越藝術和科學隔閡的重要思想之一。例如,職業爵士樂手保羅·霍奇森(Paul Hodgson)編寫了一個名為Improviser的程序。這個程序能夠按照查理·帕克(Charlie Parker)的風格實時演奏即興爵士樂。這個程序的一個有趣之處在于,它包含了西方音樂中廣泛使用的和弦結構知識。“即興爵士樂不是打破了這些規則嗎?”你可能會問。好吧,確實如此,但事實證明,關于這些規則的知識對創造性地打破這些規則而言是必要的。
許多人已經編寫出程序來生成詩歌。我希望通過本書,讀者將看到這種工作的動機不是取代人類藝術家,更多的是探索隱藏在此類藝術創作背后的人類復雜規則。我必須承認,計算機生成的詩歌并沒有人類創作的那么動人。但是,我同樣必須承認,計算機生成的詩歌質量正在慢慢變好。對計算機編寫的故事而言,我也會給出類似的評價。
如果可以,我們應該從多大程度上相信計算機創作的故事、詩歌和爵士樂,這是一個有趣的問題。或許,所有的贊譽都應該給予實現了這些規則的程序員。這個問題沒有簡單的答案。一方面,我們應該說,程序員只是將人工智能作為工具,來加強他們自身的創造性。另一方面,我們也可以說,霍奇森只是教會Improviser演奏爵士樂,在任意給定場合,程序會演奏出什么樣的旋律,他無法直接控制。事實或許隱藏在兩個方面交叉的困難地帶。我堅信,最好的人工智能藝術作品總是與專業的藝術家有關,這點毋庸置疑。但是在這種情況下,藝術家通常也會說,他們并非只是將計算機視作工具。從這里,我們能窺見令人著迷的人類與人工智能共生的端倪。
至此,我們已經考慮了基于知識的人工智能研究方法,然而,進化計算的崛起同樣見證了基于進化技術的藝術作品的發展。如果類似遺傳算法的程序被用于生成模式,例如在畫布上或聲音中,它們通常就會十分精致與美麗。某種程度上來講,原因之一是它們在追尋自然生命的數學原理。藝術家開始探索多種可能性。在這種情況下,可能更難說計算機只是一個工具,因為這些模式本身就在以非常類似自然進化的方式進化。當藝術家在虛擬環境中進化生物虛擬,隨后使用這些生物活動來創造藝術模式時,發生了一個有趣的扭曲。在這種情況下,人類創造者距離大功告成還很遠。
許多現代藝術家同樣注意到了人工智能的發展,并且用令人興奮、發人深省的方式,將其整合入自己的作品中。當代人工智能不僅是科幻作品中反復出現的主題,在小說中也常被提及。小說家們經常將我們的工作場所設置為環境,因為我的同事和我也常常閱讀與人工智能有關的小說,試圖找出情節中出現的人格。然而,從人工智能中汲取靈感的最發人深省的當代藝術家之一,是澳大利亞行為表演藝術家斯特拉瑞克(Stelarc)。
斯特拉瑞克將這種與人工智能共生的概念發揚光大,他展出了許多展品,這些展品審慎地挑戰了我們對“何處是肉體終結,何處是技術開端”的想法。他用不同的方式將自己的軀體整合進這些展品中。
我個人最喜歡的一個展品是,他使用來自腹部和腿部的電信號控制機器人手臂,而他自己的手臂,則完全由一個用電極連接到皮膚的觸屏刺激系統產生的信號控制。這樣一來,我們就看到了一個人類控制下的機械手臂和一個機器控制下的人類手臂(見圖6-1)。
圖6-1 斯特拉瑞克的藝術裝置
預測未來十分愚蠢
預測科學和技術的未來是一件非常危險的事情。在人工智能等相對新興的科學和技術領域,這么做相當愚蠢。我建議做的事情是概括目前正在進行的一些研究。即便這看起來可能并不完整,因為許多人將嘗試尚未公布的新想法。并且一些軍事領域的人工智能研究周圍可能豎起了一道堅固的城墻。到目前為止,讀者應該對人工智能產生足夠清晰的一般性圖景,以便去了解諸多研究流派(有些使用了十分小眾的方法),因為即便是最有名的評論員也可能忽略一些事情。在人工智能研究中,人們的興趣各有不同,工作方式大相徑庭。實際上,我的真實希望是,一些讀者會從本書的內容中受到啟發,探索屬于他們自己的新想法。
人工智能的最前沿
首先,第1~4章描述的各類研究將繼續。這些研究并不都是人工智能的最前沿成果——人工智能的前沿意識令人恐懼。但我們應該充分了解,這些研究都能奏效。實際上,許多研究成績斐然,它們更多地被視為技術而非科學。先進工業社會中的絕大多數人,每天都在使用人工智能技術,但他們并不知曉。例如,你在手機上撥打號碼,接通電話,這就是你所看到的。而我們通常看不到根據需求分配線路的人工智能程序。但這只是人工智能已經發展成一項技術的標志。好技術通常都是“隱形的”。我在第2章提到,計算機時代的人們,大多將搜索技術視作自己的領域,而非人工智能領域。我個人認為,作為歷史問題,所有現代計算機科學都源自人工智能。人工智能是一切的起源。
當人類制造出首批電子計算機時,設計者常常將這些機器稱作“電子腦”(electronic brains)。事實上,在現代電子計算機普及之前,“computer”這個詞一直指代執行計算任務的人類。早在現代信息產業將“計算”作為描述電子歸檔和信息傳遞的詞之前,圖靈及他在布萊切利園和普林斯頓大學的同事就已經在討論復制人類的智能行為了。
人工智能孕育了許多后來成為計算組成部分的理念。分時(time-sharing)是一種使用計算機CPU在多個任務間劃分工作的通用技術,由一個人工智能實驗室發明。我們在第2章提到,計算機程序的快速原型源自人工智能的知識系統領域。如果你在網絡上使用搜索引擎,你或許也在使用一項人工智能技術,至少是從人工智能發展出來的技術。事實上,一些搜索引擎現在如此復雜,以至于一些說法表明,它們的運轉揭示了人類記憶如何運轉[1]
。
人工智能的科學方面同樣在齊頭并進。人工智能與生物學的聯系在“神經形態工程”(neuromorphic engineering)等領域得到深化。這對“逆向工程”(reverse engineer)生物學機制而言是一種必要的嘗試。這項工作并不簡單,從正確的層面完成工程是必要的。目前,這一工作已經在單一神經元層面得到實現。這一領域大幅推進了人工智能和生物學的發展。類似的關系也在人工智能和神經科學中出現。
基礎研究幾乎在人工智能的全部領域開展。目前最流行的一個領域是代理技術(agent technology)。一個代理可以是源自一個小程序的任何東西,例如,它代表了你在互聯網上的興趣,或許它是一個刻畫生動的人造角色,在幫助你使用程序或在計算機游戲中向你射擊。
當然,打造身臨其境的、有形體的機器人的研究也在同時進行,其中一些還發展出有益的應用,例如,在德國的城市,機器人可以用來維護下水道。探索火星也需要一些復雜機器人。對于此類機器人,無疑將有一些新的應用,這是一個應用可以驅動理論的領域。但一個重要且急迫的任務是找出一些方法,將多個不同方面的成功應用整合起來。
整合,將成功最大化
我們在第4章提到了人工智能領域的不同派系。這產生了積極和消極兩方面的影響。最積極的影響是人工智能領域的人已經解決了最廣泛種類的主題和技術問題。因為人類和動物行為都被包括在人工智能的范疇內,與機器人和計算機整合在一起,或許這點并不令人意外。很難用語言來形容處于一個如此廣泛探索的初始階段是多么令人興奮,但是,幾乎這一領域的所有人都或多或少地表達出了這種興奮的感覺。
第4章同樣提到了消極的一面。可能迄今為止試圖整合不同方法的嘗試太少。人工智能領域的許多人認為其他方法與他們的研究無關,或許會拒絕進行這方面的研究。這在根本上是錯誤的。正如我們已經看到的,智能是一個極其復雜并且很難被解讀的領域。許多不同技術需要同時部署,以進行該領域的研究。如果說第3章描述的神經網絡方法和第2章描述的知識啟發研究之間存在任何種類的理論分隔,這顯然是相當愚蠢的。更糟糕的是,這些方法常常被制造機器人的學者所詬病。
也許,從一個完全不同的角度來看,人工智能并不總會讓該領域的研究人員獲益。但如果他們認為其他觀點是“錯誤的”或“愚蠢的”,而非只是“不同的”,他們的研究就會受到影響。理由之一是,這會為借鑒其他觀點、方法或者考慮某些問題制造不必要的障礙。對智能行為的研究依舊十分困難。確實沒有必要制造這類額外的阻礙。
過去幾十年出現的幾乎所有研究人工智能的不同方法,都解答了一部分相當困難的科學問題。它們無法獨立給出一些完整的解決方案,這并不是問題。一直以來我都認為,人工智能需要的是拒絕智能行為的簡單“黃金法則”。正如本書中反復提到的,智能是一種復雜、多維的事物。
學術世界之外,人工智能的不同方法不僅在一個辦公室里共存,甚至經常在同一個程序里共存。第2章描述的Clementine就是一個好例子。很明顯,在這種情況下,至少這種整合也是可以贏利的。
當我詢問研究人員,為什么在批判其他研究成果和觀點上投入了如此多的精力,有一種常常出現的回爭取資金十分重要。在學術領域如此,但在工業領域并不總是如此。“它能奏效嗎”似乎比“在我們的研究范式中,它是可接受的嗎”重要。
是時候讓人們承認,任何有價值的智能行為觀點都必須(至少)包括知識、神經元和情景性(situatedness)。一些哲學家正在嘗試從一個相當抽象的層面證明如何完成這項工作。我們必須期望,從應用層面實現對不同方法的這種整合,距離我們并不那么遙遠。這種整合帶來的實際成功,可能也會影響未來的人工智能發展。本章結尾描述的前景光明的趨勢,關乎某種程度上不同人工智能方法的整合,這并非偶然。
當然,整合不同的人工智能方法需要的不只是正確的兼收并蓄的態度。因為不同的研究方法會以根本上不同的方式看待同一問題,沒有什么整合它們的捷徑。讓我們再來看看柯克的問題。布魯克斯悲痛地說,柯克無法區分手機與眼鏡盒。對它來說,這是研究項目的嚴重失敗。對一個使用知識方法研究人工智能的研究人員來說,這個問題既不令人驚訝,也不難解決。用基于知識的術語來說,柯克無法區分這兩個東西,因為它沒有關于這兩個對象的知識。一個簡單的解決辦法是編寫某些規則,來捕捉手機和眼鏡盒之間的差異。
使用連接主義方法的研究人員不會編寫規則,相反,他們會試圖通過一些例子訓練一個神經網絡。研究人員把手機和眼鏡盒放置在柯克的光學設備前,將重量輸入修正后的網絡中,直到它能夠正確區分兩種類型的對象。這種情況下并沒有顯式的例子,但神經網絡充當了識別過濾器。
對布魯克斯和他在麻省理工學院的團隊而言,這些都是令人難以置信的某種取巧方法。如果他們想要設計一個設備來區分手機和眼鏡盒,有很多可行的方法。手機通常比眼鏡盒重,因此,一個校準彈簧上的手臂可以對手機做出一種反應,而對眼鏡盒做出其他反應,這就可以完成區分工作。對這個麻省理工團隊而言,這只是設計者運用自己對世界的了解,為機器打造特定問題的特定解決方案的一種方法。在特定規則下編程和訓練神經網絡完成類似的工作是不同的方法。至于柯克,它可能會通過自己的努力研究出區分方法。
但是,對于使用連接主義和基于知識的研究人員,麻省理工學院的方法只是一廂情愿。如果柯克可以區分手機和眼鏡盒,它一定基于一條差異性規則。這條規則的內部運轉可能不是顯式的,甚至可能無法察覺,但從它的行為中很容易就能看出來。只是用優秀的光學設備(實際上,柯克已經擁有了非常好的光學設備)將它們連接到一個強大的計算機和操作者(手臂)上,并且希望出現一些有趣的行為,這不是一個合格的研究方法。甚至更糟糕的是,當有趣的行為沒有出現時,正如這個例子中出現的情況,調整機器人來促進事物發展的誘惑實際上變得相當巨大。
因此,對連接主義和基于知識的人工智能研究人員來說,柯克無法區分手機和眼鏡盒其實是值得表揚的,因為這說明他們并未投機取巧。稍稍添加一些功能就能幫助柯克完成這個任務,這項工作十分簡單。另一方面,他們可能會說,這顯示出這種方法的愚蠢。
或許,這個例子幫助我們解釋了,為什么人工智能研究人員會對其他人的方法冷嘲熱諷。整合各種成功的人工智能技術需要的不僅是大義之詞。在不同方法的整合能夠開花結果前,有許多有待解決的實際問題和哲學問題。然而,有一些人工智能子領域的整合方法正在成為主流,下一節將討論其中一個方面:代理技術領域。
前景巨大的人造代理
正如我們在本章前面提到的,從技術層面來看,一個代理可以是許多東西。首先,這一領域太過新穎,尚未形成一個穩定的定義。其次,審慎的跨界已經幫助這個領域的人工智能以一種有效的方式將其他領域的想法整合到一起。這種人工智能研究方法通常會嘗試將情景機器人和其他人工智能技術結合起來。對代理而言,重要的不是它們是什么,而是它們做了什么。
因為代理是完整的、相對自主的,它們必須瞬間解決智能行為的大多數問題,例如理解環境、在環境中采取有效行為。因此,從打造代理來執行特定任務的角度討論人工智能,至少符合我們在第4章討論的情景具現化和整體性的部分原則。
一個頗有前景的研究流派是大量此類代理的整合。盡管個體的智能可能有限,但當它們像“社會”一樣協作時,就會出現更多有益的行為。對螞蟻等社會性昆蟲的研究,已經向我們揭示了“如何通過相對不復雜的個體動物的組合完成相對復雜的任務”的細節。人們希望,協作的(或許還有競爭的)代理團體能夠完成比獨立個體可以完成的更復雜的任務。
在一些例子中,基于代理的技術的一個優秀特征是它如此簡單,甚至幾乎所有人都可以制造代理。計算機游戲中的角色可以被視作代理,特別是能夠做出一些自主決策的角色。一些探索互聯網的程序,甚至給你發垃圾郵件的程序都是代理技術的例子。這種技術相對容易制造,并且相對沒有規則,這個事實意味著更有可能實現技術上的進步。某個地方的某些人,可能就在嘗試下一個偉大想法。
讀懂人工智能
發射探測器與維護下水道,智能代理的兩個有趣應用
但是,也有一些來自小型簡單程序的代理技術的例子,比如自主或半自主機器人。這類機器人有許多有用的應用,以探索火星為例,在火星表面移動一臺機器人可不像我們在博茨大戰和機器人大擂臺節目中操作機器人那么簡單。從火星接收無線電信號,隨后發回控制信號的延遲可能長達數分鐘(準確地說是9~48分鐘),這段時間內,機器人可能會遇到麻煩。機器人必須使用“裝載智能”,以避免陷入更大的困境。
請記住,從事探索活動的半自主機器人只是人工智能的冰山一角。僅2003年一年,人們就計劃向火星發射3個探測器。這些探測器依賴于不同人工智能技術的整合:有用來計劃這些技術需求的任務規劃系統;還有科學家用來預測將要探索的有趣地點的知識系統,知識系統似乎在預測地球上的礦產儲藏方面頗為成功;人工智能軟件同樣被用來優化發回的圖片和決策支持系統,幫助控制者執行任務。
另一個有趣的應用是維護下水道系統。在這里,地下管網系統中安置的機械構造相對簡單的機器人能夠幫我們清除淤積。然而,如果一個機器人被卡住,在請求人類干預前,它能夠向附近的機器人求助。這種源自半自主機器人的協作行為與代理技術的其他方面有重合之處。例如,計算機游戲中,玩家的對手理論上可以用與下水道維護機器人相同的方式向玩家做出反擊。但實際上,即便在計算機游戲的例子中,它們也只是在屏幕上生成圖像的計算機軟件的片段。
虛擬女友和人造伴侶,下一個大機遇
將代理視作在屏幕上生成圖像的計算機軟件的事實,催生了一些非常有趣的人工智能應用。好萊塢主要的電影公司已經在使用計算機生成的“明星”來拍攝電影。當然,電影中的人造角色最早還要追溯到1928年米老鼠亮相。最新技術給我們提供了更加壯觀的、無法與人類演員區分開的虛擬角色。電影公司計劃讓瑪麗蓮·夢露和亨弗萊·鮑嘉(或者至少是基于計算機重塑的她們)重返銀幕。我毫不懷疑,這一技術難題不久后就將被攻克。這種類型的技術很昂貴,但并不像人工智能研究那么困難。由于人類演員的出場費很高(至少在好萊塢如此),使用計算機生成的明星來取代他們的動機就非常真實。
通過整合好萊塢的能力來生成完全令人信服的類人形象,自主或半自主代理的人工智能技術為未來帶來了更有趣的可能性。性產業可能是一個對此很感興趣的行業。我已經提到,這個領域應用的目標是模擬人類特征。相對冷靜地來看,這個領域將存在一些可能的人工智能應用。
有必要記住,人類的性驅動已經塑造了技術發展。例如,逐漸主宰家用市場的錄像帶標準之所以如此火爆,是因為它是色情錄像行業采用的標準。互聯網的歷史亦是如此。互聯網最初是少數科研機構使用的軍事設施。核能科學家開發出因特網,以方便閱覽彼此的研究內容。
通過前面這些技術,我們也許能得出一個結論,那就是這種技術的應用存在巨大需求。可能會出現巨大的市場和巨大的利益,這是它需要被嚴肅對待的原因。人工智能將以不同方法進入這個產業。其中一個可能是計算機游戲中程序生成的人造角色的延伸。正如我們已經提到的,這些角色通常會包含人工智能。無論它們最初是像在最受歡迎的計算機游戲中那樣為了充當靶子而存在,還是像在其他養成類游戲中那樣被養育,它們現在都只是卡通形象。將這種人工智能技術與生成完全真實的人造角色的能力結合,是性產業不容錯過的一個機會。
全世界范圍內,人們對虛擬女友,也就是一個扮演部分女性伴侶的計算機角色需求巨大。似乎在日本商人中最為流行,但我不會去猜測可能的原因。在不久的未來,已有技術的結合可能會創造出相對真實的人造伴侶。從目前來看,屏幕角色比有形體的機器人更有可能出現。當然,這正是當前大多數電影和電視明星存在的形式。
人們非常容易即時體驗到對這種可能性的情感反應。但這只是現有技術發展和社會趨勢的組合。有些作家,例如尼爾·福魯德(Neil Frude),將其視作一個真正的反烏托邦前景。他們聲稱,人們傾向于人造而非真實,更愿意與自己的人造伴侶待在家中,而不是出門面對真實世界的諸多風險。這會導致具備無法預測性和困難的正常人類交流的減少[2]
。但20世紀的屏幕角色并沒有瓦解人類社會,有人可能會如此駁斥這個觀點。大多數人能夠區分虛擬和真實,人們也將適應這種技術,正如他們適應電視和計算機游戲一樣。然而,電影、電視肥皂劇和計算機游戲等20世紀的虛擬技術常常制造出大量利潤,因此,從經濟角度來看,這會是一個有吸引力的應用領域。
并非所有人造伴侶都是性產業制造的。這一技術的一個有趣的軍事應用是有名的“飛行員副駕駛”(The Pilots Associate)。由于現代戰斗機的飛行員可能會過度疲勞,研究人員開發出一個知識系統來引導飛行員,使他們的注意力始終集中在最緊急的信息上,可能是來襲的導彈、引擎過熱、燃料不足或其他緊急事件。研究顯示,向人類飛行員呈現這類緊急信息最有效的方式是在他們的耳機中播放女性聲音。這也解釋了為什么飛行員為這個系統起名叫“怨婦貝蒂”。
一個同時具有前景和社會效益的人造伴侶的應用,是以多種形式(包括實體機器人)照顧老年人的系統。這些系統能夠整合家用技術,監控做飯、洗澡水溫度等,以避免發生意外。機器人能夠幫助我們完成多種日常家務。這種技術會與性產業使用的人工智能齊頭并進還是自成一派,這將是一個有趣的問題,我希望很快就能看到答案。
然而,如果一定要我猜測人工智能的下一次重大發展,我不得不說,它會出現在令人驚訝的領域。我確實期待被驚到。先前的發展多是從無到有。一些用不同方法研究熟悉問題的研究人員通常會實現突破。有時候,研究人員會關注那些長期被忽略的想法,使用現代計算機再次嘗試。有時候,持不同意見的人會提出革命性的想法。
正如我在前言中提到的,人工智能是一個引人入勝的世界,同時,現在也是深入其中的最佳時機。
章后總結
1.幾乎所有技術都會改變接納它們的人和社會,通常會超出所有人的認知。作為一項技術,人工智能可能產生的影響與先前的技術所造成的影響一樣巨大。
2.當前的和可預見的人工智能技術似乎更擅長取代高度專業化的崗位,而非一般性或更具人類特征的崗位。
3.人工智能技術使用的黃金場景是,它將使人類變得更加高效、智能。
4.人類將傾向于使用人工智能來放大他們自身的智能,正如我們今天使用IT技術的方式。這可能會給予某些團體和國家更大的力量,但它也將使大多數人獲得比他們今天擁有的更多的能力。
● 拓展閱讀
想要深入研究人工智能的社會影響可以參考《對人工智能的思考:法律、道德和倫理維度》(Reflections on AI: the Legal,Moral, and Ethical Dimensions
)(惠特比,1996年)。
漢斯·莫拉維克在《心智孩童》(1990年)一書中提及機器人接管世界。
瑪格麗特·博登撰寫了《創造性思維》(The Creative Mind
)(1990年),將人工智能應用于藝術創造。這本書已經成為對人工智能和藝術之間關系有興趣的人的必讀書。
斯特拉瑞克有一個網站:http://www.stelarc.va.com.au/,這個網站評價了他的研究和思考。
致謝
這本書的完成,單憑我一己之力難以做到。在此,我要對很多人的幫助表示感謝。我要感謝那些不斷督促我,讓我做出清晰、準確解釋的學生。教學相長中,正是他們的存在,讓我積累了不少素材。同樣地,我可能無法悉數列出過去數年間,那些曾挑戰或支持過我的觀點、給我帶來了無數幫助的同行的名字。
感謝安·格蘭德(Ann Grand)指出,被“編程”的雛菊會接管世界。下面提到的朋友和同行對本書提出了寶貴的意見:瑪吉·博登(Maggie Boden)、奧利維婭·博耶(Olivia Boyer)、羅恩·克里斯利(Ron Chrisley)、安迪·克拉克(Andy Clark)、羅布·克洛斯(Rob Clowes)、戴爾德麗·庫尼漢(Deirdre Counihan)、基蘭·戴爾(Kyran Dale)、史蒂夫·德雷珀(Steve Draper)、卡萊爾·喬治(Carlisle George)、戴夫·尼科爾森(Dave Nicholson)、邁克·沙普爾斯(Mike Sharples)、亞倫·斯洛曼(Aaron Sloman)、尼克·斯奇帕尼克(Nick Szczepanik)、史蒂夫·托蘭斯(Steve Torrance)、德斯·沃森(Des Watson)、埃米莉·惠特比(Emily Whitby)、莎倫·伍德(Sharon Wood)和戴維·揚(David Young)。同時,不少匿名讀者也給本書提供了中肯意見。在此,我必須承認,對這些建議與意見,我并沒有盡數采納,因此,本書中如有不足之處,實則是我的過失。
.