AlphaGo以4:1碾壓了人類的代表李世乭。這只是一個開始。
我們與人工智能共存的時代,可能在我們的有生之年到來。對這個未來的不安,壹讀君(微信:yiduiread)覺得很好理解,人類就像一個蹣跚學步的兒童,還沒有搞明白怎么安全燃放煙花,就發(fā)明了原子彈。
那么問題來了:人工智能和人的距離到底有多遠?
殺死一個人工智能,跟殺死一個人一樣嗎?
今天壹讀君(微信:yiduiread)請來討論這個問題的是↓
負責編輯的值班壹讀君丨宅殆
AlphaGo與李世乭的人機圍棋大戰(zhàn),激發(fā)了無數(shù)或者不懂圍棋、或者不懂人工智能,不過大部分情況是兩者皆不懂的各色人等的想象力,產(chǎn)生了無數(shù)談資、彈幕、段子和陰謀論。
比如有一個段子:“機器贏了人類不可怕,機器假裝輸給人類才可怕?!本褪抢昧藢θ斯ぶ悄茏灾饕庾R潛在的恐懼達到了傳播的目的。
我們是否能夠知道人工智能是否已經(jīng)發(fā)展出了自我意識?
答案是:我們無法知道,因為我們并不理解人工智能。
我們不理解人工智能的原因是我們不理解自己
IBM科學家埃默森·M·匹尤說:如果我們的大腦簡單到我們能夠理解,我們就沒有足夠的智力去理解它。希臘古城特爾斐的阿波羅神殿上的那句名言也是:“認識你自己!”
正是因為我們不能夠認識我們自己,所以我們還沒有辦法去開發(fā)出真正像我們的人工智能。最古老的飛行夢想家都以為,只要能夠像鳥那樣撲騰翅膀,就能夠讓人也飛起來;但是直到我們有了空氣動力學以后,我們才找到制造出飛行機器的正確路徑,而撲騰翅膀不是那條正確路徑。
AlphaGo所使用的深度神經(jīng)網(wǎng)絡很可能是那條正確的道路:模仿我們大腦中神經(jīng)元的構(gòu)造。人類的大腦,正是通過大量的神經(jīng)元互相連接協(xié)同變化,最終產(chǎn)生了智力和意識。雖然AlphaGo現(xiàn)在在智力上已經(jīng)超越了人類最頂尖的圍棋棋手,但是依然有一個問題——它真的“理解”自己在做什么嗎?
“理解”是一個哲學命題,它關乎到自我意識:我們能夠理解一件事情,知道它究竟是什么,而不僅僅是某種大腦中的自動反應機制。我們能夠感覺到“自我”的存在,能夠自己做出決定,在心靈上我們是自由的。同時我們認為意識和智能是不能夠分割的:有高智能的實體肯定擁有自我意識,而就算AlphaGo能夠在圍棋上碾壓人類,它仍然沒有顯露出有自我意識的跡象。
在這里,不得不提到“中文房間”。
哲學家約翰·希爾勒在1980年就提出了一個思想實驗,叫做“中文房間”。假設是這樣的:假如說有一個對漢語一竅不通,只懂英文的人坐在一個密封的房間里。他手頭有一本英語的手冊,上面有如何處理漢字字符以及回復的完全指示。外面的人通過一個窗口向屋子里的人遞紙條,上面寫著漢語書寫的問題,然后這個人依據(jù)手冊將對應的漢字字符組合成回答傳回給外面的人。
對于外面的人來說,這個屋子是會說中文的;但是里面的這個人卻不會中文!
在中文屋中的這個人他并不“理解”漢語,他只是按照手冊行事而已;將這個房間換成計算機,將里面這個人換成計算機程序,將遞給小屋里的問題換成圍棋,那么這就是AlphaGo——它遵照著一套事先訓練好的博弈模型行動,它是否真的“理解”了圍棋?
那人類自己是否又理解圍棋?
這并不是一句廢話。考慮到AlphaGo的神經(jīng)網(wǎng)絡就是模仿人類的神經(jīng)元來構(gòu)造的,如果我們把人類的大腦還原成神經(jīng)突觸的電刺激,那么人類下圍棋時候,每一個神經(jīng)元是否就能夠“理解”圍棋?這是一個讓人發(fā)狂的問題。
圍棋是基本規(guī)則非常簡單,因而局面反而非常復雜的游戲。到目前為止,人類都只能借助于千百年來各路高手已經(jīng)形成的開局、定式、變化,也就是許多相對固定的套路,來學習圍棋。人類對圍棋的理解,實際上可以說就是對這些套路和局部最優(yōu)解的運用。AlphaGo的訓練就采用了這種傳統(tǒng)思路,參考了數(shù)萬盤職業(yè)棋手的對局。
但是Google已經(jīng)表示,之后他們將訓練一個完全白板的AlphaGo:也就是不輸入任何已知的棋局,直接在基本規(guī)則的基礎上自我對弈來訓練。這樣成長起來的這個人工智能將會在棋盤上有何表現(xiàn)?這里有個可能性,如果說這個白板AlphaGo在與目前的這個AlphaGo戰(zhàn)斗中勝利,那么就說明,人類這幾百年來的對于圍棋的理解是完全錯了——至少也是一條歪路。
這將帶來一個非常可怕的暗示:人類對于圍棋的“理解”其實是完全沒有意義的,只有純粹的計算能力才有意義,自我意識在這里除了拖后腿之外沒有用處。
這是一個可能的未來,一個陰暗的未來:我們對于智能的理解完全錯了。擁有超級智能的機器或許并不需要有意識,它只需要根據(jù)反饋行動。從這個角度來說,劉慈欣在《三體》中提出的黑暗森林理論是根本無法應用的——如果對方只根據(jù)你的行動做出對應,那就無所謂猜疑鏈。將所有的唐詩宋詞喂給電腦,它能夠輸出比肩李白的詩句;事實上現(xiàn)在的對聯(lián)機已經(jīng)能夠輸出黃庭堅級別的詩句了,但只是需要重復試驗而已。
人類所有引以為豪的事情——文學、音樂、繪畫、情感、藝術,對于人工智能而言只是一個更大的特征值矩陣而已。它完全有可能能夠通過圖靈測試卻沒有任何意識——它能夠流利的跟任何人對話,卻完全不需要明白自己在說什么。
我們不理解它們是因為我們不理解我們自己
長久以來人類認為自己的自我意識都是一種神秘的,超脫于物理世界之外的實體,自我意識處在另一個心靈的世界之中。這就是所謂的“身心二元論”,我們的物理身體是不會影響到我們的意識。但是現(xiàn)在科學的發(fā)展已經(jīng)證明了這個看法是完全錯誤的。我們的情感很大程度上受激素和荷爾蒙影響;抑郁癥也能夠歸因于神經(jīng)遞質(zhì)的問題,可以吃藥治療。
甚至是自由意志——認知科學的實驗證明了我們大腦中做決定的時間比我們能夠意識到的還要更早。我們的大腦是一頭大象,自我意識是一個騎象人:在某些時候騎象人可以指揮大象的方向,而在大部分時間里大象都自行其是。
同樣,心理學的一個新興的研究領域就是“具身認知”(Embodiment):我們的生理體驗與心理狀態(tài)之間有著強烈的聯(lián)系。生理體驗“激活”心理感覺,反之亦然。我們在開心的時候會笑;而做出微笑的表情,人也會變得開心。自我意識不再是一種神秘的,存在于我們大腦中某個地方的結(jié)構(gòu);也并不是在知覺運動系統(tǒng)的背后存在一個心智;離開了身體,認知和心智根本就不存在。
所以沒有“身體”,或者說“身體”的概念與我們截然不同的人工智能,會與我們有一樣的心智和認知結(jié)構(gòu)么?
恐怕不會。人工智能并不會具有我們可以想象的那種心智和認知結(jié)構(gòu),或者人格和情感。它對于情感對于藝術的感覺也會與我們截然不同——不過這并不妨礙人工智能去創(chuàng)造出好的藝術。
人工智能可以創(chuàng)造藝術嗎?
AlphaGo勝利之后有一句話十分深刻:我們崇拜圍棋的原因是因為我們不擅長圍棋。
計算機已經(jīng)可以創(chuàng)造出巴赫風格的音樂,但是它并不真的理解巴赫在我們心中所引起的那種感動。神經(jīng)網(wǎng)絡可以將一張金門大橋的照片轉(zhuǎn)換成梵高的風格,但是它也不理解梵高到底是怎樣的風格。
這讓人想起劉慈欣在小說《詩云》里的描寫:神級文明拆毀了太陽系,遍歷了整個唐詩的狀態(tài)空間,然而卻沒有辦法去將那首最好的超越唐詩的作品找出來。實際上大劉的這篇小說犯了一個基本錯誤——創(chuàng)作本身就是一個從狀態(tài)空間中篩選的過程,而遍歷狀態(tài)空間則不是創(chuàng)作。
假如說我們現(xiàn)在發(fā)明了一個人工智能,它的任務是創(chuàng)作出超越李白的唐詩——問題就在于“誰來以何種標準來判斷是否超越李白”,而這個判斷只能是人來給出。我們不相信人工智能能夠以人的標準來判斷詩。因為人工智能并不是李白,它也不可能成為李白。如果我們要求人工智能有人格,或者其他的一切我們能夠想得到的特質(zhì),我相信有一天它會達到;但是它不會成為李白。