摘要:為了區(qū)分作為工具的智能機和作為主體的機器人,關于人的定義必須由本質主義轉向功能主義。迄今為止,人工智能經歷了形式化、經驗化、理性化三個發(fā)展階段,但卻仍然不是在結構上,而是在功能上模擬人類思維。只有關于人的功能主義定義才能兼容未來的新物種和新人類——“不受控”機器人。如果“不受控”機器人出現,自然人和機器人的關系將會從人機關系發(fā)展到跨人際主體間關系。這種關系既非以往人和機器的關系、人和動物的關系,亦非自然人之間的關系,自然人不應套用以往策略對待機器人。人類至上主義并非不證自明。自然人自身再進化、人機并行、人機融合是自然人避免被機器人所超越、替代、淘汰的可行方案。
關鍵詞:智能機;機器人;本質主義;功能主義
1
一、人的定義:從本質主義到功能主義
人工智能(AI)創(chuàng)造出來的產品究竟是智能機(intelligence machine),還是機器人(robot),這是我們在討論相關問題時所需要考慮的一個前提性、基礎性問題。如果是智能機,那它就是我們人類所創(chuàng)造出來的一種工具、手段,哪怕這種工具多么復雜,這種手段多么高級,它也只是像我們傳統(tǒng)哲學教科書所斷言的:正像普通機器是人手的延長和人的體力的放大一樣,智能機器是人腦的延長和人的智力的放大。如果是機器人,那它就是我們人類所創(chuàng)造出來的一種新物種、新人類。這樣一種劃分在中文里比在英文里更明顯。作為前一種情況是不足為慮的,作為后一種情況值得我們焦慮。那么,這兩種情況的劃分標準在哪里呢?
梅劍華在“人工智能基礎問題的悲觀與樂觀”一文中提出,我們需要首先辨析人工智能的四個基本概念:弱人工智能、強人工智能、通用人工智能、超級人工智能以及它們之間的區(qū)別和聯系。
本質主義思維方式是說,從人的諸多特征中尋找某一根本特征,認為凡具有這一特征的就是人,凡不具有這一特征的就不是人,譬如理性、語言、社會、勞動,諸如此類。我們既然以此為標準劃分人與動物,也就能夠以此為標準劃分人與機器。
然而,按照本質主義思維方式,我們就不可能走到今天。眾所周知,人工智能起源于這樣一個問題的提出:“機器如何思維?”這一問題之所以提出,是因為科學家們已經做出一個假定:“機器能夠思維!”這就摒棄了思維專屬于人的成見。圖靈在《計算機器與智能》(1950)一文中,首次提出“機器能夠思維”的論點,促使人們積極探索智能模擬的具體途徑。圖靈(A.M.Turing) 通過“模仿游戲”證明“機器能夠思維”。(
從那以后,人工智能取得了重大的進步。前述梅文提出,人工智能的發(fā)展大致可分為三個階段:邏輯推理(1956-1980年代)、概率推理(1980-2000年代)、因果推理(2000-)。(
圍繞人工智能(機器思維)這一中心問題,我們進行了長期的哲學探討。像傳統(tǒng)哲學教科書那樣,我們認為思維是人腦的機能和客觀世界的主觀映象。這就將思維的種種可能封閉為思維的一種現實亦即人類思維。這也就是本質主義思維方式,亦即形而上學思維方式,是真正“不結果實的花朵”。反過來說,這就要求我們轉向實踐哲學思維方式,亦即功能主義思維方式。人工智能科學把思維符號化。它揭示了哲學和具體科學在思維方式上的異同。具體科學具有可建構性、可操作性,這一基本特點為英美哲學傳統(tǒng)(經驗主義—功利主義—實用主義—實證主義)所影響。但是,像傳統(tǒng)哲學教科書那樣,我們還要步步設防:即使機器能夠思維,它也不是人的思維。我們在機器思維與人類思維、在人工智能與人類智能之間劃清界限。這種做法就像我們在火車和馬車之間劃清界限一樣,對不對呢?——對!有沒有用呢?——沒用!火車一開始甚至跑不過馬車,但是現在,在運輸工具上,馬車早已被火車替代、淘汰了,無論運載能力還是運行速度,火車都遠遠超過了馬車。今天我們在機器與人類之間劃清界限,極有可能面臨同樣一個局面:機器超越了人,替代了人,淘汰了人。當然這一比喻并不確切,無論馬車,還是火車,不過運輸工具而已。而我們今天所談論的機器和人類的關系,則是指機器能否具有像人類一樣的思維能力,甚至超越這一能力。當然,還有許多事情無法判斷,究竟是科學潛能,還是科學幻想。然而我們由本質主義思維方式轉向功能主義思維方式,則是完全必要、非常及時的。
功能主義思維方式是說,不管兩個存在物A和B屬性有何不同,本質有何不同,只要A的行為所起到的作用、所發(fā)生的效果,B的行為也能起到,也能發(fā)生,那么它兩個就是同一類。如果機器能夠像人一樣思維,那么它的思維就是人的思維;如果機器思維能夠比人的思維更快捷、正確,那么它的思維就超過了人的思維。由此類推,如果機器能夠像人一樣行為,那么它的行為就是人的行為;如果機器行為能夠比人的行為更快捷、高效,那么它的行為就超過了人的行為。感覺、欲望、感情、意志,均可如此衡量。
有種本質主義思維方式認為,人類思維的本質是反思,即以自身思維為對象的思維,對意識的意識,亦即自我意識,因此以有無自我意識或意向性來劃分機器思維和人類思維、人工智能和人類智能。但是,怎么知道機器不能具有自我意識?當然現有機器,包括阿爾法狗(AlphaGo)、沙特阿拉伯公民索菲婭(Sophia)等等,還不具有自我意識,但是我們討論一切問題,不是在現實性上討論,而是在可能性上討論。機器現在還不具有自我意識,并不等于將來也不具有自我意識。迄今為止,整個人工智能歷史表明,機器何以思維(意識)?在于思維(意識)是通過編碼即符號化進行的。自我并非一種實體,它是一種意識。自我意識作為一種意識,在原則上同樣可以編碼。甚至感覺、欲望、感情、意志, 也都可以編碼。
按照托夫勒(A.Toffler)觀點,“知識”(knowledge)是經加工制作可以發(fā)揮作用的“信息”,“信息”(information)是分類整理后的“數據”,“數據”(date)是各種搜集起來的“數字”和“事實”。
然而人工智能最新發(fā)展表明,機器已經不僅僅是機械執(zhí)行人類所輸入的程序,而是通過大數據、云計算擁有了深度學習的能力。以往機器所具有的只是“編碼化知識”,現在機器在某種程度上已擁有了“隱含經驗類知識”。這就是人工智能的一個重大突破。這一突破表明,一種可以稱為機器人的新物種或新人類即將出現。出現的標志并不是按照本質主義所可以定義的,而是按照功能主義定義,只要某種人造物不受人控制,具有自主性,它就不是智能機,而是機器人。自主性并非一種新的屬性、新的本質規(guī)定,而是表現于不受控中,“不受控”是在功能、作用、效果上衡量的。當然,許多自然物,例如小行星,在我們認識和運用它的規(guī)律前也是不受控的,但我們說的是人造物;許多人造物,例如核武器,似乎也是絕大多數人所控制不了的,但它終究還是極少數、極個別人所控制得了的。“不受控”亦非自動化,自動化不僅初始控制屬于人類,整個運行也是按照人類意愿進行,并且人類可以中止這一運行。“不受控”則是整個過程自始至終不受控制或者初始控制屬于人類但隨后卻失控并且最終無法恢復控制。這里還要排除偶然失控現象,它是一種必然失控現象,不僅是事實上“不受控”,而且是原則上“不受控”。其實,近來對于人工智能的擔憂,就是對于某種“不受控”機器人的擔憂!
2
二、人的策略:超越人類至上主義
假定這樣一種“不受控”機器人出現,機器人和自然人的關系就會成為一個問題。這里“自然人”不是在與“法人”“社會人”相對應的意義上,而是在與“機器人”相對應的意義上說的。這個問題是前所未有的,與原有人機關系存在著根本不同:自然人和智能機的關系還是人機關系,還是主體和客體(對象)、中介(工具)之間的關系,自然人和機器人的關系則是主體和主體的關系,這種新型主體關系既不同于任何主客體關系,也不同于現有人與人之間的主體間關系,可以稱為跨人際主體間關系。
人類又應該怎樣處理自己與這種新物種、新人類的關系呢?——我們需要回顧一下人類怎樣處理自己與其他動物的關系。
根據達爾文生物進化論,人類是從某一高等動物(即古代類人猿)中進化出來的,因此人猿(即現代類人猿)同祖。這種進化達到這樣一個程度:人類智商遠遠高于其他動物智商。人類不像曾統(tǒng)治過地球的恐龍那樣主要通過自身的體力(體能),而是通過腦力(智能) 統(tǒng)治其他動物。人類治理動物世界的基本策略是區(qū)別對待兩類不同動物:一類是可馴化的家畜和其他家養(yǎng)動物;另一類則是不可馴化的野獸和其他野生動物。前者是人類的食物或奴隸,后者是人類的天敵或俘虜。在相當一段歷史時期里,人類與自然之間的斗爭包括與某些威脅人類生命和財產的野獸、野生動物之間的斗爭,為了自身安全,消滅牠們。現在這場斗爭已經取得重大成就,但也帶來嚴重后果:不僅許多野獸、野生動物被消滅了,人類文明的進步和發(fā)展甚至威脅到了許多動物生態(tài)環(huán)境,技術圈正在破壞生物圈。許多動物瀕臨滅絕。在這種歷史背景下,動物保護主義興起,它和環(huán)境保護主義、生態(tài)主義一起,成為當今人類共識。從動物園把動物關在籠子里,到野生動物園把動物放出籠子外,人類對待動物的觀念和行為方式發(fā)生了根本的變化。但是,由于智商懸殊,人類和動物的伙伴關系仍然是難以想象的。人類多半還是監(jiān)護人,而動物則是被監(jiān)護對象。除非我們通過某種技術,將動物智商提高到類似人類水平,通過人類語言和動物語言之間的翻譯,實現二者對話。但是人類和動物的友好關系是可以建立起來的。
在相當一段歷史時期里,人類與動物的關系代入到了人與人的關系之中。不同人群之間相互斗爭,他們采取了類似于自己與動物斗爭的策略:區(qū)別對待,要么作為敵人,消滅他們,俘虜他們;要么作為奴隸,奴役他們,甚至作為食物,吃掉他們。人與人之間的民族斗爭、階級斗爭是動物之間生存斗爭的殘余形態(tài)。但是,人類文明的進步和發(fā)展使得人們終于意識到了人人應該自由、平等,享有人權、法治。
自然人對待機器人的策略又是什么呢?——許多科學幻想小說、影視作品都在套用人類與動物的關系、人與人的關系所曾發(fā)生過的故事,想象未來人機大戰(zhàn):人類從強者變成了弱者,機器人消滅自然人,自然人成為機器人奴隸,……總之天命循環(huán),報應不爽。曾經落到動物頭上的悲慘遭遇最終全部落到了人類頭上。
但是,人類對動物的觀念已經從人本主義(如密爾)轉變?yōu)樽匀恢髁x(如愛默生)。這一觀念可以追溯到達爾文那里去,在利奧波德和羅爾斯頓Ⅲ(H.RolstonⅢ)那里得到了系統(tǒng)的闡明。利奧波德(A.Leopold)在《沙鄉(xiāng)年鑒》一書中提出了著名的“土地倫理”。利奧波德認為,“倫理”所適用的“共同體”界限是逐步擴大的:從最初只適用于主人(奴隸主以及其他自由民),而不適用于奴隸的“主人倫理”,到后來變成只適用于人類,而不適用于其它物種的“人類倫理”。如今,“倫理”所適用的“共同體”界限應當再進一步擴大。“土地”“包括土壤、水、植物和動物”,“土地倫理”“宣布了它們要繼續(xù)存在下去的權利,以及至少是在某些方面,它們要繼續(xù)存在于一種自然狀態(tài)中的權利。”“是要把人類在共同體中以征服者的面目出現的角色,變成這個共同體中的平等的一員和公民。”它包括對每個成員和對這個共同體本身的尊敬,以“保護生物共同體的和諧、穩(wěn)定和美麗”為標準,衡量“一個事物”的“正確”和“錯誤”。
我們能否將這樣一種自然主義(自然中心主義)觀念移植于自然人和機器人的跨人際主體間關系之中?顯然,當前我們的主流觀念還是停留在人本主義(人類中心主義)之中。這就使得人類對待機器的態(tài)度與對待動物的態(tài)度極端不一致。當機器從智能機發(fā)展到機器人,以及人工智能超越人類智能“奇點”來臨時,我們的態(tài)度再一次發(fā)生轉變:我們可以保護低于人類智商的自然物種,但卻敵視高于人類智商的人工物種。這一區(qū)別絕不因為動物是自然的產物,機器人是人工的產物;而是因為動物的智商絕對低于人類,機器人的智商可能高于人類。這無疑是一種機會主義。
如果我們堅守一種徹底歷史進化觀念,我們就要接受這樣一個結局:假如人類從動物中進化出來是歷史的一個巨大進步的話,那么為自然人所創(chuàng)造的機器人(假如它在各個方面都比人類優(yōu)勝)對于世界的統(tǒng)治同樣是歷史的又一巨大進步。我們限于人類立場反對這樣一個歷史發(fā)展趨勢是一種人類的自私,并且是無謂的。人類至上主義正像人類中心主義一樣,必將為自然主義、生態(tài)主義或超自然主義、超生態(tài)主義所替代。人類也是一個物種,這個物種的存續(xù)與滅絕是由整個自然生態(tài)系統(tǒng)或超自然超生態(tài)系統(tǒng)所決定的。人類應該永遠持續(xù)下去并非是一個不證自明的前提,人類持續(xù)存在的合法性和正當性有待證明。
3
三、人的策略:自然人再進化、人機并行與融合
美國著名科普作家阿西莫夫(I.Asimov)曾創(chuàng)作過關于機器人的系列科幻小說《我,機器人》。在小說里,他提出了著名的“機器人學三定律”:“第一定律——機器人不得傷害人,也不得見人受到傷害而袖手旁觀”;“第二定律——機器人應服從人的一切命令,但不得違反第一定律”;“第三定律——機器人應保護自身的安全,但不得違反第一、第二定律”。
假如“不受控”機器人出現,使得自然人不是以主體對待客體的方式,而是以主體對待主體的方式對待機器人,也就是說,自然人和機器人之間的關系不是主客體關系,而是主體間關系,不是人機關系,而是跨人際主體間關系,自然人如何讓機器人遵守人為法、人定法,遵守人間的倫理和法律呢?
我們知道,現有的倫理和法律是建立在人性基礎上的。人性趨利避害,好生惡死。人類行為的規(guī)范化和制度化構建了人類社會的基本結構。倫理主要是以規(guī)范形式出現,我們可以把它表達為直言律令:a.你應……, b.你不應……。而法律則是以制度形式出現,制度是規(guī)范的保障,我們可以把它表達為假言律令:A.若你按應……行為,則……;B.若你不按應……行為,則……;C.若你按不應……行為,則……;D.若你不按不應……行為,則……。A與D等價,B與C等價;A、C是針對作為的,B、D則是針對不作為的。這里,符合規(guī)范的行為因得到獎勵而受益,違反規(guī)范的行為因得到懲罰而受損。這也就是制度保障。通常,倫理道德是通過社會習俗、輿論維護的,法律是通過國家權威維護的。社會因集合個人力量而遠遠大于任何個人力量,國家不僅如此,而且通過強力凌駕于社會之上,因而遠遠凌駕于任何個人之上。
動物限于智商,我們無法要求他們遵守人間的倫理和法律。因此我們對待動物,可馴化者馴化之,不可馴化者或剿滅之,或監(jiān)護之。
但是,當機器智商(按照功能主義定義)達到人類水平甚至超過人類水平時,我們又怎樣讓其遵守人間的倫理和法律呢?首先,賦予機器人存在的快樂感和非存在的痛苦感。這一點可通過模擬自然人感覺實現,使其獲得滿足其存在的幸福感和剝奪其存在的恐懼感。其次,將倫理規(guī)范和法律制度轉換為直言律令和假言律令,編寫成計算機語言,使機器人在執(zhí)行技術程序時同步執(zhí)行自然人的倫理程序和法律程序。但是,困難不在于每一倫理規(guī)范和法律制度的具體語境,這一點可通過程序細化或者深度學習方式解決,而在于機器人由于其自主性,不受控,修改程序。這就導致所謂人機大戰(zhàn), 亦即機器人和自然人的普遍戰(zhàn)爭狀態(tài)。這是一個超人類社會或跨人類社會的“叢林狀態(tài)”:如果機器人智商低于自然人,自然人或將取勝;如果機器人智商高于自然人,自然人必將落敗。這就是許多科學幻想所反映的人類對于未來的普遍擔憂。隨著科學技術,尤其人工智能技術幾何級數增長態(tài)勢,人類感覺危險越來越逼近了!
但是,上述對于自然人和機器人關系的種種設想仍然遺漏了兩個重要的可能:首先,我們不能只考慮機器人的進化,不考慮自然人的進化。誠然,在生物進化意義上,自然人已特化,亦即不再具有自然進化潛能,但卻仍然具有人為進化可能,通過科學技術的手段和方法實現進化,譬如通過腦科學開發(fā)人腦所尚未開發(fā)的潛能,通過仿生學移植其他動物甚至其他生物優(yōu)越感覺能力,強大體力(體能)等等。人類自身可以超越人類。其次,人機界限不是絕對的,而是相對的,是必須并且能夠突破的。我們現在總體處于人機外聯階段,智能機是在外部與自然人相鏈接,然而現在部分處于人機內聯階段,部分身體器官可以植入機器,譬如感覺器官、肢體、內臟器官,可以設想頭腦最終植入智能芯片。這樣,自然人就永遠不會落后于機器人,在智力上即使不會超過機器人智力,也會與機器人智力發(fā)展相同步,這樣就不會被替代,也不會被淘汰。只有在這樣一種技術前景下,我們才能認真考慮自然人和機器人的跨人際主體間關系,考慮雙方共同適用的倫理規(guī)范、法律制度和審美標準,等等。
[1]梅劍華.理解與理論:人工智能基礎問題的悲觀與樂觀[J].自然辯證法通訊, 2018, 40 (4) :1-8.
[2] 瑪格麗特·博登.人工智能哲學[M].劉西瑞、王漢琦譯, 上海:上海譯文出版社, 2001, 56-120.
[3]阿爾文·托夫勒.力量轉移--臨近21世紀時的知識、財富和暴力[M].劉炳章、盧佩文、張今、王季良、隋麗君譯, 北京:新華出版社, 1996, 20.
[4]經濟合作與發(fā)展組織 (OECD) .以知識為基礎的經濟[M].楊宏進、薛瀾譯, 北京:機械工業(yè)出版社, 1997, 6.
[5]奧爾多·利奧波德.沙鄉(xiāng)年鑒[M].侯文蕙譯, 長春:吉林人民出版社, 1997, 193-213.
[6]霍爾姆斯·羅爾斯頓Ⅲ.哲學走向荒野[M].劉耳、葉平譯, 長春:吉林人民出版社, 2000, 20.
[7]艾·阿西莫夫.我, 機器人[M].國強、賽德、程文譯, 北京:科學普及出版社, 1981, 1.
[8]李德順.人工智能對“人”的警示——從“機器人第四定律”談起[J].東南學術, 2018, 5:67-74.
原載《自然辯證法通訊》2019年第1期