問題發(fā)布
我們生活在一個(gè)信息社會(huì)中,身邊的一切仿佛都被迅速數(shù)據(jù)化并接入網(wǎng)絡(luò)。這些被收集起來的數(shù)據(jù)總量極大、維度極多、復(fù)雜性極高且時(shí)時(shí)變化,處理這些數(shù)據(jù)所需要的計(jì)算能力已經(jīng)遠(yuǎn)遠(yuǎn)超出了人腦的極限,因而我們不得不依靠機(jī)器的計(jì)算能力才能對(duì)“大數(shù)據(jù)”加以篩選和分析。基于此,在不遠(yuǎn)的未來,由人工智能(AI)參與甚至全權(quán)負(fù)責(zé)完成治理決策將是一個(gè)必然的趨勢(shì),而在這樣的未來世界圖景中,人類的政治形態(tài)必將相應(yīng)地發(fā)生變革。史蒂芬·霍金、比爾·蓋茨和伊隆·馬斯克等人,近年一直在各種場(chǎng)合多次呼吁世人警惕人工智能的“軍備競(jìng)賽”,特別是要警惕軍用人工智能的研發(fā),認(rèn)為這有可能“喚出魔鬼”。應(yīng)當(dāng)說,除了研發(fā)殺人機(jī)器人外,在政治領(lǐng)域的很多方面(如競(jìng)選、投票、代議和立法等等),人工智能都可能開啟潘多拉的魔盒,在解決問題的同時(shí)又給人類社會(huì)帶來諸多前所未有的新問題。我們目前正站在一個(gè)十字路口,探討政治領(lǐng)域中人工智能的身份角色和職責(zé)邊界,是思想界亟需完成的“時(shí)代課題”。
觀點(diǎn)闡釋
張乾友
人工智能的發(fā)展是人類社會(huì)的一場(chǎng)試驗(yàn)。這種試驗(yàn)的目的,一是去看一種被視為具有革命潛力的技術(shù)本身能夠進(jìn)化到何種程度,二是去看這種技術(shù)對(duì)于社會(huì)到底會(huì)產(chǎn)生何種程度的影響。之所以說是試驗(yàn),而不是探索,是因?yàn)槿斯ぶ悄軐?duì)于我們并不完全是未知的。經(jīng)歷過歷次重大技術(shù)變革之后,對(duì)于抽象意義上的技術(shù)發(fā)展邏輯與人工智能這種具體技術(shù)的存在性質(zhì),我們已經(jīng)有了相當(dāng)程度的認(rèn)識(shí),但對(duì)于它的實(shí)際發(fā)展?jié)摿Γ覀儾]有確切的判斷。同樣,在當(dāng)前人類的政治想象中,我們已經(jīng)為人工智能技術(shù)預(yù)留了相當(dāng)大的作用空間,但同樣不確定的是,我們不知道人工智能技術(shù)是會(huì)沿著我們預(yù)留的空間發(fā)展,還是會(huì)突破這一空間。在某種意義上,政治是一個(gè)規(guī)范體系,通過這一規(guī)范體系,社會(huì)可以解決自身面對(duì)的許多問題。但任何規(guī)范體系都有它解決不了的問題,而且政治本身具有極大的惰性,非常難以從內(nèi)部產(chǎn)生變革的動(dòng)力,在這種情況下,我們希望技術(shù)變革能夠?yàn)檎巫兏锾峁┩苿?dòng)力,讓規(guī)范體系能夠保持自我完善的可能性,讓我們能夠以政治的方式來解決更多問題,來更好地解決這些問題。
在這里,我們相信政治有它自己的價(jià)值和邏輯,保護(hù)政治的價(jià)值和保護(hù)解決問題的政治邏輯。但同時(shí),過去幾十年來,科學(xué)技術(shù)與管理技術(shù)的許多變革已經(jīng)呈現(xiàn)出了否定政治價(jià)值和用技術(shù)邏輯取代政治邏輯的傾向,尤其是,人工智能似乎意味著人的政治判斷可能讓位于技術(shù)判斷,意味著尋求最優(yōu)解的技術(shù)邏輯可能讓作為一種規(guī)范性思維的政治邏輯無從立足,從而取消政治存在的前提。對(duì)政治理論來說,對(duì)這種挑戰(zhàn)的回應(yīng),一方面涉及如何在新的技術(shù)條件下重新證成政治的價(jià)值,另一方面涉及如何在新的技術(shù)性價(jià)值與傳統(tǒng)政治價(jià)值之間尋得平衡,以重新設(shè)計(jì)政治這一規(guī)范體系。
張雪帆
人工智能的進(jìn)步毋庸置疑地對(duì)整個(gè)社會(huì)的政治行為和政治想象產(chǎn)生巨大的沖擊。很多時(shí)候?qū)τ谶@樣的新鮮事物,我們很難簡(jiǎn)單斷言是好是壞,但對(duì)其投以關(guān)注是一種應(yīng)該的態(tài)度。我在美國(guó)的時(shí)候曾經(jīng)和Dr. Catlaw參加了 The Quantified Self的Arizona區(qū)的研究。在那時(shí)起,我就發(fā)現(xiàn)信息技術(shù)的進(jìn)步在政治生活中透射出兩種矛盾的意向:
一方面,隨著信息處理能力的提升,我們看到了泰勒主義的回歸。這種觀點(diǎn)最口語化的表述就是“別瞎操心,讓專業(yè)的來”。我們不需要每位乘客都明白航空工程的原理,但只要政府組織過專家進(jìn)行論證,設(shè)立標(biāo)準(zhǔn),安排檢測(cè),沒有任何航空工程知識(shí)的老百姓都可以放心地坐上飛機(jī),享受航空公司的服務(wù)。與之同理,在公共行政事務(wù)之中,隨著信息技術(shù)的進(jìn)步,痕跡數(shù)據(jù)的挖掘,許多信息處理行業(yè)已經(jīng)采取針對(duì)性的投送服務(wù)。在這樣的情況下,如果專家比人民更知道公共管理的最優(yōu)法(one best way),通過大數(shù)據(jù)信息挖掘可以知道公民的偏好習(xí)慣,那么我們?cè)S多基于傳統(tǒng)社會(huì)契約的代表性假設(shè)都將失去意義。可以說,隨著專業(yè)術(shù)語、專業(yè)知識(shí)的強(qiáng)勢(shì),人工智能的工具性應(yīng)用,公民進(jìn)入過程控制的門檻大大提升了。
但另一方面,信息技術(shù)的進(jìn)步使得數(shù)據(jù)的制作簡(jiǎn)易化,這使得普通人獲取整理數(shù)據(jù)、并用科學(xué)語言表達(dá)自身、定義公共議題的門檻大為降低。例如傳統(tǒng)測(cè)心率需要到醫(yī)院照心電圖,后來技術(shù)進(jìn)步使得24小時(shí)動(dòng)態(tài)心電圖成為可能,再后來甚至智能手環(huán)都可以開始統(tǒng)計(jì)個(gè)人的心率數(shù)據(jù)。這種數(shù)字生產(chǎn)的個(gè)人化,使得數(shù)據(jù)不再壟斷在專門機(jī)構(gòu)專家手上,大量數(shù)據(jù)可以由公民生產(chǎn),可以被公民定義。這種情況下,政治更加回歸到福柯所謂的“governmentality”的意涵上。
因此,人工智能時(shí)代,數(shù)據(jù)處理的高門檻和數(shù)據(jù)生成的低門檻這組矛盾將不斷碰撞,究竟何為公共領(lǐng)域,怎樣才是政府邊界等問題將變得越來越超出傳統(tǒng)的框架之外。矛盾終會(huì)形成超越。
賈開
“助手”還是“主人”這樣的二分法更有可能是AI在現(xiàn)代政治生活中所將扮演角色的兩個(gè)極端,其是整個(gè)頻譜上的兩個(gè)端點(diǎn)。比如在有關(guān)AI倫理的討論中,阿西莫夫機(jī)器人三原則、EPSRC(英國(guó)國(guó)家工程和物理科學(xué)研究委員會(huì))起草的機(jī)器人準(zhǔn)則都將機(jī)器視為產(chǎn)品或工具。在這種視角下,AI將被框定(以及限制)為既定現(xiàn)代政治生活框架內(nèi)(法律和技術(shù)標(biāo)準(zhǔn)范圍內(nèi))的人類產(chǎn)物。很明顯的,這種倫理視角束縛了AI本身可能推動(dòng)人類社會(huì)進(jìn)步的潛力,而其到底在多大程度上能夠?qū)崿F(xiàn),也是一個(gè)未知數(shù)。或許正因?yàn)榇耍ò⑾B羼R、IEEE、USACM在內(nèi)的諸多機(jī)構(gòu)(或會(huì)議)所提出的AI的倫理原則,更多的是將AI視為法律意義上的責(zé)任主體,從而在此視角下探究對(duì)其進(jìn)行規(guī)制的政策路徑。對(duì)于后者而言,其已經(jīng)開始想象AI作為“主人”的未來可能性,例如阿西洛馬23條軍規(guī)即明確提出了對(duì)于超級(jí)AI研發(fā)的擔(dān)憂。不過盡管如此,對(duì)于AI作為“主人”的想象,更有可能還是精英階層在自覺或不自覺中所創(chuàng)造的“理論對(duì)話”,其與人類現(xiàn)代政治生活的緊密程度,對(duì)于經(jīng)濟(jì)發(fā)展的貢獻(xiàn)程度,對(duì)于人類社會(huì)作為整體福利水平的改善程度,或許都相距甚遠(yuǎn)。《衛(wèi)報(bào)》對(duì)于阿西洛馬23條軍規(guī)的批評(píng)正來源于此,其認(rèn)為該倫理原則的起草主體過于封閉,過于關(guān)注“超級(jí)人工智能”的危險(xiǎn)而沒有注意到AI當(dāng)前發(fā)展對(duì)于普通人的影響。從這個(gè)角度講,當(dāng)我們?cè)谟懻撨h(yuǎn)景時(shí),“助手”和“主人”的分野或許是有益的;但當(dāng)我們?cè)谟懻摻诨蛑衅诘恼哌x擇時(shí),或許更應(yīng)關(guān)注的是在這兩個(gè)端點(diǎn)之間的豐富頻譜,而非跳過這個(gè)過程而直達(dá)端點(diǎn)。
質(zhì)詢與回應(yīng)
TO張乾友老師:
請(qǐng)問張老師,在人工智能時(shí)代,政治價(jià)值是否會(huì)發(fā)生改變呢?如果會(huì)改變,政治價(jià)值可能會(huì)納入哪些新的元素?
張乾友
在人工智能時(shí)代,政治價(jià)值一定會(huì)發(fā)生改變。
政治理論關(guān)于政治的界定一直包含著認(rèn)知性的維度,人獨(dú)特的認(rèn)知能力是人作為“政治動(dòng)物”的前提之一,進(jìn)而,政治建構(gòu)才能圍繞著人的價(jià)值而展開。現(xiàn)在,人工智能正在挑戰(zhàn)人的認(rèn)知獨(dú)特性,而且,從已有的一些發(fā)展來看,人工智能在認(rèn)知層面上超越人本身,似乎只是一個(gè)時(shí)間問題,那么,人是否還有能力基于自己的價(jià)值來建構(gòu)政治就是存疑的。當(dāng)然,政治理論關(guān)于政治的界定還有規(guī)范性的維度,對(duì)這一維度主張,政治本質(zhì)上是一項(xiàng)道德事業(yè),是道德推理的一種實(shí)踐模式。因此,人的道德存在就構(gòu)成了政治的價(jià)值基礎(chǔ),構(gòu)成了人主張政治“主權(quán)”的依據(jù)。人工智能不是一種道德存在,但它可能學(xué)會(huì)道德推理。
從一個(gè)方面來看,這意味著人工智能即使在既有的政治模式下也可能提出很有說服力的競(jìng)爭(zhēng)性價(jià)值主張;從另一個(gè)方面來看,這意味著價(jià)值證成可以成為人與人工智能尋求積極對(duì)話的一種方式。我們接受什么樣的政治價(jià)值取決于道德推理和價(jià)值證成的過程。規(guī)范理論的一大成就是確立了某些人不能因?yàn)槠湔J(rèn)知優(yōu)越性而壟斷道德推理和主導(dǎo)價(jià)值證成的前提,在人工智能時(shí)代,這仍然是規(guī)范理論可以前行的方向。人工智能是文明的產(chǎn)物,也會(huì)重塑文明,而它能在何種程度上重塑文明,也取決于它所處的理論框架。
所以,我們當(dāng)前面臨的并不是會(huì)發(fā)生什么樣的改變、會(huì)產(chǎn)生什么樣的沖突的問題,而是我們能夠做出什么樣的努力,來產(chǎn)生我們想要的改變和避免我們不想要的沖突的問題。
TO張雪帆老師:
張老師的觀點(diǎn)最后濃縮為專業(yè)化的高門檻和數(shù)據(jù)生成的低門檻之間的矛盾,那么即便專業(yè)化也有可能技術(shù)失控,而且好樹也可能結(jié)出壞果子。所以,張老師立論的因果邏輯是什么?
張雪帆
其實(shí)我觀點(diǎn)最后的總結(jié)是AI帶來“數(shù)據(jù)處理的高門檻和數(shù)據(jù)生成的低門檻這組矛盾”。
所謂數(shù)據(jù)處理的高門檻就是說,我們現(xiàn)在的AI算法越來越復(fù)雜。大家不難想象一下,我們?cè)诳创呵飸?zhàn)國(guó)時(shí)期的政府管理書籍,其中對(duì)管理對(duì)象的數(shù)據(jù)處理基本僅限于簡(jiǎn)單運(yùn)算,到近代社會(huì)開始出現(xiàn)描述統(tǒng)計(jì)。在這樣的發(fā)展過程中,最初的數(shù)據(jù)處理是沒有任何教育門檻的,只要能數(shù)手指點(diǎn)數(shù)就能理解。到近代,只要有基礎(chǔ)教育都能理解百分?jǐn)?shù),平均數(shù)等的概念,就可以理解數(shù)據(jù)處理所帶來的意義。而當(dāng)機(jī)器學(xué)習(xí)盛行以后,又有多少人真的明白神經(jīng)網(wǎng)絡(luò)分析的算法結(jié)構(gòu)。當(dāng)百度算法告訴你,某條近路可能沒有另一條遠(yuǎn)路好走,因?yàn)槟悴皇煜さ臅r(shí)候,你真的明白他分析你不熟悉近路而繞路更好的數(shù)據(jù)邏輯么?其實(shí)絕大多數(shù)人是不知道的,這時(shí)只有變成一種盲目的選擇,我相信百度,或我不相信百度,而不是有理有據(jù)的相信。盲從是政治的最大隱憂。
但另一方面,春秋戰(zhàn)國(guó)時(shí)代的數(shù)據(jù)可以納入公共領(lǐng)域的統(tǒng)計(jì)是非常有限的,到了近代仍然是控制在官僚部門手中的,統(tǒng)計(jì)的口徑和數(shù)據(jù)來源所有都是統(tǒng)計(jì)部門決定。但AI技術(shù)大數(shù)據(jù)使得各種數(shù)據(jù)獲得變得方便,你我的日常痕跡都可以成為公共數(shù)據(jù)的一部分。未來產(chǎn)生數(shù)據(jù)的門檻會(huì)越來越低,這使得越來越多數(shù)據(jù)可能產(chǎn)生新的議題。議題設(shè)置的開放是政治最大的活水。
AI就是在盲從和開放中為我們帶來威脅和希望!
TO賈開老師:
請(qǐng)問關(guān)注兩個(gè)端點(diǎn)的豐富頻譜是指既不是助手也不是主人嗎?但實(shí)際上,近期人工智能依然在助手階段?而且人工智能發(fā)展如此快,說不定“明天”就有了一個(gè)全新的角色。因此我認(rèn)為更多要考慮未來發(fā)展,使其仍可控。
賈開
所謂關(guān)注頻譜中間部分,實(shí)際上是指,以不超越現(xiàn)有發(fā)展技術(shù)水平但又不過度限制技術(shù)發(fā)展可能性的態(tài)度,面對(duì)人工智能發(fā)展所可能引發(fā)的治理風(fēng)險(xiǎn)。
近期的人工智能發(fā)展,實(shí)際上已經(jīng)不能視之為“助手”。將人工智能視為“助手”的背后是將其視為“工具”的傾向,而這種“工具主義”思維一方面可能限制技術(shù)的發(fā)展,另一方面也可能將我們引入倫理困境。因?yàn)槿绻欢x為工具,那么人類便可以對(duì)人工智能進(jìn)行“壓迫”,可以命令、可以丟棄、可以損害;但反過來,我們期待的人工智能卻是具有感知、認(rèn)知、情感的實(shí)體存在。如果人類社會(huì)對(duì)于虐待動(dòng)物都不能接受的話,那么我們何以能接受對(duì)于人工智能的“虐待”?這便是阿西莫夫和EPSRC倫理原則所可能導(dǎo)致的困境。
就將其視為“主人”并因而對(duì)人工智能的發(fā)展充滿警惕的思想而言,類似于我們對(duì)于基因技術(shù)的警惕,是有所裨益的,比如在司法決策領(lǐng)域限制不透明的人工智能的使用、在軍事領(lǐng)域限制人工智能的使用,都是出自于這樣一種思維。不過就現(xiàn)在的技術(shù)發(fā)展水平以及未來可能路徑而言,對(duì)于人工智能作為“主人”的擔(dān)憂仍可能為時(shí)尚早。即使不討論技術(shù)發(fā)展的可能性,這種擔(dān)憂可能也同樣面臨認(rèn)知上的挑戰(zhàn)。事實(shí)上,對(duì)于“主人”的擔(dān)憂具有一個(gè)潛在假設(shè),即認(rèn)為“機(jī)器具有取代一切的潛力和可能性”,甚至包括人類的創(chuàng)意,乃至精神。然而,“精神”真的是可被計(jì)算的嗎?或者反過來講,人工智能也可以具有“精神”嗎?這一問題并非當(dāng)前才出現(xiàn)的新問題,長(zhǎng)久以來對(duì)于“精神”與“物理定律”的關(guān)系的討論都與此相關(guān),當(dāng)前人工智能的快速發(fā)展也并不能給予此問題以肯定的回答。從這個(gè)角度講,我們?nèi)匀豢赡懿槐匾謶诌@個(gè)未來“主人”是否會(huì)來臨,而更應(yīng)該擔(dān)心當(dāng)前人工智能的運(yùn)用及其影響。
學(xué)術(shù)爭(zhēng)鳴
張乾友
賈老師關(guān)于不能以工具主義的思維來看待人工智能發(fā)展的觀點(diǎn)很有啟發(fā)。比如人本主義,并不是說人是目的,其他都是工具,這其實(shí)是一種工具主義,而從工具主義出發(fā),所有存在物都可以成為工具,人和人也互為工具。從這個(gè)角度去看,人工智能的發(fā)展前景在很大程度上取決于我們能否超越工具主義這種根深蒂固的思維方式。我個(gè)人近期在試圖構(gòu)造一種道德分工論,其中也有把人和技術(shù)納入同一個(gè)規(guī)范框架的意圖。
雪帆兄提到大數(shù)據(jù)技術(shù)對(duì)偏好信息的整合,的確對(duì)傳統(tǒng)的代表性政治構(gòu)成了挑戰(zhàn)。如果代表制度的功能主要在于偏好的傳遞與聚合,那現(xiàn)在似乎不再需要代表了。不過,集體決策本身不僅是一個(gè)偏好聚合的問題,更重要的是價(jià)值判斷以及對(duì)價(jià)值分歧的解決。在這方面,代表制度可能仍是有價(jià)值的。不同價(jià)值主張?jiān)谛纬蓛?nèi)部共識(shí)和展開外部論辯的過程中總會(huì)產(chǎn)生代表性的陳述者,不過,這種陳述者的產(chǎn)生和選舉脫鉤倒是可能發(fā)生的,也可能帶來代表的去職業(yè)化和政治的進(jìn)一步平民化。當(dāng)然,前提是我們真的認(rèn)為政治的核心仍然是個(gè)體價(jià)值判斷的獨(dú)立性和在此基礎(chǔ)上對(duì)價(jià)值分歧的集體解決。
張雪帆
我會(huì)這么回應(yīng)乾友的問題:
其實(shí)乾友的回應(yīng)有個(gè)潛在預(yù)設(shè),價(jià)值判斷及對(duì)價(jià)值分歧的解決是不能假手于人的,而必須價(jià)值持有者自身表達(dá)和整合。只要在這個(gè)前提之下,乾友的論述就是合乎邏輯的。但問題是這個(gè)前提又為什么成立呢?這本身就值得我們深思。不管東馬西馬,全世界馬克思主義者都強(qiáng)調(diào)社會(huì)對(duì)人意識(shí)的塑造。當(dāng)我們不再把我們這些潛在假設(shè)視為理所當(dāng)然,而擺在臺(tái)面分析的時(shí)候,我們就能看到事情更深層次的另一面。我們是從哪里得到價(jià)值判斷不能假手于人這個(gè)觀念的?
當(dāng)我們思考這個(gè)問題的時(shí)候,我們一個(gè)很直覺的判斷就是因?yàn)閮r(jià)值判斷是我們每個(gè)人作為獨(dú)立思考個(gè)體存在的標(biāo)志,這太重要了所以無論怎樣我們不能委托出去,否則自主意識(shí)層面的“我”就不存在了。這種論述咋聽起來似乎有點(diǎn)道理,但一旦深究就會(huì)發(fā)現(xiàn),我們其實(shí)對(duì)很多看起來重要的東西也沒那么在意。例如,我們大部分人都不知道飛機(jī)的工業(yè)設(shè)計(jì)機(jī)理,但我們還是心安理得的坐上去了,甚至還會(huì)嘲笑那些說搞不懂狀況不敢坐飛機(jī)的老人家土氣不懂世面。我們連自己的命這么重要的東西都能假手于人,我們?yōu)樯毒瓦@么在意價(jià)值判斷呢?
更進(jìn)一步說,AI之所以是智能就在于他不僅是像傳統(tǒng)算法那樣展現(xiàn)數(shù)據(jù),而且他無時(shí)無刻不在幫你做價(jià)值判斷。例如,百度根據(jù)你的駕駛習(xí)慣判斷要去這個(gè)目的地,你繞路走熟路比你走近路要更好。這種對(duì)好壞優(yōu)劣的判斷是不是一種假手于人的價(jià)值判斷?如果當(dāng)人們?cè)诓皇煜I底層數(shù)據(jù)邏輯的情況下,就像相信飛機(jī)能飛一樣來相信AI做出的判斷,那今天會(huì)有人習(xí)慣于按照導(dǎo)航走,那么明天這些人會(huì)不會(huì)按照AI推薦的政策方針來行動(dòng)呢?到那一天會(huì)不會(huì),相信AI制定政策的人對(duì)那些不肯將價(jià)值判斷交于AI堅(jiān)持要自己做決定,即使因?yàn)橛邢蘩硇圆荒茏龀鲎罴褯Q策的人的嘲笑,會(huì)不會(huì)就像今天嘲笑不敢坐飛機(jī)的人一樣?
但話又說回來,其實(shí)AI之于政治很大程度上是舊瓶新酒,有其技術(shù)語言成為價(jià)值的一面,也有其輔助大家開放思想創(chuàng)設(shè)議題的一面,不斷涌現(xiàn)的新議題其實(shí)會(huì)抑制盲從的出現(xiàn),又會(huì)推進(jìn)獨(dú)立自主的感受表達(dá)和思考。AI的進(jìn)步不會(huì)是西瓦之爭(zhēng)這出歷史大劇的落幕,更可能是新高潮劇情的登場(chǎng)。
張乾友
雪帆講的是監(jiān)管制度的功能。當(dāng)監(jiān)管制度運(yùn)行良好時(shí),個(gè)體選擇信任制度,相信制度可以保障技術(shù)得到負(fù)責(zé)任的運(yùn)用。在這里,監(jiān)管制度設(shè)立與否、如何設(shè)立都是價(jià)值判斷的結(jié)果,相不相信制度也是一種價(jià)值判斷。這個(gè)過程中可能存在很多理性無知或默認(rèn)同意的情況,但并不意味著人們放棄了價(jià)值判斷。
張雪帆
這里其實(shí)不只是監(jiān)管,固然監(jiān)管是人們信任的必要條件,但不能反過來說有良好監(jiān)管就能有信任。其實(shí)這里的本質(zhì)是有多少的議題還在自己關(guān)心掌握之下。這引申出以下兩大問題。
1)就像鮑曼的經(jīng)典例子,一個(gè)人看著別人殺人會(huì)有生理的不適,及倫理的難以接受。但如果同樣的人是在軍工廠工作,他只會(huì)為自己工廠拿到大訂單而歡欣鼓舞,卻不會(huì)管他生產(chǎn)的武器在非洲殺了多少人。他也不會(huì)覺得自己在規(guī)范價(jià)值上有什么缺損。制度很多時(shí)候是無形的塑造,而不是給你提供選擇。當(dāng)你還在思考我要相信或者不要相信的時(shí)候,其實(shí)并沒有太大的問題。真正的問題在于大量的人已經(jīng)不去思考,很放心的按照約定俗成的方式交給專業(yè)的人士處理。今天已經(jīng)有大家越來越習(xí)慣讓AI根據(jù)實(shí)時(shí)路況尋找駕車路線取代自己看地圖規(guī)劃,那距離讓AI根據(jù)實(shí)時(shí)社會(huì)情況尋找政治路線又有多遠(yuǎn),中間究竟有什么邏輯可以讓人們據(jù)此判斷究竟什么改變是可以接受的,什么改變是不能接受的?
2)即使我們?cè)趯ふ疫@個(gè)公共規(guī)范價(jià)值的錨定點(diǎn)上有長(zhǎng)足的進(jìn)步。由于未來大量的價(jià)值判斷會(huì)要通過算法的形式才能表達(dá),這其實(shí)等于重塑了公共行政的語言,即各種概念本體關(guān)系的表達(dá)形式。很大程度個(gè)人生活中價(jià)值判斷的工作聚集在了懂AI底層語言的工程師手上,這就是數(shù)據(jù)處理的高門檻。而且新語言對(duì)舊語言的沖擊,以及相互間的制衡都會(huì)成為重要的一環(huán)。
所以結(jié)論是,我們沒法斷言人民會(huì)或者不會(huì)放棄自己的價(jià)值判斷,這取決于人民對(duì)于新技術(shù)的變化方向是否有足夠的慎思或警覺。
張乾友
技術(shù)會(huì)規(guī)訓(xùn)行為,這是規(guī)范理論在思考制度設(shè)計(jì)時(shí)必須考慮的一點(diǎn),但規(guī)范理論不應(yīng)把行為的可規(guī)訓(xùn)性作為不可避免的前提。制度應(yīng)該是在規(guī)范行為,包括對(duì)技術(shù)的應(yīng)用空間提供規(guī)范性框架,由此規(guī)范行為。這涉及如何看待agency的問題,進(jìn)一步就是“助手”還是“主人”的問題,而這個(gè)問題目前應(yīng)該是想辦法打開探討空間,從不同角度提出新的問題。
賈開
感謝乾友老師和雪帆老師,受益匪淺,包括觀點(diǎn)和后續(xù)的評(píng)論。
乾友老師和雪帆老師從不同角度闡述了對(duì)于人工智能發(fā)展所可能引起“變化”的反思。這種“變化”并不必然為“好”,也不必然為“壞”,不過正如乾友老師所言,“當(dāng)前可能應(yīng)該打開探討空間,從不同角度提出新的問題”。
從我的理解來看,二位老師的關(guān)注點(diǎn)似乎是一致的,都是聚焦人工智能高度發(fā)展后,作為個(gè)體的人(以及作為整體的人類社會(huì))的主體性問題。從公共政策的角度來看,這些討論是很有必要且很有價(jià)值,可以做預(yù)先式的應(yīng)對(duì)與規(guī)范。
我想提出的另一個(gè)問題,則是技術(shù)可能性的問題,其又可細(xì)分為兩個(gè)問題:人工智能技術(shù)究竟在多大程度上能夠在功能上取代人類?人工智能技術(shù)的發(fā)展,是否具有其獨(dú)立的技術(shù)邏輯抑或也仍然是嵌入在人類社會(huì)之中?
事實(shí)上,大家所周知的,這一輪人工智能的浪潮是建立在“大數(shù)據(jù)+機(jī)器”學(xué)習(xí)的基礎(chǔ)上,其應(yīng)用環(huán)境仍然存在較大局限性。盡管當(dāng)前仍然存在其他人工智能技術(shù)的發(fā)展路徑,但潛在能體現(xiàn)出較大突破的技術(shù)路徑卻仍然屈指可數(shù)。另一方面,人工智能技術(shù)的發(fā)展并非脫離于我們本身的社會(huì)環(huán)境,而更可能是嵌入其中,甚至是強(qiáng)化、放大當(dāng)前社會(huì)的既有結(jié)構(gòu)(或矛盾)。從這個(gè)意義上講,技術(shù)的規(guī)訓(xùn)性本身也存在反過來的受到社會(huì)影響的機(jī)制。
以上問題并未直接回應(yīng)乾友老師和雪帆老師提出的思考,我想更多是作為補(bǔ)充。最后,我想再補(bǔ)充一下對(duì)于不確定性的認(rèn)識(shí)。實(shí)際上,對(duì)于人工智能的未來發(fā)展,完全的樂觀和徹底的悲觀似乎都仍然過于“確定”。承認(rèn)并接受未來的不確定性,尤其是人類個(gè)體或整體在此過程中可能發(fā)揮作用的不確定性,我覺得可能同樣也是重要的。
學(xué)人點(diǎn)評(píng)
黃璜
感謝三位老師給我們帶來一場(chǎng)思想大餐,也感謝公眾號(hào)創(chuàng)造的這種微筆談的形式,讓我們可以細(xì)細(xì)琢磨三位的觀點(diǎn)。不敢說完全領(lǐng)會(huì)三位老師的思想,我僅能談一談自己對(duì)老師們的理解。在第一輪自述中,張乾友老師首先為我們指出了AI時(shí)代存在一種潛在的人類政治價(jià)值的危機(jī),張雪帆老師則鮮明地指出由AI帶來的數(shù)據(jù)處理與數(shù)據(jù)生成之間復(fù)雜性的不同所產(chǎn)生的某種“矛盾”,而賈開老師則認(rèn)為在未雨綢繆與杞人憂天之間應(yīng)當(dāng)存在一種相對(duì)更理性的現(xiàn)實(shí)選擇。在第二輪答問中,乾友老師進(jìn)一步延伸了在政治價(jià)值維度上的討論,而雪帆老師關(guān)于人類會(huì)不會(huì)按照AI推薦的政策來行動(dòng)的論述,和乾友老師提出的人的政治判斷可能讓位于尋求最優(yōu)解的技術(shù)判斷,在我看來是一致的。雪帆老師類比了對(duì)專家(技術(shù))系統(tǒng)的信任,由此懷疑AI時(shí)代所謂代表性假設(shè)的前途,不過乾友老師對(duì)此似乎又并不悲觀。賈開老師則緊扣主題,在他看來所謂“主人”一說尚無技術(shù)可行性的依據(jù)。不過三位老師的共同觀點(diǎn)在于,應(yīng)當(dāng)打開研討的空間,擴(kuò)大研討的議題,可能才是真正解決問題之道。
再簡(jiǎn)單談幾點(diǎn)我個(gè)人的想法。首先,人工智能的話題在西方國(guó)家經(jīng)久不衰,有著其哲學(xué)和科學(xué)的雙重背景,而國(guó)內(nèi)原先主要在認(rèn)知科學(xué)領(lǐng)域里面討論,是一個(gè)小眾話題。這些年應(yīng)該是在阿爾法狗戰(zhàn)勝柯潔之后火了起來。議題有三個(gè)方面,樂觀主義的,悲觀主義或懷疑主義的,和現(xiàn)實(shí)主義的。悲觀主義或懷疑主義,無論AI是否在不久將來出現(xiàn)飛躍以達(dá)到“強(qiáng)AI”,大概都是對(duì)AI超出人類能力的擔(dān)憂甚至恐慌。如果執(zhí)著于想象,那么不如推及到一個(gè)極端,即AI可能演變成無所不會(huì)的新物種,人類在AI面前就像在“神”的面前一樣卑微如塵,如電影《黑客帝國(guó)》所展現(xiàn)的,那么無論是認(rèn)知層面還是規(guī)范層面似乎都沒有討論的必要了,或者說所有基于人的本位的討論便也沒有意義了。樂觀主義可能更多具有技術(shù)的和產(chǎn)業(yè)的背景,不過一些觀點(diǎn)也是有啟發(fā)的,比如說可能的一個(gè)方向是人與AI的結(jié)合。人會(huì)用AI來武裝自己,而不是簡(jiǎn)單的制造出一個(gè)對(duì)立物。或者說,人既然可以制造出自己的一個(gè)壓迫者,是不是也可以再制造出一個(gè)解放者呢?
其次,與其說是數(shù)據(jù)處理和生成的門檻之間存在矛盾,不如說因?yàn)閿?shù)據(jù)集聚所形成的不平衡。算法其實(shí)并不神秘,現(xiàn)有的基礎(chǔ)算法都是歷經(jīng)多年,我們不能假設(shè)所有的技術(shù)人員都只愿意把算法保留在少數(shù)人手上,而不愿意變得更加市場(chǎng)化。另一方面,即使我把算法交給你,對(duì)你可能也沒什么用,因?yàn)槟憧赡艹俗约旱臄?shù)據(jù),以及你能夠獲得的那些其實(shí)大家都能獲得的數(shù)據(jù)之外,并沒有更多數(shù)據(jù)來使用這些算法。這個(gè)命題似乎和AI并沒有直接聯(lián)系,不是AI的發(fā)展所帶來的,相反是因?yàn)閿?shù)據(jù)資源和計(jì)算資源的集中才推動(dòng)了這一波AI能夠擺脫舊的范式而獲得快速發(fā)展。
再次,強(qiáng)AI未必強(qiáng),弱AI未必弱。AI的主體性這個(gè)問題其實(shí)國(guó)外理論界在幾十年前就有很多討論,我們看到很多比較早期電影所描述的,盡管是科幻,背后是當(dāng)時(shí)社會(huì)對(duì)AI的思考。我們現(xiàn)在要做的工作,可能不是辨析“主人”還是“助手”。AI即使永遠(yuǎn)不會(huì)發(fā)展到具有某種主體性,也可能對(duì)現(xiàn)有國(guó)際政治、軍事和文化產(chǎn)生重大影響。在現(xiàn)有技術(shù)條件下,可能討論如何認(rèn)識(shí)這種可能性,并且對(duì)其中可能負(fù)面的問題做出戰(zhàn)略和政策的設(shè)計(jì)會(huì)更為現(xiàn)實(shí)。
主持人總結(jié)
柳亦博
感謝乾友、雪帆和賈開老師的精彩發(fā)言,感謝黃老師的點(diǎn)睛之評(píng)。在群里籌劃論壇時(shí),看到嘉賓們深度的、高質(zhì)量的思想交流與觀點(diǎn)碰撞,我就知道這次找對(duì)人了。作為主持人,關(guān)于本期論壇的主題我想再啰嗦兩句。其實(shí),我在與周媛同學(xué)商量這一期的主題時(shí),想到了從人工智能的一個(gè)身份角色入手,給出它在人類政治生活中可能扮演角色譜系的兩端,即通過掌握信息實(shí)際控制了我們生活的“主人”,與被人類設(shè)計(jì)出來任勞任怨忠實(shí)可信的“奴隸”。但是,作為“奴隸”存在、附屬于人的“人工智奴”(吳冠軍老師語),只會(huì)被人視為一種自動(dòng)工具而充當(dāng)戰(zhàn)爭(zhēng)或娛樂的消耗品,不會(huì)把人工智慧體視為與人具有同樣主體性的存在,更不會(huì)發(fā)展出一種健康的人機(jī)倫理,所以我們?cè)陬}目中最終見到的是“主人”與“助手”這兩個(gè)身份,而其中無疑透露出“如何避免人工智能成為我們生活的主人”的追問。從三位嘉賓與點(diǎn)評(píng)人的觀點(diǎn)闡釋中,對(duì)這個(gè)問題的剖析真的是讓我拍案叫絕。
同時(shí),我們?cè)谫x予人工智能“一個(gè)身份角色”時(shí),往往關(guān)注的是“角色”以及與此對(duì)應(yīng)的身份倫理,而忽略了其中的“一個(gè)”——為什么未來人工智能在政治領(lǐng)域只能扮演一個(gè)身份?為什么不會(huì)有多個(gè)版本的人工智能同時(shí)存在?是我們默認(rèn)了人工智能的開發(fā)應(yīng)該由公共部門壟斷,還是在競(jìng)爭(zhēng)中終將有一款最高效的算法脫穎而出?由此引發(fā)一個(gè)追問,最高效的算法就一定是善的算法嗎?認(rèn)識(shí)自我無疑是哲學(xué)探索的最高目標(biāo)(恩斯特·卡西爾語),這也導(dǎo)致了哲學(xué)的分叉——認(rèn)識(shí)論的差異造就了哲學(xué)思想的不同,因而哲學(xué)、倫理學(xué)觀點(diǎn)都是非常私人化的東西,只有在最基礎(chǔ)、最底限的部分是收斂的,越往高處延伸就會(huì)越發(fā)散。明白了這一點(diǎn),再去看“恥于自己的不道德,這是梯子上的一級(jí),而在梯子的頂端,人們將恥于自己的道德”(尼采語)這句話時(shí)會(huì)有不一樣的理解。
既然我們能夠欣然接受哲學(xué)與倫理學(xué)的分叉(趙汀陽老師語),為什么不能接受人工智能算法的分叉?也許是因?yàn)槲覀兘邮懿涣四愕闹悄芄芗冶任业母糜谩D敲矗?strong>我們是不是在內(nèi)心深處根本沒有將人工智能視為“智慧體”而只是“人工造物”?畢竟沒有人會(huì)因?yàn)樽约旱氖謾C(jī)電量耗盡而心生愧疚,但一般都會(huì)因?yàn)樽约海ㄩg接)害死了他人而寢食難安。人類是不是一直就沒能學(xué)會(huì)如何與另一個(gè)智慧體平等相處?恐怕是的,15世紀(jì)以來的歷史已經(jīng)無數(shù)次的給出了答案。如果人工智能成為“超人工智能”,它會(huì)成為取代人類的更高級(jí)生命嗎?這些看似遙遠(yuǎn)的問題絕非沒有意義,因?yàn)椋瑢?duì)于人類而言,技術(shù)總是來得太快而哲思總是來得太遲。讓機(jī)器選出最優(yōu)方案只需要給它數(shù)據(jù)與算法,而讓機(jī)器心生憐憫、敬佩或恐懼,則需要我們?cè)诹硪粭l路上持續(xù)探索。希望本期論壇所生產(chǎn)的知識(shí),能夠成為點(diǎn)點(diǎn)熒光,與眾多研究一起照亮“人工智能”這個(gè)神秘的黑箱。最后,再次感謝黃璜老師、張乾友老師、張雪帆老師、賈開老師以及為本期論壇付出良多的周媛、張?zhí)m、羅一萍、賴鎮(zhèn)桃同學(xué),感謝之情拳拳,排名無分先后。
文末彩蛋
柳亦博、張乾友和張雪帆老師(從左往右)
拍攝于:蘭州大學(xué)110周年校慶年系列活動(dòng)——2018中國(guó)公共管理學(xué)術(shù)年會(huì)暨第四屆公共管理青年學(xué)者論壇
聯(lián)系客服