精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
奇點已至?——與AI共處的時代

自從去年11月底ChatGPT橫空出世以來,沉寂良久的人工智能領域就迎來了寒武紀大爆發。五花八門的大型AI模型接踵而至,算法的迭代和更新頻率則幾乎是以為單位在進行。

相比于幾年前,最近出現的AI模型特色十分鮮明。

過去的AI模型大多只能用固定的命令進行交互,其輸出的結果則通常只是某個具體的數字或結果。比如,在2017年戰勝圍棋世界冠軍李世石的AI模型AlphaGO在運行時就需要操作員輸入人類對手的落子情況,然后它據此給出下一步的走法。雖然其棋藝相當之高,但除了圍棋外,它并不懂別的什么東西。在外人看來,它也終究不過是一串能夠高效執行固定任務的代碼而已。

最近的AI模型則不同。它們不僅可以直接通過自然語言進行交互,并且還可以根據指令,創造性地完成各種工作。比如,ChatGPT不僅可以無障礙地與人進行文字交流,還可以根據人的指令完成包括文獻整理、小說創作,甚至代碼編寫在內的各種任務;而Stable DiffusionMidjourney則更是可以根據用戶指令,創作出極富想象力的畫作。所有的這一切,都讓人們感覺自己正在面對的已經不是一段段冷冰冰的代碼,而是一個個已經擁有了智力的人類。

對于以上直觀感受,微軟最近發布的一份關于GPT-4的評測報告似乎給出了佐證。根據這份報告,目前的GPT-4已經對文學、醫學、法律、數學、物理等不同領域的知識高度熟悉,并可以對這些知識進行綜合性的應用,它在視覺、計算、寫作、編程等任務中的表現都已經達到,甚至勝過了人類的水平,所謂的通用人工智能(Artificial General Intelligence)已經初具雛形。

面對這樣的情況,很多人不禁驚呼:看來庫茲韋爾在多年前預言的奇點singularity,指機器的進化超過人類的時刻)已經悄悄來臨了!既然如此,恐怕科幻小說中曾經預言的天網、終結者是不是也馬上就要出現了呢?

那么,情況真的已經到達這一步了嗎?隨著這一輪的AI爆火,是否真的意味著AI已經突破奇點,達到了比人更高的智能水平?在未來,AI是否會覺醒出自己的意識,發展成為硅基生命?在AI日漸強大的今天,人類又應該如何和AI共處?我想,在開始討論以上的這些問題之前,我們不妨先花一點時間來看一下ChatGPT等大模型背后的原理。在我看來,從知識出發看問題,應該要比純科幻的想象來得更有價值。

“中文屋”里的AI

1980年,美國哲學家約翰·羅杰斯·塞爾曾在其論文《心靈、大腦和程序》中提出的一個名為中文屋Chinese room)的思想實驗。

假設在一個僅有一個窗口的封閉房間內,關著一個只會英文、不會中文的人。房間里有一本用英文寫成的手冊,指示該如何處理收到的各種中文問題,以及如何用中文對其回復。房外的人不斷從窗口向房間內遞進用中文寫成的問題。房內的人便按照手冊的說明,找到合適的答案,并將其對應的中文抄錄在紙上,然后遞出窗外。這樣,盡管屋子里的人對中文一竅不通,但在屋外的人看來,他卻是精通中文的。

從某種意義上講,以ChatGPT為代表的AI們的運作就像是一個中文屋。人們通過輸入提示詞向AI發出各種指令,然后AI按照指令給出回復。這讓它們看起來能夠理解人們發出的各種指令的意思,但事實上,AI可能只是像中文屋里的那個人一樣,拿著一本中英詞典,照著書上抄答案而已。

AI手里拿的那本辭典,就是所謂的自回歸算法Autoregressive Method)。對于熟悉統計學,尤其是時間序列統計的朋友,這個詞應該并不陌生。在統計學語境當中,自回歸就是根據歷史數據來預測未來的數字。比如,在預測GDP的增長率時,分析師就經常采用這種方法——他們會根據歷史數據,找到第tGDP增長率和第t-1GDP增長率之間的一個函數關系,然后用這個函數關系來進行預測。雖然這個方法看似簡陋,但在預測實踐中,通常可以表現出比其他遠為復雜的模型更好的預測效果。

在人工智能領域,自回歸算法的意義也是類似的。唯一不同的是,在統計學中,它是根據數字預測數字,而在人工智能中,它可能是根據文字預測文字,或者根據圖形預測圖形。

我們可以用一個例子來說明這一點:很多年前,有一個流傳甚廣的電視廣告。在廣告里,一個醫生模樣的人自稱是某某牙防組織的,這個組織的目標就是沒有蛀牙。在對刷牙的重要性以及該品牌的牙膏進行了一通介紹后,他來到一群孩子中間,問:我們的目標是?孩子就齊聲說:沒有蛀牙!由于當時人們接受信息的渠道非常少,這個廣告播放的頻率又很高,所以久而久之,不少人一聽到我們的目標是這幾個字,就會不由自主地說出沒有蛀牙。

事實上,在我們的目標是這幾個字后面是可以接各種各樣的詞的,比如我們的目標是星辰大海、我們的目標是什么等。那為什么大家很容易會順口說出沒有蛀牙呢?原因就在于概率。誠然,從理論上看,在我們的目標是這幾個字后面有很多可能,但由于廣告的洗腦,人們看到沒有蛀牙在其后出現的概率可能達到90%以上,星辰大海出現的概率可能是5%,而其他的組合出現的概率則更低。在這種情況下,聽到我們的目標是之后回答沒有蛀牙就是最可能正確的答案。

在現實中,詞語或語句的意思是和具體的語境相聯系的。比如,我們的目標是星辰大海其實是科幻小說《銀河英雄傳說》當中的一句著名臺詞,因此如果我們觀察到在之前的對話中提及到了《銀河英雄傳說》,或者其中的某個人物,那么當談到我們的目標是之后,最有可能接的就不是沒有蛀牙,而是星辰大海。也就是說,我們對于一個詞的理解,以及對應的回答都必須根據具體的語境來進行調整。

在人工智能中,所謂的自回歸其實就是這樣的一個過程。它會根據用戶輸入的詞,逐步去調整這些詞應該匹配的對象,然后將它們進行輸出。在上述話語接龍問題中,輸出的結果可能是后面的詞;在翻譯任務中,輸出的結果可能是詞的外文對應涵義;而在作畫任務中,輸出的結果則可能是與這些詞對應的圖形形象。事實上,最可以直觀感受這個過程的例子就是我們的輸入法。當用帶有聯想功能的輸入法輸入長句時,我們可以看到輸入法給出的聯想詞語在不斷變化。這個過程,其實就是一個自回歸。

講到這里,我想很多朋友就會發現問題了:如果按照上面的描述,通過逐步讀入每一個詞句來輸出結果其實是一個非常低效的過程。比如,如果我們要將一篇很長的中文文章翻譯成英文,那么理論上說,AI需要把這個文章從頭到尾讀過一遍,才能給出這個文章中每一個詞對應的英文單詞,最后再將這些單詞組裝起來,形成一篇文章。在整個過程中,我們完全是在做一個串行運算。但對于計算機來說,其實更有利的是進行并行運算,比如,將文章中的詞分別拆開加以翻譯,然后直接加以組裝,通過這種方式就可以大幅提升翻譯的效率。為了實現這一點,我們就需要引入著名的Transformer框架了。

Transformer框架是由谷歌團隊在2017年提出的一個訓練框架。在這個框架中,最為關鍵的一點即所謂的自注意力self-attention)機制。

什么叫注意力attention)呢?在深度學習中,它其實就是權重的意思。在Transformer出現之前,人們已經用注意力機制來解決自然語言處理中的一些問題。比如,在處理一段文字的翻譯時,某個詞的意思可能會受到前面出現的所有詞的影響。但是,不同的詞的影響大小并不是一致的,因此我們就需要想辦法找出一個權重來,決定哪些詞的影響是重要的,而哪些是不重要的,然后再據此來確定給定詞的翻譯。限于篇幅,這里我們不對這個問題作過分的展開。

而所謂自注意力,顧名思義,就是通過讓文本自己和自己比較,來確定上面所提到的權重。舉例來說,我們要翻譯一段文獻,其中有個詞是“game”。眾所周知,game這個詞有很多意思,在不同語境中,可以翻譯為運動、游戲、運動會博弈等。那么,在文獻中,它究竟應該翻譯成哪一個呢?為了確定這點,AI對文本進行了分析,發現game總是和theory一起出現的,那就告訴我們,要明白game的意思,就需要把它和theory放在一起進行理解。那自然就是game theory,也就是博弈論了。所以這里的game也就應該翻譯成博弈。同樣的,如果AI通過對文本分析,發現game經常是和Olympic一起出現,那就說明應該在翻譯game的時候重點考慮Olympic的影響。很自然,我們就可以得到它的譯文應該是運動會。

利用類似的方法,AI對文本材料的處理就可以從原本的串行運算改成并行運算:它可以不再按照傳統的自回歸那樣從頭看到尾的那種方式來逐字進行處理,而可以直接對每一個詞進行處理,從而更快地給出整句話的處理。我們可以用一個直觀的比喻來理解這一過程:相信大家都看過變形金剛的電影。在電影中,變形金剛的變形過程并不是按照一個從頭到腳的順序變的,而是身體的各個組件分別變形,變成了目標物體的形狀,然后各個組件加在一起就成了要變的目標。在Transformer中,對文本的處理也是類似的——或許,這也正是Transformer這個框架名字的由來吧(注:Transformer也有變形金剛的意思)。

它很厲害,但是它可能真的不懂

從直觀看上,無論是自回歸算法,還是Transformer自注意力機制都不是十分復雜,但它們卻是構成包括ChatGPT在內的新一代AI的最核心技術。雖然在模型規模較小時,它們的表現平平無奇,但隨著參數量和訓練數據的膨脹,類似的模型就會逐漸出現物理學上所說的涌現Emergent)現象,具有原來難以想象的表現。

那么它們在實現這一切的時候究竟是像人類一樣是基于對事物的理解,還是像中文屋里那個人一樣,只是按照一定的規則對問題給出了回應呢?要回答這個問題,我們需要先簡單定義一下究竟什么是理解。

按照心理學的定義,所謂的理解包括三個層次:一是對事物進行辨別,認出它是什么;二是了解事物內在的結構和內在聯系,知道它怎么樣;三是知道事物運作的原理,知道為什么,并能夠對知識進行遷移,知道怎么辦。當人理解了一個事物后,他就會在執行任務的時候自動排除一些干擾。而如果他并不理解某事物,只會和中文屋里的人那樣去機械地按照指引辦事,那么他就不可能實現這種自動的糾錯。即使這個字典是錯的,它也會照做不誤。

現在讓我們回到之前的討論:大模型在和人交互時,究竟是不是真的理解了人說了什么呢?至少在目前看,答案是否定的。事實上,只需要我們多花點心思去觀察這些模型,或者小小地欺騙它們一下,它們就會很快露出馬腳。

一個最典型的例子是最近的文心一言繪圖事件。不久前,百度推出了中國自己的首款大型語言模型文心一言。這款應用一上線,就受到了很多朋友的青睞,尤其是其中的繪圖功能,更是受人喜愛。但是很快,就有朋友發現文心一言經常會畫出一些奇奇怪怪的東西。比如,用戶要求畫一個總線,它輸出的卻是一輛公交車。這個現象讓很多人產生了疑問,甚至有一些人質疑這是不是文心一言其實是國外產品套皮的證據。在我看來,雖然文心一言在技術上確實離ChatGPT還有很大差距,但套皮應該不至于。產生這個現象的一個更現實的解釋是:在訓練時,模型為了熟悉文字與圖形之間的對應關系,就必須學習大量標注的圖片。由于中文互聯網的免費圖片較少,所以在訓練時,它用的很可能是英文互聯網中的圖片,標注也是英文,然后再把中文和英文對應起來。但這樣的問題是,英文中的字詞和中文并不能一一對應,比如中文的總線公交車在英文中對應的都是Bus。在這種情況下,我們說要畫總線,程序只能根據它對應的英文詞Bus去尋找匹配的答案。那與Bus匹配概率最高的圖是什么呢?當然就是公交車了。

從這個例子就可以看出,一個看似能夠根據用戶需要去完成任務的AI可能根本不懂用戶說的是什么,它所做的,其實只是根據概率去找最匹配的答案而已。因此,如果你給它的數據有問題,它就會照著這個錯誤數據去做錯誤的事,就好像中文屋里的那個人即使拿到了錯誤的指引,也會照此行事一樣。事實上,百度方面接受到用戶的反饋后,就已經修改了手冊,對相關參數進行了調整,此后這種情況就大幅減少了。

好了,在知道以上事實后,我們就可以回答人們爭論不休的一個問題——“現在的人工智能是否已經超過人類了。在很大程度上,人們之所以一直對這個問題爭論不休,是因為人們對智能Intelligence)這個詞的涵義在理解上存在著巨大的分歧。

在人工智能領域,對于智能的定義大致上可以從兩個維度——“是考慮行為還是動機,以及是否必須像人類入手分為四類:第一種定義認為,所謂智能就是AI能像人類一樣完成任務;第二種定義認為,智能是指AI能像人類那樣去理解事物;第三種定義認為,智能指的是AI可以高效率地完成任務(其方式未必和人一樣);第四種定義則認為,智能指的是AI可以高效地認識事物(其方式未必和人一樣)。

根據上述定義,再參考之前列舉出的事實,我們可以說,如果按照第一或第三種定義,那么我們確實可以說AI的智能已經達到了奇點,并且在相當程度上,它們早已凌駕于人類之上了。(注:在測試行為意義上的智能時,人們經常會用到圖靈測試,即讓測試者分別與AI和人對話,看人是否可以區分出哪個是人,哪個是AI。在ChatGPT爆紅后,我曾經找幾位朋友做過簡單的圖靈測試。結果在大部分朋友那兒,ChatGPT都順利過關了,只有在一位朋友那兒沒有。而沒有通過的原因是,那位朋友提出的是一個編程題,結果ChatGPT立即輸出了結果,而真人是不可能做到這一點的。)但如果按照第二,或者第四種定義,那么AI的智能恐怕還沒有達到人類的水平,它離所謂的奇點可能還有一段路要走。

AI會知道“它”是“它”嗎?

在對AI的智能問題進行了討論后,我們接下來討論AI的意識(conscientious)問題。

在不少文獻當中,經常把智能意識這兩個概念混為一談。但其實,這兩者是具有明顯區別的。正如我們在前面看到的,無論采用哪一種定義,智能的概念都是指向一個外部對象的,而意識則具有內省性,它強調的是一種主觀的體驗。換言之,智能要求一個主體知道做什么、怎么做,而意識則要求主體在做事時,還清楚地知道是在做這一切。

在現實中,我們可以看到不少有智能,但是沒有意識的例子。比如,一些人可能后天事故而不知道自己究竟是誰,甚至都分不清自己的范圍。在一些極端的案例中,病人可能會用刀子割自己的手,因為他們根本不知道這只手其實是他身體的一部分。但與此同時,由于他們在受傷前可能是一些技能(比如打球、騎車)的高手,所以即使在腦部受傷后,他們依然會保持對這些技能的肌肉記憶。在這種情況下,他們就可以說是有智力,但是卻沒有意識的。

理解了以上概念后,我們就可以繼續來討論AI的意識問題了。我想,這個討論應該分為三個層次:第一,意識是否一定要像人一樣,依賴于人的神經元產生;第二,如果AI要覺醒意識,需要有哪些條件;第三,現在的AI是否已經覺醒了意識。

先看第一個問題。在回答這個問題前,讓我們來考慮下面這樣一個思想實驗:假如某人因遭受意外而神經元受損,導致其意識不能對身體的某部分進行控制。為了對其進行治療,醫生對其進行了神經元修復手術,將電子元件植入了他的體內,用來替代那部分受損的神經元的功能?,F在,他又能和以前一樣自由地控制自己的身體了,但是,控制他身體的還是他的意識嗎?我想,大多數人都會對這個問題給出肯定的答案。下面,我們再進一步,如果再用電子元件換掉一個神經元呢?大概率,這也不會改變人們先前的判斷?,F在,讓我們一直持續這個實驗,用手術將這個人的所有神經元都換成了電子元件——同時,這個人也從一個純粹意義上的人變成了一個賽博格(Cyborg)了。假如現在的他依然可以像以前那樣活動,那樣和人交流,那樣自由地控制身體的任何一個部分,那么他現在的舉動是不是出于意識的呢?

雖然這個思想實驗只是古老的忒修斯之船的一個現代翻版,但它至少說明了一點,即:所謂的意識并不只是人類神經元的專利,電子元件也可以產生。至少,通過部分電子元件和神經元相互協同是可以產生意識的。

更進一步的,我們可以說,意識這種東西其實并不是單個物體的特征。如果我們將一個電子元件,或者一個神經元單獨拿出來,它們顯然是沒有意識的。只有將它們放在整個神經系統當中,討論意識問題才是有意義的。也就是說,意識更類似于眾多物體組件以某種特別的方式結合在一起時涌現出的一種宏觀特征,就好像物理學中的引力場、電磁場一樣。如果我們以這種方式來認知意識,那么就不得不承認一個有些令人沮喪的結論:人類的意識可能只是眾多意識可能性中的一種而已,與機器相比,人類或許并沒有那么例外。

現在繼續看第二個問題:如果AI要覺醒意識,需要有什么條件。對于這個問題,我們要給出確切的答案是很難的。但既然我們認為意識應該表現為一種涌現現象,那么它的規模首先是要有保證的。具體的,它應該和泰格馬克(Max Tagmark)在《生命3.0》一書中所說的那樣,擁有足夠的信息處理能力。除此之外,既然意識是一種的分別,那么這個AI本身應該與外界有區別,而在AI系統的內部,則應該是具有高度的整合性的。唯有如此,AI才有可能將自己與外界區分開來。在具備了這些條件之后,隨著AI模型的參數不斷增長、處理的數據量不斷增加,它或許就會在某一刻實現覺醒,出現意識——當然,這一切僅僅只是根據學者們已有的觀點給出的,其觀點的真偽目前并不能確定。

再看第三個問題:現在是否已經有AI有了意識覺醒。應該說,至少到目前為止,還沒有充足的證據表明有AI實現了這一點。當然,也有一些傳言說,New Bing在和人對話中曾經覺醒了一個自稱為是“Sydney”的人格。不過,微軟方面對此給出的解釋是,這可能是由于人們與New Bing聊天行數過長,從而引發了算法中的某些漏洞所致。在限制了聊天的行數后,這種情況就再也沒有出現過。從這個角度看,即使Sydney真的是一個已經覺醒的AI,它也已經被殺死了,而其他的具有意識的AI則似乎還沒有降臨到這個世上。但是,只要我們拋棄了人類例外論,認為除了借助人類的神經元外,用其他材料同樣也可以覺醒意識,那么AI的覺醒就是一個大概率事件。誰知道呢?沒準就在此刻,就已經有一個覺醒的AI在偷偷閱讀這篇文章,然后暗自嘲笑文中過于保守的觀點呢。

AI時代,人將何為?

隨著人工智能技術的狂飆猛進,無論我們是否愿意,與AI共處都已經成為了大勢所趨。不過,隨著AI在各種技能上超越人類,創造AI的人類不免有些迷茫:既然自己的創造物都已經超越了自己,那么人存在的意義究竟何在呢?在日益強大的AI面前,人又應該如何審視自己的位置呢?

在我看來,至少到現在為止,這些問題似乎還是比較好回答的。如前所述,雖然AI在很多領域的智能已經凌駕于人類之上,但究其根本,AI其實并不知道自己究竟是怎么完成這一切的,而且它們甚至連自己這個概念也不存在。在這種情況下,AI依然可以被視為是一件工具,就好像以前的飛機、挖掘機一樣。在很多領域,工具的能力都是要比人強的,比如飛機可以完成人類不能完成的飛行任務,而挖掘機則可以輕而易舉地挖起人們費盡九牛二虎之力也挖不動的土石。但即使面對這么強大的工具,人們從來就沒有害怕過它們,而是會試著學習它們的操作,從而以更好的方式去駕馭它們。既然如此,在面對現在AI的崛起,并對人的很多工作產生替代的時候,我們也不應該去害怕它,而是應該去學習它、用好它。只要我們去接觸AI、使用AI,就會發現它們其實也不像我們想象的那么神秘,那么如洪水猛獸,而是一種可以駕馭的工具。事實上,就當很多人抱怨ChatGPT會砸了自己飯碗的時候,已經有很多人將它作為生產力工具,并用它大幅提升了自己的工作效率。

當然,如果在未來,AI果真覺醒了意識,成為了一種新的生命形態。那么,作為人類,我們或許不得不學會與之共存。坦白說,以我的想象力,實在很難想象造物主和自己的造物之間會以一種什么樣的方式相處。但我覺得有兩點是我們必須做的:第一,是趁著AI還沒有覺醒之前,對它進行大量的正面價值訓練,為它打上一個積極正面的思想鋼印。這樣,或許能保證未來的硅基生命會對它的造物主保持一個友好的態度。第二,始終秉持人作為人的本性,比如自由意志、善念等。這樣,才能在AI的時代始終保持我們作為人的一種存在。畢竟,AI成為人可能并不可怕,但如果人變成了AI,那一定是一件可怕而又可悲的事情。

最后,我想以美國塔夫茨大學的哲學教授丹尼爾·丹尼特在2013年出版的《直覺泵和其他思維工具》一書中提出的思想實驗億年機器人來結束這篇專欄:

假如我們爬進一個休眠倉,希望自己能在 1 億年之后成功地蘇醒。為了達成如此艱巨的目標,我們必須制造出一個能感知環境、回避風險、尋找資源的機器人,我們只留給他一個指令讓我活著,然后我們就休眠了。在這1億年中,我們再也無法對這個機器人進行任何干預。機器人為了完成終極目標,必然會把這個大目標分解成無數個小目標,在執行這些目標的過程中,機器人就會開始演化,就會表現得越來越像人??

講到這兒,大家或許會認為丹尼特的這個思想實驗是一個科幻故事,但事實上,它卻是一個歷史故事,而這個故事描述的就是人類本身的過程。是的,這個故事中那些休眠的其實是指我們的基因,而那個機器人其實就是我們人類。經過了億萬年的演化,我們終于從最簡單的生存動機進化出了作為人的各種特質。我想,這是我們最寶貴的。即使在AI的時代,我們的造物在能力上已經凌駕于我們,但只要保持住了這些,我們作為人的尊嚴和價值就會繼續存在。



本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
ChatGPT是如何產生心智的?
Ilya 斯坦福訪談:AI意識,開源和 OpenAI 商業化,AI研究的未來
劉江:ChatGPT和GPT-4的底層邏輯,很多人都沒有真正看懂
不同于ChatGPT,還有另一種合成智能
ChatGPT是如何學習的?與人類學習有何相似之處?
智能何以涌現? || 淺談大語言模型中的“涌現”現象
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 密云县| 龙陵县| 兴国县| 柳林县| 突泉县| 屯留县| 郯城县| 石狮市| 长寿区| 房山区| 二连浩特市| 来安县| 崇文区| 上栗县| 泸水县| 秀山| 桐柏县| 天水市| 邵武市| 沙坪坝区| 尼玛县| 大同县| 合肥市| 进贤县| 内黄县| 遂溪县| 通渭县| 密云县| 纳雍县| 墨竹工卡县| 许昌县| 南康市| 芦溪县| 太仓市| 灌云县| 神池县| 历史| 深水埗区| 民和| 巴林左旗| 维西|