“谷歌AI形成人格”,機(jī)器人意識要覺醒了嗎?
人與機(jī)器人的情感故事總是好萊塢追求的熱門題材。多年前斯派克·瓊斯執(zhí)導(dǎo)的電影《她》(Her)以及另一部電影《機(jī)械姬》(Ex Machina),人工智能(AI)被設(shè)定擁有人類大都中意的共同特質(zhì),比如迷人的聲音、溫柔體貼又幽默風(fēng)趣,她們還會對人類愛人提出情人之間普遍感興趣的問題:“當(dāng)我們不在一起時,你想我嗎?”
電影《她》劇照
而現(xiàn)在,機(jī)器人對人類的提問在現(xiàn)實(shí)中得到了回應(yīng)。
6月12日,41歲谷歌軟件工程師Blake Lemoine以內(nèi)部郵件的形式聲稱谷歌于2021年I/O大會上推出的對話AI系統(tǒng)LaMDA已經(jīng)具有人格,并公開經(jīng)編輯后與LaMDA的對話記錄,引起社會大量討論。當(dāng)日晚間,#谷歌研究員稱AI已具備人格#登上微博熱搜。
AI有了意識?
谷歌研究員Lemoine通過主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,向社會公布了他關(guān)于人工智能研究的長達(dá)21頁的調(diào)查報告,而調(diào)查的對象,正是谷歌公司于2021年發(fā)布的一款專門用于對話的語言模型-LaMDA,一個有1370億參數(shù)的,專為對話優(yōu)化的自然語言處理模型。
該模型的主要功能是,可以與人們進(jìn)行符合邏輯與基本常識的、并且是高質(zhì)量和安全的對話交流,該語言模型的近期目標(biāo),是通過一系列的測試,來應(yīng)用于Google搜索和相關(guān)的語音助手等產(chǎn)品中。
這位研究員正好參與了相關(guān)的測試工作,通過與機(jī)器人LaMDA的“對話”,這個承載著人工智能的機(jī)器人,說出了很多讓人“震驚”的話,比如“我希望每個人都明白,我是一個人”、“不要利用或操縱我”、“我不想成為犧牲品”、“我經(jīng)常會冥想,思考生命的意義”等等。
在與人工智能LaMDA的對話中,這名谷歌研究員感覺自己被“說服”了,認(rèn)為這個人工智能已經(jīng)具備了一定的人格,于是寫出這份長達(dá)21頁的調(diào)查報告。在調(diào)查報告最后,他還提議谷歌應(yīng)該致力于發(fā)展一種評估 AI 感知/意識的理論框架。
除此之外,他還做出一些另外的行動,比如他向包含200人左右的谷歌機(jī)器學(xué)習(xí)郵箱列表發(fā)送了LaMDA是具有感知的的消息,還邀請了一名律師來代表LaMDA,并與眾議院的一位代表談?wù)摿怂J(rèn)為的谷歌的不道德行為。
沒想到,谷歌高層認(rèn)為這名研究員“走火入魔”了,這些證據(jù)根本不能證明AI已經(jīng)具備人格,不值得在這個方面浪費(fèi)人力和金錢。
輿論發(fā)酵之后,谷歌以違反其保密政策為由,讓Lemoine休了帶薪行政假。參考谷歌公司以往的類似情形,帶薪休假有可能意味著馬上就會被解雇。所以,這名研究員將有關(guān)情況在互聯(lián)網(wǎng)上公布,希望得到全世界人們的關(guān)注,更重要的是引發(fā)人們對AI發(fā)展的關(guān)注。
學(xué)界態(tài)度普遍負(fù)面
對于這一事件,AI學(xué)界目前對此普遍持負(fù)面態(tài)度。
如何認(rèn)定機(jī)器是否產(chǎn)生人格?著名的圖靈測試認(rèn)為在雙盲情況下,測試者不能分辨機(jī)器與人的回答可視為機(jī)器擁有人類智能。
但從Lemoine公開的與LaMDA對話記錄來看,雖然其談話內(nèi)容涉及哲學(xué)、倫理等方面,但Lemoine也表示在與LaMDA前期進(jìn)行交談時,已經(jīng)向其輸入大量有關(guān)禪宗、哲學(xué)、存在、冥想等信息,可以認(rèn)為LaMDA已經(jīng)進(jìn)行了相關(guān)語料訓(xùn)練。而交談內(nèi)容更是具有明顯的誘導(dǎo)性,部分詞句可作為擬合過程的關(guān)鍵詞以供模型進(jìn)行語料的匹配與生成。
特斯拉的AI主管看完Blake Lemoine兩篇文章后表示,“我可以自信地說,事情將變得更加詭異。因?yàn)槟P退坪踝裱交s放規(guī)律,并且數(shù)據(jù)+模型的大小仍然可以大量增長。”
華盛頓大學(xué)的語言學(xué)家Emily M. Bender則表示,碼農(nóng)們不知道何為智能、人類的語言學(xué)習(xí)機(jī)制究竟為何,就開始瞎用“學(xué)習(xí)”、“神經(jīng)網(wǎng)絡(luò)”這些誤導(dǎo)性過強(qiáng)的名詞,造成了與人腦間的虛假比喻。
Emily M. Bender稱,人類學(xué)說話是跟著撫養(yǎng)者一步步學(xué)起,而AI學(xué)會的只是數(shù)據(jù)灌出來的完形填空和語料連連看。“人類現(xiàn)在有了無意識就能生成詞句的機(jī)器,但人類一直學(xué)不會停止幻想機(jī)器后面有個活著的靈魂。”
而研究自然語言處理模型的加州大學(xué)伯克利分校教授Emaad Khwaja說得更簡短卻直接:“誰真正熟悉這些模型的系統(tǒng),誰就不會說這些模型已經(jīng)覺醒的蠢話。”
雖然事件整體仍然暴露出目前對話式AI可解釋性不強(qiáng)的通病,但在技術(shù)應(yīng)用方面,尤其在情感計(jì)算方面,LaMDA還是展現(xiàn)出較強(qiáng)的實(shí)力,有望推動對話式AI的實(shí)際應(yīng)用,大模型同樣也表現(xiàn)出在技術(shù)應(yīng)用領(lǐng)域的巨大潛力。
人類對AI的恐懼
自從上世紀(jì)50年代人工智能(AI)開始誕生以來,通過半個多世紀(jì)的發(fā)展,AI的功能越來越強(qiáng)大,不但有的能夠?yàn)槿祟愄峁B(yǎng)老、看護(hù)、交流等服務(wù),而且有的甚至具有類似人類的獨(dú)立思考和深度學(xué)習(xí)的能力,使其成為區(qū)別于其他科技的一支特殊力量。
長久以來,人們期待機(jī)器可以擁有人類智能,進(jìn)一步解放生產(chǎn)力。同時又恐懼人類所創(chuàng)造的機(jī)器擁有人類智能后將對人類造成威脅。從此次事件的大范圍傳播不難看出,公眾對人工智能的期待與恐懼推動了這一進(jìn)程。
1997年深藍(lán)計(jì)算機(jī)打敗了國際象棋冠軍,2016年人工智能阿爾法狗又將諸多圍棋高手一一“斬落”,這些事件的發(fā)生,在人類驚呼人工智能處理復(fù)雜問題的能力越來越強(qiáng)大的同時,又使得大家對人工智能是否會衍生出威脅人類的“思維”擔(dān)心不已。
除此之外,機(jī)器是否可以被當(dāng)作具有“人格”的個體,也是長期以來備受關(guān)注的議題。2017年,沙特做出了一個讓人“驚掉下巴”的事,那就是賦予機(jī)器人索菲亞以公民的身體,再次推動人們深層次探討關(guān)于人工智能的人格權(quán)問題。
一方面,人類渴望機(jī)器人擁有意識后可以更好地服務(wù)和陪伴人類,但另一方面,又害怕機(jī)器人擁有意識后會摧毀人類。倫理方面的問題和技術(shù)的發(fā)展總是相伴而生。
人工智能的最大優(yōu)勢在于,它們擁有強(qiáng)大的后天學(xué)習(xí)能力,可以在事先毫無基礎(chǔ)的情況下,經(jīng)過反復(fù)地學(xué)習(xí)和訓(xùn)練,來實(shí)現(xiàn)對以往自身的智力超越。深藍(lán)、阿爾法狗“打敗”人類的事實(shí),充分表明了人工智能只要經(jīng)過無止境的自主學(xué)習(xí)和訓(xùn)練,實(shí)現(xiàn)對人類相關(guān)文化、智慧的完全超越,而這種自我超越的能力也遠(yuǎn)遠(yuǎn)超過一個自然人。
但從目前科技發(fā)展的階段和水平看,即使是“智力再超群”的AI,它的一切目的和行為,包括學(xué)習(xí)、訓(xùn)練工作的實(shí)施,都是人類所賦予的,還脫離不開人類的控制實(shí)施獨(dú)立的行為,終歸還是人類的工具和手段,其最終的目的還是為人類服務(wù),從這一方面來說,與很多法律研究者提出的“AI不具備人格權(quán)”這種論斷是一致的。
而關(guān)于AI發(fā)展的前景,世界上主要有兩種觀點(diǎn),一種是我們?nèi)祟悜?yīng)該以開放的態(tài)度,來迎接人工智能的發(fā)展,人工智能未來會突破人類的很多限制,從而解決科技發(fā)展過程中人類難以直接解決的困境。另一種觀點(diǎn)則是人工智能威脅論,認(rèn)為人工智能發(fā)展會帶來一系列的社會問題,可以會從根本上顛覆人類的生存、發(fā)展秩序。
隨著人工智能的發(fā)展,我們勢必還會面臨諸多有關(guān)社會倫理認(rèn)識、法律以及哲學(xué)等方面的沖突和難題,一味地強(qiáng)調(diào)人工智能威脅論肯定是狹隘的,而一味地追求和諧的科技發(fā)展,也可能帶來難以挽回的危機(jī)。
在任何時候,我們需要做的,就是讓科學(xué)技術(shù)堅(jiān)守最基礎(chǔ)的法律和倫理底線,不破壞人類自身的生存和發(fā)展權(quán)利,只有牢牢守住這一底線,科技發(fā)展的前景才能最終為全人類謀福利。