人工智能滅絕人類(lèi)風(fēng)險(xiǎn)言論在引發(fā)了廣泛關(guān)注的同時(shí),也引來(lái)了質(zhì)疑的聲音。諸多專(zhuān)家和公眾人物認(rèn)為,AI末日論分散了人們對(duì)真正重要的實(shí)際問(wèn)題的注意力。
“減輕人工智能帶來(lái)的人類(lèi)滅絕風(fēng)險(xiǎn),應(yīng)該與大流行病和核戰(zhàn)爭(zhēng)等其他影響社會(huì)的大規(guī)模風(fēng)險(xiǎn)一同成為全球性的優(yōu)先事項(xiàng)。”[1]5月30日,這則短短的聲明,出現(xiàn)在美國(guó)非營(yíng)利組織“人工智能安全中心(Center for AI Safety)”的官網(wǎng)上,超過(guò)350名從事人工智能工作的高管、研究人員和工程師在上面簽名。
人工智能對(duì)人類(lèi)的威脅,堪比大流行病和核戰(zhàn)爭(zhēng),這份簡(jiǎn)短聲明旨在鼓勵(lì)公開(kāi)討論AI最嚴(yán)重的威脅,降低AI滅絕人類(lèi)的可能風(fēng)險(xiǎn)。帶頭簽名這份聲明的是深度學(xué)習(xí)領(lǐng)域的兩位重磅專(zhuān)家杰弗里·辛頓(Geoffrey Hinton)和約書(shū)亞·本希奧(Yoshua Bengio)。兩人和楊立昆(Yann LeCun)一起,因在深度學(xué)習(xí)方面的開(kāi)創(chuàng)性工作,共同獲得了2018年圖靈獎(jiǎng)(有“計(jì)算界的諾貝爾獎(jiǎng)”之稱(chēng)),被稱(chēng)為“AI教父”或“深度學(xué)習(xí)教父”。
除此以外,目前三大領(lǐng)先的自然語(yǔ)言大模型研究機(jī)構(gòu)的CEO,OpenAI的山姆·阿爾特曼(Sam Altman)、谷歌DeepMind的杰米斯·哈薩比斯(Demis Hassabis)和Anthropic的達(dá)里奧·阿莫迪(Dario Amodei),也都簽名支持。簽名名單還包括了清華大學(xué)智能科學(xué)講席教授、智能產(chǎn)業(yè)研究院院長(zhǎng)張亞勤,中國(guó)科學(xué)院自動(dòng)化研究所研究員、中國(guó)科學(xué)院大學(xué)教授曾毅等中國(guó)學(xué)者。
當(dāng)前對(duì)人工智能表示擔(dān)憂(yōu)的聲音已經(jīng)大到無(wú)法忽視。3月,一封由科技行業(yè)專(zhuān)家牽頭的公開(kāi)信,因?yàn)閾?dān)憂(yōu)人工智能可能對(duì)“社會(huì)和人類(lèi)構(gòu)成深遠(yuǎn)風(fēng)險(xiǎn)”,呼吁暫停先進(jìn)人工智能模型的開(kāi)發(fā)。4月,杰弗里·辛頓從谷歌離職,以便公開(kāi)討論人工智能技術(shù)的危險(xiǎn)性。
在6月的北京智源大會(huì)AI安全與對(duì)齊論壇上,山姆·阿爾特曼和杰弗里·辛頓分別作了開(kāi)場(chǎng)和閉幕演講,強(qiáng)調(diào)了人工智能的未來(lái)風(fēng)險(xiǎn),呼吁全球盡早邁出通用人工智能(AGI)治理的第一步。辛頓表示數(shù)字式智能群體共享知識(shí)的速度遠(yuǎn)超人類(lèi),當(dāng)AI進(jìn)化到比人類(lèi)更有智慧的時(shí)候,會(huì)帶來(lái)巨大的風(fēng)險(xiǎn)。“到目前為止,我還想象不到更智能的事物,被一些反倒沒(méi)那么智能的事物所控制的例子。我打個(gè)比方,假設(shè)青蛙創(chuàng)造了人類(lèi),那么你認(rèn)為現(xiàn)在誰(shuí)會(huì)占據(jù)主動(dòng)權(quán),是人,還是青蛙?”[2]
AGI接管人類(lèi)
人工智能可能滅絕人類(lèi)的說(shuō)法,有一個(gè)前提假設(shè),即具備人類(lèi)級(jí)別學(xué)習(xí)能力的計(jì)算機(jī)會(huì)由于技術(shù)優(yōu)勢(shì)而超越人類(lèi)智能,成為通用人工智能(AGI)。通用人工智能(AGI)的重大進(jìn)展可能導(dǎo)致人類(lèi)滅絕或其他一些無(wú)法恢復(fù)的全球?yàn)?zāi)難,正如大猩猩的命運(yùn)取決于人類(lèi)的善意,人類(lèi)的命運(yùn)也可能取決于未來(lái)超級(jí)智能機(jī)器。
自阿蘭·圖靈開(kāi)始,對(duì)失控的、自我改進(jìn)的機(jī)器的擔(dān)憂(yōu)由來(lái)已久。隨著ChatGPT等生成式人工智能工具的普遍使用,曾經(jīng)的極端觀(guān)點(diǎn)引起了廣泛關(guān)注。2021年1月發(fā)表在《人工智能研究雜志》的一篇文章,通過(guò)計(jì)算提出,控制遠(yuǎn)超出人類(lèi)理解能力的超級(jí)智能幾乎是不可能的。因?yàn)橐刂瞥?jí)智能,我們需要對(duì)其進(jìn)行模擬和分析,但如果我們無(wú)法理解它,就無(wú)法創(chuàng)建這樣的模擬。當(dāng)我們不了解人工智能將要提出的場(chǎng)景類(lèi)型,就無(wú)法制定諸如“不對(duì)人類(lèi)造成傷害”之類(lèi)的規(guī)則。[3]
一篇名為“自然選擇偏愛(ài)AI,而不是人類(lèi)(Natural Selection Favors AIs over Humans)”的文章,認(rèn)為人類(lèi)和AGI的前途類(lèi)似于自然選擇。
自然選擇理論中,自私的物種通常在物競(jìng)天擇中更具優(yōu)勢(shì)。達(dá)爾文主義也可以適用于A(yíng)GI,當(dāng)AGI追求自身利益而對(duì)人類(lèi)關(guān)注較少時(shí),將會(huì)給人類(lèi)帶來(lái)災(zāi)難。[4]牛津大學(xué)人類(lèi)未來(lái)研究所人工智能安全研究員瑞安·凱里(Ryan Carey)表示:“如果人工智能具有某些成分,即超人智能、廣泛的自主權(quán)、一些資源和新技術(shù),它可能會(huì)對(duì)人類(lèi)的未來(lái)構(gòu)成威脅。”“如果你將少數(shù)擁有一些資源和一些現(xiàn)代技術(shù)的現(xiàn)代人類(lèi)置于一個(gè)擁有80億非人類(lèi)靈長(zhǎng)類(lèi)動(dòng)物成員的世界中,那可能對(duì)該物種的未來(lái)構(gòu)成威脅。”
目前,以ChatGPT為代表的大型語(yǔ)言模型(LLM)還遠(yuǎn)不能實(shí)現(xiàn)通用人工智能(AGI)。對(duì)于人工智能超過(guò)人類(lèi)智能的AGI什么時(shí)候到來(lái)的問(wèn)題,杰弗里·辛頓表示:“這個(gè)東西實(shí)際上可能比人類(lèi)更聰明——有一些人相信這一點(diǎn),...... 但大多數(shù)人認(rèn)為這還遙遠(yuǎn)。而我也認(rèn)為離那還很遠(yuǎn),可能是30到50年甚至更久以后。顯然,我不再持有這樣的觀(guān)點(diǎn)了。”在備受推崇的預(yù)測(cè)平臺(tái)Metaculus上,AGI的平均預(yù)測(cè)日期是2032年。[5]
AI對(duì)齊:回形針制造機(jī)
人工智能滅絕人類(lèi)的風(fēng)險(xiǎn)假說(shuō),有令人信服的邏輯。劍橋大學(xué)計(jì)算與生物學(xué)習(xí)實(shí)驗(yàn)室的助理教授大衛(wèi)·克魯格(David Krueger),說(shuō)明了人工智能接管人類(lèi)的三個(gè)要素:
首先,AI在優(yōu)化特定目標(biāo)時(shí)缺乏人類(lèi)常識(shí),可能發(fā)出奇怪和不受歡迎的行為。由于A(yíng)I“思考”解決問(wèn)題的方式,AI處理看似簡(jiǎn)單的事情可能會(huì)產(chǎn)生無(wú)法預(yù)測(cè)的意想不到的后果。例如,如果有人告訴孩子家里的書(shū)本數(shù)量與大學(xué)錄取有關(guān),他可能不會(huì)多讀書(shū)給孩子聽(tīng),而是開(kāi)始堆放成箱的書(shū)本。即使AI只能在非常嚴(yán)格的規(guī)則下運(yùn)行,異常行為仍然會(huì)發(fā)生。
第二,AI在特定任務(wù)中的過(guò)度優(yōu)化可能會(huì)導(dǎo)致權(quán)力尋求行為。當(dāng)特定任務(wù)優(yōu)化的AI有一個(gè)單一的目標(biāo)時(shí),它可能會(huì)使用其掌握的所有工具來(lái)實(shí)現(xiàn)該目標(biāo)。“這種推理循環(huán)不會(huì)自然結(jié)束,”克魯格說(shuō),“如果你在做以目標(biāo)為導(dǎo)向的推理,尤其是當(dāng)你有一個(gè)長(zhǎng)期目標(biāo)時(shí),你自然會(huì)最終尋求越來(lái)越多的權(quán)力和資源。”
第三,人類(lèi)會(huì)主動(dòng)向AI移交更多的權(quán)力。“如果你給系統(tǒng)更多的自主權(quán)、更多的權(quán)力,或者以更多方式重塑世界的能力,那么它就會(huì)更有能力。”克魯格繼續(xù)說(shuō)道,“如果你讓它直接采取影響現(xiàn)實(shí)世界或影響數(shù)字世界的行動(dòng),你將賦予它更多的力量,使其更有能力更高效地實(shí)現(xiàn)你的目標(biāo)。”
將三個(gè)要素放在一起可能會(huì)導(dǎo)致這樣的結(jié)果:人類(lèi)目標(biāo)可能與AI的目標(biāo)不同。當(dāng)我們給AI一個(gè)目標(biāo)時(shí),它可能不是我們的實(shí)際目標(biāo),這是“AI對(duì)齊”問(wèn)題。AI對(duì)齊的目標(biāo)是確保AGI能夠正確理解人類(lèi)的意圖,將其行動(dòng)與人類(lèi)價(jià)值保持一致。[6]
哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)在回形針制造機(jī)思想實(shí)驗(yàn)中令人印象深刻地捕捉到了這一點(diǎn)。他設(shè)想了一個(gè)負(fù)責(zé)制作回形針的人工智能,通過(guò)對(duì)現(xiàn)實(shí)世界系統(tǒng)的充分控制,它可能會(huì)采取極端措施,如消耗所有資源和轉(zhuǎn)化所有物質(zhì)來(lái)制造盡可能多的回形針,從而對(duì)人類(lèi)生存產(chǎn)生威脅。
分歧和質(zhì)疑:
AI末日論轉(zhuǎn)移了對(duì)真正問(wèn)題的注意
誠(chéng)然,關(guān)于人工智能的未來(lái)風(fēng)險(xiǎn)存在分歧。據(jù)耶魯大學(xué)首席執(zhí)行官領(lǐng)導(dǎo)力研究所對(duì)高管進(jìn)行的一項(xiàng)調(diào)查顯示,42%的受訪(fǎng)者表示人工智能可能在5~10年內(nèi)“毀滅人類(lèi)”,58%的受訪(fǎng)者表示“不擔(dān)心”人工智能的生存威脅。[7]
人工智能滅絕人類(lèi)風(fēng)險(xiǎn)言論在引發(fā)了廣泛關(guān)注的同時(shí),也引來(lái)了質(zhì)疑的聲音。諸多專(zhuān)家和公眾人物認(rèn)為,AI末日論分散了人們對(duì)真正重要的實(shí)際問(wèn)題的注意力。Meta首席AI科學(xué)家、與杰弗里·辛頓和約書(shū)亞·本希奧共同獲得2018年圖靈獎(jiǎng)的楊立昆(Yann LeCun)表示,對(duì)人工智能未來(lái)風(fēng)險(xiǎn)的擔(dān)憂(yōu)“極其荒謬”。
計(jì)算機(jī)變得比人類(lèi)更聰明,還需要很多年。他認(rèn)為,那些擔(dān)憂(yōu)的人之所以這樣,是因?yàn)樗麄儫o(wú)法想象如何才能確保人工智能的安全。“這就好像你在1930年問(wèn)如何確保渦輪噴氣發(fā)動(dòng)機(jī)的安全,1930年渦輪噴氣發(fā)動(dòng)機(jī)還沒(méi)有發(fā)明,就像人類(lèi)水平的人工智能還沒(méi)有發(fā)明一樣......渦輪噴氣式飛機(jī)最終變得非常可靠和安全,人工智能同樣如此。”Meta的人工智能研究副總裁喬爾·皮諾(Joelle Pineau)同意楊立昆的觀(guān)點(diǎn),她表示,對(duì)AI未來(lái)風(fēng)險(xiǎn)的極度關(guān)注,擠壓了討論當(dāng)前人工智能的危害的空間。[8]
紐約大學(xué)名譽(yù)教授加里·馬庫(kù)斯(Gary Marcus),于3月簽署了公開(kāi)信,與包括埃隆·馬斯克(Elon Musk)在內(nèi)的1000多人一起,呼吁全球暫停人工智能開(kāi)發(fā),但他沒(méi)有簽署22字聲明,他認(rèn)為AI的生存威脅被“夸大了”,社會(huì)不應(yīng)該把注意力集中在沒(méi)有人幸存的牽強(qiáng)的場(chǎng)景上,而應(yīng)該把注意力集中在真正的危險(xiǎn)所在。
人工智能公司Cohere的首席執(zhí)行官艾丹·戈麥斯(Aidan Gomez)評(píng)價(jià),這是“對(duì)我們時(shí)間的荒謬?yán)谩薄B槭±砉W(xué)院經(jīng)濟(jì)學(xué)教授達(dá)倫·阿西莫格魯(Daron Acemoglu)認(rèn)為,它(AI滅絕人類(lèi)的風(fēng)險(xiǎn))夸大了當(dāng)前的技術(shù)水平,“使我們將注意力從這些新模型可能造成的更普遍的損害上移開(kāi),包括錯(cuò)誤信息、失業(yè)、民主威脅等”。
同樣地,Nature網(wǎng)站上一篇題為“當(dāng)AI今天帶來(lái)風(fēng)險(xiǎn)時(shí),停止談?wù)撁魈斓腁I世界末日(Stop talking about tomorrow’s AI doomsday when AIposes risks today)”的社論文章旗幟鮮明地指出,就像魔術(shù)師的花招一樣,人工智能滅絕人類(lèi)的言論分散了人們對(duì)真正問(wèn)題的注意力,阻礙了對(duì)人工智能目前造成的社會(huì)危害的有效監(jiān)管。
有關(guān)AI風(fēng)險(xiǎn)和監(jiān)管的對(duì)話(huà)默認(rèn)了由公司高管和技術(shù)人員組成的同質(zhì)群體主導(dǎo),而將其他社區(qū)排除在外。紐約市AI Now研究所(研究所專(zhuān)注于人工智能的社會(huì)影響)所長(zhǎng)安巴·卡克(Amba Kak)表示,科技行業(yè)領(lǐng)袖撰寫(xiě)的聲明“本質(zhì)上是在界定誰(shuí)才是這場(chǎng)對(duì)話(huà)中的專(zhuān)家”。
人工智能有許多潛在的好處,從合成數(shù)據(jù)到協(xié)助醫(yī)療診斷,可能將在醫(yī)療保健、教育和應(yīng)對(duì)氣候危機(jī)領(lǐng)域發(fā)揮重要的積極作用。但它同時(shí)也造成了有據(jù)可查的危害,生成和傳播大量錯(cuò)誤信息,帶有系統(tǒng)偏見(jiàn),擠壓勞動(dòng)市場(chǎng)崗位。
關(guān)于這些明確而現(xiàn)實(shí)的問(wèn)題的討論正處于“缺氧”狀態(tài)。政府必須建立適當(dāng)?shù)姆珊捅O(jiān)管框架,科技公司必須制定負(fù)責(zé)任地開(kāi)發(fā)人工智能系統(tǒng)和工具的行業(yè)標(biāo)準(zhǔn),研究人員必須發(fā)揮作用,建立負(fù)責(zé)任的人工智能文化。關(guān)于存在風(fēng)險(xiǎn)的危言聳聽(tīng)的敘述沒(méi)有建設(shè)性,認(rèn)真討論實(shí)際風(fēng)險(xiǎn)以及遏制風(fēng)險(xiǎn)的行動(dòng)更重要。“人類(lèi)越早建立與人工智能的互動(dòng)規(guī)則,我們就能越早學(xué)會(huì)與技術(shù)和諧相處。”[9]
參考文獻(xiàn)(上下滑動(dòng)查看全部?jī)?nèi)容)
來(lái)源:《中國(guó)教育網(wǎng)絡(luò)》2023年6月刊
聯(lián)系客服