精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
一場(chǎng)關(guān)于人工智能風(fēng)險(xiǎn)的爭(zhēng)議

人工智能滅絕人類(lèi)風(fēng)險(xiǎn)言論在引發(fā)了廣泛關(guān)注的同時(shí),也引來(lái)了質(zhì)疑的聲音。諸多專(zhuān)家和公眾人物認(rèn)為,AI末日論分散了人們對(duì)真正重要的實(shí)際問(wèn)題的注意力。

“減輕人工智能帶來(lái)的人類(lèi)滅絕風(fēng)險(xiǎn),應(yīng)該與大流行病和核戰(zhàn)爭(zhēng)等其他影響社會(huì)的大規(guī)模風(fēng)險(xiǎn)一同成為全球性的優(yōu)先事項(xiàng)。”[1]5月30日,這則短短的聲明,出現(xiàn)在美國(guó)非營(yíng)利組織“人工智能安全中心(Center for AI Safety)”的官網(wǎng)上,超過(guò)350名從事人工智能工作的高管、研究人員和工程師在上面簽名。

人工智能對(duì)人類(lèi)的威脅,堪比大流行病和核戰(zhàn)爭(zhēng),這份簡(jiǎn)短聲明旨在鼓勵(lì)公開(kāi)討論AI最嚴(yán)重的威脅,降低AI滅絕人類(lèi)的可能風(fēng)險(xiǎn)。帶頭簽名這份聲明的是深度學(xué)習(xí)領(lǐng)域的兩位重磅專(zhuān)家杰弗里·辛頓(Geoffrey Hinton)和約書(shū)亞·本希奧(Yoshua Bengio)。兩人和楊立昆(Yann LeCun)一起,因在深度學(xué)習(xí)方面的開(kāi)創(chuàng)性工作,共同獲得了2018年圖靈獎(jiǎng)(有“計(jì)算界的諾貝爾獎(jiǎng)”之稱(chēng)),被稱(chēng)為“AI教父”或“深度學(xué)習(xí)教父”。

除此以外,目前三大領(lǐng)先的自然語(yǔ)言大模型研究機(jī)構(gòu)的CEO,OpenAI的山姆·阿爾特曼(Sam Altman)、谷歌DeepMind的杰米斯·哈薩比斯(Demis Hassabis)和Anthropic的達(dá)里奧·阿莫迪(Dario Amodei),也都簽名支持。簽名名單還包括了清華大學(xué)智能科學(xué)講席教授、智能產(chǎn)業(yè)研究院院長(zhǎng)張亞勤,中國(guó)科學(xué)院自動(dòng)化研究所研究員、中國(guó)科學(xué)院大學(xué)教授曾毅等中國(guó)學(xué)者。

當(dāng)前對(duì)人工智能表示擔(dān)憂(yōu)的聲音已經(jīng)大到無(wú)法忽視。3月,一封由科技行業(yè)專(zhuān)家牽頭的公開(kāi)信,因?yàn)閾?dān)憂(yōu)人工智能可能對(duì)“社會(huì)和人類(lèi)構(gòu)成深遠(yuǎn)風(fēng)險(xiǎn)”,呼吁暫停先進(jìn)人工智能模型的開(kāi)發(fā)。4月,杰弗里·辛頓從谷歌離職,以便公開(kāi)討論人工智能技術(shù)的危險(xiǎn)性。

在6月的北京智源大會(huì)AI安全與對(duì)齊論壇上,山姆·阿爾特曼和杰弗里·辛頓分別作了開(kāi)場(chǎng)和閉幕演講,強(qiáng)調(diào)了人工智能的未來(lái)風(fēng)險(xiǎn),呼吁全球盡早邁出通用人工智能(AGI)治理的第一步。辛頓表示數(shù)字式智能群體共享知識(shí)的速度遠(yuǎn)超人類(lèi),當(dāng)AI進(jìn)化到比人類(lèi)更有智慧的時(shí)候,會(huì)帶來(lái)巨大的風(fēng)險(xiǎn)。“到目前為止,我還想象不到更智能的事物,被一些反倒沒(méi)那么智能的事物所控制的例子。我打個(gè)比方,假設(shè)青蛙創(chuàng)造了人類(lèi),那么你認(rèn)為現(xiàn)在誰(shuí)會(huì)占據(jù)主動(dòng)權(quán),是人,還是青蛙?”[2]

AGI接管人類(lèi)

人工智能可能滅絕人類(lèi)的說(shuō)法,有一個(gè)前提假設(shè),即具備人類(lèi)級(jí)別學(xué)習(xí)能力的計(jì)算機(jī)會(huì)由于技術(shù)優(yōu)勢(shì)而超越人類(lèi)智能,成為通用人工智能(AGI)。通用人工智能(AGI)的重大進(jìn)展可能導(dǎo)致人類(lèi)滅絕或其他一些無(wú)法恢復(fù)的全球?yàn)?zāi)難,正如大猩猩的命運(yùn)取決于人類(lèi)的善意,人類(lèi)的命運(yùn)也可能取決于未來(lái)超級(jí)智能機(jī)器。

自阿蘭·圖靈開(kāi)始,對(duì)失控的、自我改進(jìn)的機(jī)器的擔(dān)憂(yōu)由來(lái)已久。隨著ChatGPT等生成式人工智能工具的普遍使用,曾經(jīng)的極端觀(guān)點(diǎn)引起了廣泛關(guān)注。2021年1月發(fā)表在《人工智能研究雜志》的一篇文章,通過(guò)計(jì)算提出,控制遠(yuǎn)超出人類(lèi)理解能力的超級(jí)智能幾乎是不可能的。因?yàn)橐刂瞥?jí)智能,我們需要對(duì)其進(jìn)行模擬和分析,但如果我們無(wú)法理解它,就無(wú)法創(chuàng)建這樣的模擬。當(dāng)我們不了解人工智能將要提出的場(chǎng)景類(lèi)型,就無(wú)法制定諸如“不對(duì)人類(lèi)造成傷害”之類(lèi)的規(guī)則。[3]

一篇名為“自然選擇偏愛(ài)AI,而不是人類(lèi)(Natural Selection Favors AIs over Humans)”的文章,認(rèn)為人類(lèi)和AGI的前途類(lèi)似于自然選擇。

自然選擇理論中,自私的物種通常在物競(jìng)天擇中更具優(yōu)勢(shì)。達(dá)爾文主義也可以適用于A(yíng)GI,當(dāng)AGI追求自身利益而對(duì)人類(lèi)關(guān)注較少時(shí),將會(huì)給人類(lèi)帶來(lái)災(zāi)難。[4]牛津大學(xué)人類(lèi)未來(lái)研究所人工智能安全研究員瑞安·凱里(Ryan Carey)表示:“如果人工智能具有某些成分,即超人智能、廣泛的自主權(quán)、一些資源和新技術(shù),它可能會(huì)對(duì)人類(lèi)的未來(lái)構(gòu)成威脅。”“如果你將少數(shù)擁有一些資源和一些現(xiàn)代技術(shù)的現(xiàn)代人類(lèi)置于一個(gè)擁有80億非人類(lèi)靈長(zhǎng)類(lèi)動(dòng)物成員的世界中,那可能對(duì)該物種的未來(lái)構(gòu)成威脅。”

目前,以ChatGPT為代表的大型語(yǔ)言模型(LLM)還遠(yuǎn)不能實(shí)現(xiàn)通用人工智能(AGI)。對(duì)于人工智能超過(guò)人類(lèi)智能的AGI什么時(shí)候到來(lái)的問(wèn)題,杰弗里·辛頓表示:“這個(gè)東西實(shí)際上可能比人類(lèi)更聰明——有一些人相信這一點(diǎn),...... 但大多數(shù)人認(rèn)為這還遙遠(yuǎn)。而我也認(rèn)為離那還很遠(yuǎn),可能是30到50年甚至更久以后。顯然,我不再持有這樣的觀(guān)點(diǎn)了。”在備受推崇的預(yù)測(cè)平臺(tái)Metaculus上,AGI的平均預(yù)測(cè)日期是2032年。[5]

AI對(duì)齊:回形針制造機(jī)

人工智能滅絕人類(lèi)的風(fēng)險(xiǎn)假說(shuō),有令人信服的邏輯。劍橋大學(xué)計(jì)算與生物學(xué)習(xí)實(shí)驗(yàn)室的助理教授大衛(wèi)·克魯格(David Krueger),說(shuō)明了人工智能接管人類(lèi)的三個(gè)要素:

首先,AI在優(yōu)化特定目標(biāo)時(shí)缺乏人類(lèi)常識(shí),可能發(fā)出奇怪和不受歡迎的行為。由于A(yíng)I“思考”解決問(wèn)題的方式,AI處理看似簡(jiǎn)單的事情可能會(huì)產(chǎn)生無(wú)法預(yù)測(cè)的意想不到的后果。例如,如果有人告訴孩子家里的書(shū)本數(shù)量與大學(xué)錄取有關(guān),他可能不會(huì)多讀書(shū)給孩子聽(tīng),而是開(kāi)始堆放成箱的書(shū)本。即使AI只能在非常嚴(yán)格的規(guī)則下運(yùn)行,異常行為仍然會(huì)發(fā)生。

第二,AI在特定任務(wù)中的過(guò)度優(yōu)化可能會(huì)導(dǎo)致權(quán)力尋求行為。當(dāng)特定任務(wù)優(yōu)化的AI有一個(gè)單一的目標(biāo)時(shí),它可能會(huì)使用其掌握的所有工具來(lái)實(shí)現(xiàn)該目標(biāo)。“這種推理循環(huán)不會(huì)自然結(jié)束,”克魯格說(shuō),“如果你在做以目標(biāo)為導(dǎo)向的推理,尤其是當(dāng)你有一個(gè)長(zhǎng)期目標(biāo)時(shí),你自然會(huì)最終尋求越來(lái)越多的權(quán)力和資源。”

第三,人類(lèi)會(huì)主動(dòng)向AI移交更多的權(quán)力。“如果你給系統(tǒng)更多的自主權(quán)、更多的權(quán)力,或者以更多方式重塑世界的能力,那么它就會(huì)更有能力。”克魯格繼續(xù)說(shuō)道,“如果你讓它直接采取影響現(xiàn)實(shí)世界或影響數(shù)字世界的行動(dòng),你將賦予它更多的力量,使其更有能力更高效地實(shí)現(xiàn)你的目標(biāo)。”

將三個(gè)要素放在一起可能會(huì)導(dǎo)致這樣的結(jié)果:人類(lèi)目標(biāo)可能與AI的目標(biāo)不同。當(dāng)我們給AI一個(gè)目標(biāo)時(shí),它可能不是我們的實(shí)際目標(biāo),這是“AI對(duì)齊”問(wèn)題。AI對(duì)齊的目標(biāo)是確保AGI能夠正確理解人類(lèi)的意圖,將其行動(dòng)與人類(lèi)價(jià)值保持一致。[6]

哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)在回形針制造機(jī)思想實(shí)驗(yàn)中令人印象深刻地捕捉到了這一點(diǎn)。他設(shè)想了一個(gè)負(fù)責(zé)制作回形針的人工智能,通過(guò)對(duì)現(xiàn)實(shí)世界系統(tǒng)的充分控制,它可能會(huì)采取極端措施,如消耗所有資源和轉(zhuǎn)化所有物質(zhì)來(lái)制造盡可能多的回形針,從而對(duì)人類(lèi)生存產(chǎn)生威脅。

分歧和質(zhì)疑:

AI末日論轉(zhuǎn)移了對(duì)真正問(wèn)題的注意

誠(chéng)然,關(guān)于人工智能的未來(lái)風(fēng)險(xiǎn)存在分歧。據(jù)耶魯大學(xué)首席執(zhí)行官領(lǐng)導(dǎo)力研究所對(duì)高管進(jìn)行的一項(xiàng)調(diào)查顯示,42%的受訪(fǎng)者表示人工智能可能在5~10年內(nèi)“毀滅人類(lèi)”,58%的受訪(fǎng)者表示“不擔(dān)心”人工智能的生存威脅。[7]

人工智能滅絕人類(lèi)風(fēng)險(xiǎn)言論在引發(fā)了廣泛關(guān)注的同時(shí),也引來(lái)了質(zhì)疑的聲音。諸多專(zhuān)家和公眾人物認(rèn)為,AI末日論分散了人們對(duì)真正重要的實(shí)際問(wèn)題的注意力。Meta首席AI科學(xué)家、與杰弗里·辛頓和約書(shū)亞·本希奧共同獲得2018年圖靈獎(jiǎng)的楊立昆(Yann LeCun)表示,對(duì)人工智能未來(lái)風(fēng)險(xiǎn)的擔(dān)憂(yōu)“極其荒謬”。

計(jì)算機(jī)變得比人類(lèi)更聰明,還需要很多年。他認(rèn)為,那些擔(dān)憂(yōu)的人之所以這樣,是因?yàn)樗麄儫o(wú)法想象如何才能確保人工智能的安全。“這就好像你在1930年問(wèn)如何確保渦輪噴氣發(fā)動(dòng)機(jī)的安全,1930年渦輪噴氣發(fā)動(dòng)機(jī)還沒(méi)有發(fā)明,就像人類(lèi)水平的人工智能還沒(méi)有發(fā)明一樣......渦輪噴氣式飛機(jī)最終變得非常可靠和安全,人工智能同樣如此。”Meta的人工智能研究副總裁喬爾·皮諾(Joelle Pineau)同意楊立昆的觀(guān)點(diǎn),她表示,對(duì)AI未來(lái)風(fēng)險(xiǎn)的極度關(guān)注,擠壓了討論當(dāng)前人工智能的危害的空間。[8]

紐約大學(xué)名譽(yù)教授加里·馬庫(kù)斯(Gary Marcus),于3月簽署了公開(kāi)信,與包括埃隆·馬斯克(Elon Musk)在內(nèi)的1000多人一起,呼吁全球暫停人工智能開(kāi)發(fā),但他沒(méi)有簽署22字聲明,他認(rèn)為AI的生存威脅被“夸大了”,社會(huì)不應(yīng)該把注意力集中在沒(méi)有人幸存的牽強(qiáng)的場(chǎng)景上,而應(yīng)該把注意力集中在真正的危險(xiǎn)所在。

人工智能公司Cohere的首席執(zhí)行官艾丹·戈麥斯(Aidan Gomez)評(píng)價(jià),這是“對(duì)我們時(shí)間的荒謬?yán)谩薄B槭±砉W(xué)院經(jīng)濟(jì)學(xué)教授達(dá)倫·阿西莫格魯(Daron Acemoglu)認(rèn)為,它(AI滅絕人類(lèi)的風(fēng)險(xiǎn))夸大了當(dāng)前的技術(shù)水平,“使我們將注意力從這些新模型可能造成的更普遍的損害上移開(kāi),包括錯(cuò)誤信息、失業(yè)、民主威脅等”。

同樣地,Nature網(wǎng)站上一篇題為“當(dāng)AI今天帶來(lái)風(fēng)險(xiǎn)時(shí),停止談?wù)撁魈斓腁I世界末日(Stop talking about tomorrow’s AI doomsday when AIposes risks today)”的社論文章旗幟鮮明地指出,就像魔術(shù)師的花招一樣,人工智能滅絕人類(lèi)的言論分散了人們對(duì)真正問(wèn)題的注意力,阻礙了對(duì)人工智能目前造成的社會(huì)危害的有效監(jiān)管。

有關(guān)AI風(fēng)險(xiǎn)和監(jiān)管的對(duì)話(huà)默認(rèn)了由公司高管和技術(shù)人員組成的同質(zhì)群體主導(dǎo),而將其他社區(qū)排除在外。紐約市AI Now研究所(研究所專(zhuān)注于人工智能的社會(huì)影響)所長(zhǎng)安巴·卡克(Amba Kak)表示,科技行業(yè)領(lǐng)袖撰寫(xiě)的聲明“本質(zhì)上是在界定誰(shuí)才是這場(chǎng)對(duì)話(huà)中的專(zhuān)家”。

人工智能有許多潛在的好處,從合成數(shù)據(jù)到協(xié)助醫(yī)療診斷,可能將在醫(yī)療保健、教育和應(yīng)對(duì)氣候危機(jī)領(lǐng)域發(fā)揮重要的積極作用。但它同時(shí)也造成了有據(jù)可查的危害,生成和傳播大量錯(cuò)誤信息,帶有系統(tǒng)偏見(jiàn),擠壓勞動(dòng)市場(chǎng)崗位。

關(guān)于這些明確而現(xiàn)實(shí)的問(wèn)題的討論正處于“缺氧”狀態(tài)。政府必須建立適當(dāng)?shù)姆珊捅O(jiān)管框架,科技公司必須制定負(fù)責(zé)任地開(kāi)發(fā)人工智能系統(tǒng)和工具的行業(yè)標(biāo)準(zhǔn),研究人員必須發(fā)揮作用,建立負(fù)責(zé)任的人工智能文化。關(guān)于存在風(fēng)險(xiǎn)的危言聳聽(tīng)的敘述沒(méi)有建設(shè)性,認(rèn)真討論實(shí)際風(fēng)險(xiǎn)以及遏制風(fēng)險(xiǎn)的行動(dòng)更重要。“人類(lèi)越早建立與人工智能的互動(dòng)規(guī)則,我們就能越早學(xué)會(huì)與技術(shù)和諧相處。”[9]

參考文獻(xiàn)(上下滑動(dòng)查看全部?jī)?nèi)容)

[1]https://www.safe.ai/statement-on-ai-risk#open-letter.

[2]https://2023.baai.ac.cn/.

[3]https://www.sciencealert.com/calculations-suggest-itll-be-impossible-to-control-a-super-intelligent-ai.

[4]https://arxiv.org/abs/2303.16200.

[5]https://www.metaculus.com/questions/5121/date-of-artificial-general-intelligence/.

[6]https://www.itpro.com/technology/artificial-intelligence-ai/370065/why-risk-analysts-think-ai-now-poses-a-serious-threat.

[7]https://twitter.com/MattEganCNN/status/1669080999148367873.

[8]https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2023/06/20/1075075/metas-ai-leaders-want-you-to-know-fears-over-ai-existential-risk-are-ridiculous/amp/.

[9]https://www.nature.com/articles/d41586-023-02094-7.

來(lái)源:《中國(guó)教育網(wǎng)絡(luò)》2023年6月刊

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶(hù)發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
ChatGPT啟示錄!OpenAI街尾這家博物館,展示人類(lèi)毀滅未來(lái)
這九項(xiàng)可怕的技術(shù)將塑造你的未來(lái)(下)
胡曉峰:ChatGPT大模型問(wèn)世,大咖們?yōu)槭裁淳o張?
沈秀華| AI元年眾生想
大膽的預(yù)言,孫正義表示通用人工智能10年內(nèi)超越人類(lèi)
馬斯克就人工智能再次發(fā)出警告,內(nèi)心究竟在恐懼什么?
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 阿拉善右旗| 瑞金市| 电白县| 墨竹工卡县| 察雅县| 齐河县| 甘孜| 海丰县| 枞阳县| 灵武市| 德兴市| 刚察县| 林州市| 玉树县| 枞阳县| 太康县| 西宁市| 永济市| 监利县| 岳池县| 娱乐| 吉水县| 简阳市| 礼泉县| 肥乡县| 山东省| 南昌市| 邵阳市| 江北区| 黔西| 凉山| 台北县| 顺义区| 通河县| 睢宁县| 福清市| 金寨县| 武平县| 闸北区| 黑龙江省| 方山县|