精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項超值服

開通VIP
為什么阿西莫夫的機(jī)器人三定律救不了我們 | 微科幻主題站 | 果殼網(wǎng) 科技有意思

(文/George Dvorsky)70年前,阿西莫夫提出他著名的機(jī)器人三定律,來保證機(jī)器人會友善待人。雖然最早提出時這只是個文學(xué)手法,但是有些人認(rèn)為這些定律是現(xiàn)成的方案,能挽救我們免于機(jī)器末日。那么,阿西莫夫的安保措施成功經(jīng)歷了時間的考驗嗎?專家的回答是,沒有。

伊薩克·阿西莫夫(1920-1992),20世紀(jì)最有影響力的科幻作家之一。圖片來源:marciokenobi.files.wordpress.com

1942年,阿西莫夫在短篇小說"Runaround"(《環(huán)舞》)中首次提出了三定律:

一 機(jī)器人不得傷害人類,或因不作為使人類受到傷害。

二 除非違背第一定律,機(jī)器人必須服從人類的命令。

三 除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。

但后來,阿西莫夫加入了一條新定律:第零定律。

零 機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。

阿西莫夫的科幻設(shè)定里,機(jī)器人三定律是植入到近乎所有機(jī)器人軟件底層里,不可修改不可忽視的規(guī)定,絕不僅僅是“建議”或者“規(guī)章”。但是顯然這不是一個物理定律,所以現(xiàn)實(shí)中的機(jī)器人并不遵守——至少暫時如此。

在《環(huán)舞》里,負(fù)責(zé)水星開礦任務(wù)的機(jī)器人在第二和第三定律的沖突中陷入“焦慮”,開始不停地繞圈子。圖片來源:raydillon.blogspot.com

正如阿西莫夫許多小說里顯示的,這三條定律的缺陷、漏洞和模糊之處不可避免會導(dǎo)致一些奇怪的機(jī)器人行為。比方說,這三條定律連何為“人”、何為“機(jī)器人”都沒有良好定義。而且,如果機(jī)器人獲取的信息不完整,它們完全可以無意中打破定律。更何況,你要怎么阻止一個智力超群的機(jī)器人自己把定律改掉呢?

因此,很多人都認(rèn)為這只是單純的推動劇情用的寫作手法而已。但是,1981年,阿西莫夫本人在“Compute!”里說:

“……有人問,我是不是覺得我的三定律真的可以用來規(guī)范機(jī)器人的行為——等到機(jī)器人的靈活自主程度足以在不同的行為方式中選擇一種的時候。我的答案是,‘是的,三定律是理性人類對待機(jī)器人(或者任何別的東西)的唯一方式’。”

好吧,三十年過去了,我們的機(jī)器人——準(zhǔn)確地說,是操縱機(jī)器人的人工智能——真的在逼近阿西莫夫所說的那一天。事實(shí)上,人工智能恐怕再過一段時間就要抵達(dá)技術(shù)奇點(diǎn),發(fā)生爆炸式增長,徹底把人類智能甩在后面。

而如果這樣一個超級智能的程序編得不夠好,或者它不在乎人類的需求,那么對我們而言就是徹頭徹尾的災(zāi)難。我們必須保證它是安全的。

那么,阿西莫夫三定律可以幫我們嗎?我們采訪了兩位人工智能理論研究者:本·格策爾(Ben Goertzel ),艾迪亞金融預(yù)測公司首席科學(xué)家;路易·海爾姆(Louie Helm),機(jī)器智能研究所代理主任。他們的觀點(diǎn)是,阿西莫夫三定律完全不能勝任——而如果我們想保證超級智能的安全,我們需要一些全然不同的東西。


阿西莫夫的未來

“我認(rèn)為阿西莫夫預(yù)想的機(jī)器人過不了多久就會實(shí)現(xiàn)”,格策爾說,“但是在他大部分小說里,看起來人類級別的機(jī)器人好像就是機(jī)器人學(xué)和AI工程的頂峰了。事實(shí)看起來并非如此。在抵達(dá)阿西莫夫式類人機(jī)器人之后,很快超人AI也會成為可能。”

典型的阿西莫夫未來里,大部分生活都如常——只不過多了些人形智能機(jī)器人走來走去而已。“但這種未來不太可能實(shí)現(xiàn)——或者就算是它實(shí)現(xiàn)了,也只會存在很短的時間,”他說。

電影《我,機(jī)器人》就是根據(jù)阿西莫夫的同名小說集改編的,機(jī)器人三定律是其核心。圖片來源:popculture-y.com

在海爾姆看來,機(jī)器人根本無關(guān)緊要。

“我認(rèn)為對人類來說最主要的問題,不是一大群半智能人形機(jī)器人所需的道德規(guī)范,而是高階人工智能最終會出現(xiàn)(不管有沒有軀體),其功能遠(yuǎn)遠(yuǎn)超過人類水平,”海爾姆說。“人類早晚必須要跨過超級智能這個坎。這也是為何開發(fā)安保措施如此重要。在我看來,機(jī)器人、仿生人、模擬大腦什么的都無關(guān)緊要,我們最多和它們相處一二十年,之后就要面對真正的大問題——為超級智能開發(fā)倫理道德。”

 

好的開端?

鑒于阿西莫夫三定律是第一個真正試圖解決人工智能行為問題的方案,那么就算是超級人工智能,它能不能也起到一定效果——或者至少有所啟迪呢?

“老實(shí)說,我真沒從機(jī)器人三定律里獲得什么靈感,”海爾姆說。“機(jī)器倫理學(xué)的共識是,它無法成為機(jī)器倫理的合適基礎(chǔ)。”三定律的確廣為人知,但現(xiàn)實(shí)中無論是AI安全研究者還是機(jī)器倫理學(xué)家,都沒有真的使用它作為指導(dǎo)方案。

“原因之一是這套倫理學(xué)——我們稱之為‘義務(wù)倫理學(xué)’(deontology)——作為倫理基礎(chǔ)是行不通的。依然有幾個哲學(xué)家試圖修復(fù)義務(wù)倫理學(xué)體系,但同一批人常常也熱衷于‘智能設(shè)計’或者‘神命論’之類的東西,”海爾姆說,“沒幾個人嚴(yán)肅對待他們。”

按照義務(wù)倫理學(xué),一項行為合不合道德,只決定于行為本身是否符合幾條事先確定的規(guī)范,和行為的結(jié)果、動機(jī)等等完全無關(guān)。圖片來源:www.sodahead.com

他總結(jié)了三定律的幾處缺陷:

·內(nèi)在的對抗性
·基于有缺陷的倫理框架(義務(wù)倫理)
·不被研究者接受
·哪怕在科幻文學(xué)里也會出問題

格策爾表示贊同。“設(shè)立三定律的目的就是以有趣的方式出問題,這也正是為何圍繞它們的小說如此有趣,”他說,“所以三定律只在這個意義上有指導(dǎo)作用:它告訴我們,用具體的定律來規(guī)范道德倫理是必定行不通的。”三定律在現(xiàn)實(shí)中完全無法運(yùn)作,因為其中的術(shù)語太模糊,受制于主管解釋。


歧視機(jī)器人?

三定律的另一個側(cè)面是顯而易見的基質(zhì)沙文主義——按照定律,就因為機(jī)器人的軀體是硅做的,不是血肉之軀,他們就必須遵從人類的需求,不管他們有多么強(qiáng)大的能力也沒用。

“百分之百,”格策爾說,“阿西莫夫的未來社會是光天化日的基質(zhì)沙文主義,人類擁有的權(quán)利比人形機(jī)器人的權(quán)利更多。三定律的目的就是維持這種社會秩序。”

但是,如果真的出現(xiàn)了和人類一樣聰明一樣可愛一樣有能力自主決策的機(jī)器人,我們還應(yīng)該因為他們是“人造”的而不給他們平等權(quán)利嗎?圖片來源:www.ym-graphix.com

海爾姆的視角略有不同,他認(rèn)為,如果我們真的身處這樣的場景,那我們已經(jīng)走得太遠(yuǎn)了。

“我認(rèn)為設(shè)計有意識、有自我覺知的人工智能或機(jī)器人,本身就是很不明智的,”海爾姆說,“而且,雖然那些電影小說里AI研究者常常‘不小心’就搞出了有意識的人工智能,我認(rèn)為這在現(xiàn)實(shí)中不可能發(fā)生。人們不可能純靠好運(yùn)碰上意識,需要大量的努力和知識才行。而且大部分AI研究者都是遵循倫理的人,他們會避免創(chuàng)造出哲學(xué)家所謂‘有道德意義的存在體’。畢竟,他們完全可以創(chuàng)造出不具有內(nèi)在道德問題的高階思考機(jī)器嘛。”

因此,關(guān)于設(shè)計不對稱定律、管理機(jī)器人價值的問題,海爾姆并不太在意。他認(rèn)為未來的AI研究者只需少許道德約束即可。

“話雖如此,我認(rèn)為人類也是原子組成的,所以理論上也可以人工合成一種生命形態(tài)或者機(jī)器人,讓它擁有道德意義,”海爾姆說,“我希望沒人會真的這么做,大部分人應(yīng)該也不會做。但恐怕不可避免地,總會有些好炫耀的傻瓜為了追名逐利而第一個做些什么事情——任何事情——哪怕是如此不道德、如此愚蠢的事情。”


三定律 2.0?

三定律有顯而易見的缺陷,能否用修正或者補(bǔ)丁之類的挽救它呢?而且確實(shí)有很多科幻作家這么嘗試過,多年來有不少修正版本。

“不,”海爾姆說,“三定律不會有補(bǔ)丁。不存在能挽救它的辦法。”

除了太不自洽、無法實(shí)現(xiàn)之外,海爾姆說,三定律本質(zhì)上是對抗性的。

“我更偏愛的機(jī)器倫理路線是更合作性的、更自我一致的,而且更多使用間接規(guī)范性,這樣就算系統(tǒng)一開始誤解了或者編錯了倫理規(guī)范,也能恢復(fù)過來,抵達(dá)一套合理的倫理準(zhǔn)則。”海爾姆說。

格策爾呼應(yīng)了海爾姆的觀點(diǎn)。

“定義一套倫理原則、把它作為機(jī)器倫理的核心路線,恐怕毫無希望——如果我們討論的是靈活的人工通用智能(AGI)的話,”他說。“如果AGI擁有直覺、靈活、適應(yīng)性的倫理觀,那這些倫理原則對它來說可以是有用的基本指南,幫助它使用它自己的倫理直覺。但這樣的話,這些原則就不是它的核心了,只是一個側(cè)面。人類就是這樣的——我們學(xué)會的倫理規(guī)范是有用的,但用法只是指引我們的倫理本能和直覺而已。”


如何建造安全AI?

既然定律路線行不通,那么應(yīng)該怎樣保證AI不會毀滅人類呢?

“AGI研究者里,很少有人相信能造出一個百分之百安全毫無隱憂的系統(tǒng),”格策爾說,”但這對于大部分人來說并非什么困擾,因為說到底,人生中也沒什么東西是百分之百的。”

格策爾相信,一旦我們造出了早期AGI系統(tǒng),或者至少是比我們現(xiàn)有東西強(qiáng)大得多的AGI原型機(jī),我們就可以通過研究和實(shí)驗獲得多得多的AGI倫理學(xué)信息。

“希望這種方式下我們能建立良好的AGI倫理學(xué),讓我們能更清晰地理解這個話題,”他說,“但目前為止,研究AGI倫理理論還是很困難的,因為我們既沒有很好的倫理理論,也沒有很好的AGI理論。”

他又說:“對于那些看《終結(jié)者》看多了的人,這聽起來估計有些嚇人——我們試圖建立AGI,但卻認(rèn)為只有在我們試驗過原始AGI系統(tǒng)之后才能得到相關(guān)的堅實(shí)理論。然而,絕大部分激進(jìn)的進(jìn)展都是這么發(fā)生的。”

電影《終結(jié)者》可能是最著名的機(jī)器人末日場景之一:高度發(fā)達(dá)的機(jī)器人和人類開戰(zhàn),毀滅了大部分人類文明。圖片來源:moviepilot.com

“當(dāng)一群聰明的原始人發(fā)明語言的時候,他們是等到一套成熟的語言形式理論出現(xiàn)、用它預(yù)測了語言引入社會后的未來影響,然后才動手的嗎?”

這一點(diǎn)上兩位受訪者又取得了一致。海爾姆所在的機(jī)器智能研究所花了很長時間考慮這件事情——簡短的答案是,這還不是個工程學(xué)問題。需要更多研究。

“這么說是什么意思?我在機(jī)器智能研究所的同事盧克·穆豪森總結(jié)得很好。他說,問題總是從哲學(xué)領(lǐng)域移到數(shù)學(xué)領(lǐng)域再到工程領(lǐng)域,”海爾姆說,“哲學(xué)提出有意義的問題,但這些問題常常太不精確,沒人能知道一個新答案是否意味著我們又進(jìn)了一步。但如果我們能把重要的哲學(xué)問題——智能,本體,價值——復(fù)述成足夠精確的數(shù)學(xué),要么對要么錯;接下來就可以建立模型,在此基礎(chǔ)上成功擴(kuò)展,總有一天能夠用作真實(shí)世界的工程目的。”

海爾姆說,這是科學(xué)和哲學(xué)里的一個真正難題,但是進(jìn)步依然是可能的:“我懷疑哲學(xué)能不能只靠自己解決它,畢竟過去三千年里它似乎沒有什么特別顯著的進(jìn)展。但是我們也不能憑現(xiàn)有這點(diǎn)粗淺的了解就去編程。我們還需要大量的理論研究。”

編譯自 io9: Why Asimov's Three Laws Of Robotics Can't Protect Us

題圖來源:infinitywave.deviantart.com

擴(kuò)展閱讀

“殺死”一個機(jī)器人,會有什么問題?

相關(guān)小組

微科幻

人文咖啡館

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能是否擁有獨(dú)立人格?
騰訊新聞
人工智能時代的人類幸福
《銀河帝國:基地七部曲》(下):兩萬年人類未來史,千兆人銀河帝國夢
人機(jī)生存大戰(zhàn)會從科幻走向現(xiàn)實(shí)? | AI ? 智能
Master不是人工智能 #F830
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 兴隆县| 濉溪县| 秭归县| 右玉县| 新巴尔虎左旗| 尖扎县| 山阳县| 芦山县| 扶余县| 房山区| 漳州市| 晋宁县| 邹城市| 黄大仙区| 全椒县| 揭西县| 古浪县| 大连市| 安溪县| 安庆市| 濉溪县| 庆阳市| 林甸县| 曲阜市| 南靖县| 安达市| 漳平市| 聊城市| 邵阳县| 衡山县| 常德市| 石台县| 绥芬河市| 慈溪市| 长海县| 黄骅市| 渭南市| 通海县| 万宁市| 南澳县| 辉县市|