【導(dǎo)讀】: 我們?nèi)狈σ环N定義,人工智能是算法還是創(chuàng)造性,或者說算法能否抵達(dá)創(chuàng)造性的彼岸。人類的智慧是否足以誕生另一種智慧?我們對(duì)人工智能危機(jī)的憂慮其實(shí)恰恰源于我們自身智慧的缺陷。
關(guān)于世界末日的問題,大多數(shù)人盡量避免去思考; 但是有一群人,這卻是他們的職業(yè)。英國牛津大學(xué)的人類未來研究學(xué)院,專門研究人類種族的未來“大圖景”, 尤其是能徹底消滅我們的風(fēng)險(xiǎn)。
正如你可能想象的那樣,所考慮的風(fēng)險(xiǎn)包括核戰(zhàn)爭和流星撞擊,還有一個(gè)一般人也許意想不到的領(lǐng)域,那就是研究人工智能構(gòu)成的潛在威脅。電腦會(huì)變得如此聰明,以至于成為我們的競爭對(duì)手,它們把所有的工作都做了,最終會(huì)不會(huì)把人類全部消滅?這種“終結(jié)者”式的場景過去似乎只存在于科幻小說,但現(xiàn)在它開始被那些研究人工智能發(fā)展方向的人所認(rèn)真對(duì)待。
斯圖爾特·阿姆斯特朗是該研究學(xué)院的一名哲學(xué)家和研究員,他說:“我認(rèn)為現(xiàn)在發(fā)表的有關(guān)甲蟲或星際旅行的學(xué)術(shù)論文遠(yuǎn)比關(guān)于研究實(shí)際存在的風(fēng)險(xiǎn)的論文多。”最近他開始專注于人工智能領(lǐng)域。“世界上很少有類似機(jī)構(gòu)在研究這些大型風(fēng)險(xiǎn).,相比其他小風(fēng)險(xiǎn)類型,如交通安全之類的風(fēng)險(xiǎn),這種大型風(fēng)險(xiǎn)的研究更是少得可憐。
“一件很可怕的事是,如果人工智能的發(fā)展出現(xiàn)偏差,它可能導(dǎo)致人類滅絕的不多的幾個(gè)原因之中的一個(gè)“。阿姆斯壯解釋說:“其他的風(fēng)險(xiǎn)的發(fā)生,其實(shí)很難導(dǎo)致人類滅絕”,“比如發(fā)生一次核戰(zhàn)爭,這只會(huì)使殺死地球上很少比例的生物。就算輻射增強(qiáng),核冬天的時(shí)間延長,如果真的出現(xiàn)這種情況,甚至在更嚴(yán)酷更極端的情況下,地球上的生物可能有90%,95%甚至99%的生物被殺死,但是卻很難讓人類滅絕,同樣,流行病也是如此,甚至更致命的流行病也是如此。
“問題是,如果人工智能(AI)出現(xiàn)偏差,95%的人類會(huì)被殺死,然后剩下的5%不久也會(huì)被消滅。所以盡管有不確定性,但這種最可怕的風(fēng)險(xiǎn)仍然可能出現(xiàn)。
當(dāng)一個(gè)人類與人工智能(AI)在酒吧相遇...
那么,我們在這里談?wù)摰氖鞘裁礃拥耐{?
“首先忘記終結(jié)者,”阿姆斯特朗說。“機(jī)器人基本上都有武器裝備,人類的進(jìn)化的天性會(huì)讓人類對(duì)此感到恐懼,但真正可怕的事是人工智能比我們聰明,比我們更善交際。當(dāng)一個(gè)人工智能機(jī)器人走進(jìn)一間酒,它手里抓著人類(男人或女人)走出來,那是一個(gè)什么恐怖場景?當(dāng)然他們也可能讓人類社會(huì)在政治,經(jīng)濟(jì),技術(shù)研究上變得更好“。
阿姆斯特朗認(rèn)為,人工智能(AI)的第一個(gè)影響是近乎全民失業(yè)。“如果人工智能(AI)達(dá)到人類智力水平,你會(huì)要一個(gè)AI,復(fù)制它100次,訓(xùn)練它,讓它們有100種不同的職業(yè)技能,再重復(fù)這種方法100次,你就有了在100個(gè)行業(yè)10000個(gè)高技能的員工。培養(yǎng)它們也許只需要一周時(shí)間。然后你再復(fù)制更多的它們,你就可以擁有數(shù)百萬的員工......如果他們是真正的超人,你會(huì)得到超出了我剛才所描述的超級(jí)雇員。“
為什么AI想要?dú)⑺牢覀儯?/strong>
好吧,讓他們奪走我們的工作吧,那些更優(yōu)秀的AI想殺死我們似乎不可思議。谷歌工程總監(jiān),瑞·古威爾持對(duì)經(jīng)過有機(jī)和機(jī)械改造的生命形式持樂觀的態(tài)度,認(rèn)為這種改造可以成為一個(gè)更有效的方式,超級(jí)電腦天網(wǎng)沒有成為現(xiàn)實(shí),如果成為了現(xiàn)實(shí),它不一定要轉(zhuǎn)而反對(duì)它的創(chuàng)造者。但是阿姆斯特朗認(rèn)為我們應(yīng)該意識(shí)到風(fēng)險(xiǎn),并且應(yīng)準(zhǔn)備應(yīng)對(duì)將要到來的風(fēng)險(xiǎn)。
“爭論的第一部分是他們可以變得非常聰明,因此很強(qiáng)大。爭論的第二部分是,要達(dá)到那種智能水平,無論它的構(gòu)造還是編程都是非常難設(shè)計(jì)的......這樣就有了一個(gè)安全邊界。
“一個(gè)專門查殺郵件病毒的程序,它的任務(wù)是努力從收到的電子郵件中把病毒過濾掉,程序要完成的這個(gè)最高任務(wù),它必須是聰明的”, 阿姆斯特朗繼續(xù)道 “如果制造出這樣的超級(jí)智能程序,那么它就會(huì)認(rèn)識(shí)到,如果殺死每個(gè)人,讓每一臺(tái)計(jì)算機(jī)關(guān)機(jī),這樣就沒有電子郵件被發(fā)送,那么郵件攜帶的病毒也就不可能被發(fā)送,這樣它的任務(wù)就能完美準(zhǔn)確地完成。
“這也許是有點(diǎn)愚蠢的例子,但它說明的一點(diǎn)是,對(duì)于要被賦于這么多的要求、任務(wù)的程序來說,“殺死所有的人類”是一個(gè)完美解決方案”
難道我們不能設(shè)計(jì)出安全模式嗎?一個(gè)具體的'不要?dú)⑷祟悺钡囊?guī)則?
“事實(shí)證明,這需要制定一個(gè)更復(fù)雜的規(guī)則,遠(yuǎn)遠(yuǎn)超過了我們最初的設(shè)定。假如你真的成功地編寫了一個(gè)程序,也就是設(shè)法定義了人類是什么,生命和死忘是什么,以及類似的東西是什么樣的,那設(shè)想一下,智能程序如何區(qū)別埋在墳?zāi)估锏娜祟惡驮诘叵?0公里深的掩體里正在輸液的人?稍有偏差就會(huì)導(dǎo)致災(zāi)難性的結(jié)果。
“所以,我們真正要做的是從本質(zhì)上定義人類是怎樣的生命形式,或者說哪些東西是不允許干涉的,哪些是允許干涉的,要做到這點(diǎn),把這些定義編碼置入人工智能里。
不確定不等同于“安全”
阿姆斯特朗描繪一幅人工智能接管了世界后的可怕畫面,但這是必然發(fā)生的嗎?這是不確定的,但我們不能就此放寬心。
“增加的不確定性是一個(gè)壞的跡象,而不是一個(gè)好的。當(dāng)全球變暖的人群提到‘但這些會(huì)導(dǎo)致什么樣的結(jié)果是不確定的’,人們往往會(huì)理解成‘因?yàn)椴淮_定性增加了,所以我們更安全了’,這是很可怕的,增加的不確定性其實(shí)總會(huì)帶來不好的結(jié)果。
“所以,如果人們說不確定因素增加,結(jié)果幾乎總是增加了尾部風(fēng)險(xiǎn)的概率 – 如前面說的氣候變化的結(jié)果是不確定的,其實(shí)結(jié)果就氣候變得更糟糕。所以說:‘我們不太清楚人工智能(AI)會(huì)帶來什么’與 ‘我們知道,AI是安全的’是不一樣的,既使我們下意識(shí)地會(huì)認(rèn)它們是一樣的。 “
什么時(shí)候我們才可能看到真正的人工智能(AI)?
阿姆斯特朗說,預(yù)測何時(shí)我們能擁有超級(jí)智力的AI,是很難回答的問題。
在哪兒給人工智能編程?如果直接在計(jì)算機(jī)里編程,這里的不確定性非常高,因?yàn)槲覀儞碛杏?jì)算機(jī)的時(shí)間還很短,另一種方法是全腦仿真,有人把他們稱作'上傳',就是復(fù)制人腦的思想到計(jì)算機(jī)。這種方法也許更可靠,因?yàn)榕c人工智能相比,我們對(duì)自已要完成的任務(wù)很清晰,并有明確的路徑達(dá)到它,這種方法制造的人工智能再花一個(gè)世紀(jì)左右的時(shí)間應(yīng)該可以實(shí)現(xiàn)。“
如果計(jì)算機(jī)僅僅只是象人類那樣思考,那可能就不會(huì)出現(xiàn)太糟糕的情況。
阿姆斯特朗說“(與)一個(gè)全腦仿真的AI就是一個(gè)自然人的心靈,這樣我們就不必?fù)?dān)心人的心靈會(huì)誤解”保持人類安全“這個(gè)問題,我們需要擔(dān)心的只是一個(gè)人出現(xiàn)暴力這種問題,這個(gè)問題也是我們過去經(jīng)驗(yàn)中經(jīng)常遇到過的,我們可以通過限制他的行為等方法,辦法很多,當(dāng)然這些方法可能有用也可能沒用,但是與處理完全外來的人工智能的思想來說,就不算什么難題。“
大衛(wèi)
真正的人工智能肯定比任何人類聰明,它們什么時(shí)候出現(xiàn)現(xiàn)在還不能預(yù)測。
“你可能認(rèn)為你聽到過比較靠譜的人(比如庫茲威爾,也可能別的人,他們有的支持AI,有的反對(duì)AI)預(yù)測人工智能出現(xiàn)的時(shí)間。但是我回顧了一下,雖然沒有理由懷疑這些專家都不知道自已在說什么,我要說的是真正的人工智能從來沒有存在過,因?yàn)樗麄儧]有存在的,他們也不可能反饋任何有價(jià)值的信息,所以我們也就沒有任何我們需要的有實(shí)際意義的理論。
“如果你預(yù)測他們會(huì)在下個(gè)世紀(jì)大量出現(xiàn),那么接下來你會(huì)看到,其實(shí)是沒有清晰的發(fā)展模式來支持這個(gè)說法。所以肯定的是有強(qiáng)有力的證據(jù)表明,沒有人知道人工智能什么時(shí)候出現(xiàn),是否會(huì)出現(xiàn)。
“這種不確定性是雙向的,關(guān)于人工智能不會(huì)出現(xiàn)以及人工智能不會(huì)很快出現(xiàn)的論據(jù)不充分。因此,正如人們也許會(huì)猜測AI可能在一個(gè)世紀(jì)的時(shí)間內(nèi)出現(xiàn),同時(shí)也可以認(rèn)為它在五年內(nèi)出現(xiàn)。
“假設(shè)有人想出了一個(gè)完美算法,輸入大量數(shù)據(jù),得出結(jié)論,AI能夠推廣,把這個(gè)結(jié)論當(dāng)成證據(jù),但是AI不會(huì)很快出現(xiàn)的可能性更大。
技術(shù)的哲學(xué)
當(dāng)我與阿姆斯特朗交談后,我發(fā)現(xiàn)目前這一代的哲學(xué)家,往往被其他學(xué)術(shù)圈所忽略,他們扮演的角色就是指導(dǎo)人類如何與日益發(fā)展的“智力”技術(shù)術(shù)互動(dòng)。
阿姆斯特朗把這個(gè)過程比作電腦編程。“我們試著把所有的一切都分解成最簡單的術(shù)語,就像你把它編入一個(gè)AI或進(jìn)入任何一臺(tái)計(jì)算機(jī)一樣。編程經(jīng)驗(yàn)是很有用的。幸運(yùn)的是,哲學(xué)家,特別是分析哲學(xué)家,已經(jīng)在做這件事。你只需要稍稍再增加點(diǎn)程序。所以,看看你有什么,你如何落實(shí)它,你如何學(xué)習(xí)這些理論,你怎么知道世界上的一切,如何清楚地定義它們變得非常有用也是必須的。
AI對(duì)你的工作的威脅
阿姆斯特朗面臨的最大的問題,人們根本不相信人工智能會(huì)對(duì)人類的工作產(chǎn)生毀滅性的威脅,這個(gè)問題其實(shí)是很重要的。
“人類不善于處理極端風(fēng)險(xiǎn),”他說。“一般人和決策者, 還不能共同處理影響力大、概率卻小的事件。。。人類深具探索性,也有心理地圖把滅絕這類事件歸入一個(gè)特殊的類別 - 也許它們是”探索者和宗教或瘋狂的人“,或者類似的東西。”
阿姆斯特朗的工作正在取得進(jìn)展,關(guān)于人工智能威脅我們的工作這個(gè)提法逐漸讓人們接受, “,這是一個(gè)非常合理的恐懼,與中級(jí)風(fēng)險(xiǎn)與極端風(fēng)險(xiǎn)相比,這個(gè)問題似乎得到了人們的更多的重視“,他說。
“人工智能可以取代幾乎任何人,包括那些過去不會(huì)被替換或者外包的職業(yè)。因此,即使我們不看危險(xiǎn)的方面,這個(gè)問題也值得擔(dān)心。我個(gè)人覺得,如果我說人們都失去他們的工作,比我說人類會(huì)滅絕更能引起人們的關(guān)注。這可能是前一個(gè)問題對(duì)所有人來說更實(shí)際。“
我覺得可以結(jié)束談?wù)撨@個(gè)哲學(xué)問題了。阿姆斯特朗的工作可以由AI來代替嗎?或者哲學(xué)是人類固有追求?
“有趣的是為什么哲學(xué)家不會(huì)被AI取代,哲學(xué)家成為人工智能比成為人類更合適,因?yàn)檎軐W(xué)是人的職業(yè),”他說。
“如果人工智能善于思考,它會(huì)發(fā)展得更好。我們會(huì)更愿意把更好的哲學(xué)思想置入人工智能,當(dāng)AI開始自我學(xué)習(xí)時(shí),就不會(huì)朝危險(xiǎn)的或與人類期望相反的領(lǐng)域拓展。
“這并不意味著,在后人工智能的世界,就不會(huì)有人類哲學(xué)家研究人類哲學(xué),我們希望人類做他們認(rèn)為有價(jià)值的和有用的事。這是非常合理的,在后人工智能社會(huì)存在哲學(xué)家,另外的人們做他們覺得是值得的事。如果您想做浪漫一點(diǎn)的工作,那可能是傳統(tǒng)的那種農(nóng)民。
“我確實(shí)不知道你將如何組織一個(gè)社會(huì),但你必須組織它使人們會(huì)發(fā)現(xiàn)一些有用的,富有成效的事,其中可能包括哲學(xué)。
“‘人工智能可以做事可以遠(yuǎn)超人類水平嗎?“,可能是的,但最有可能的,我們不能輕易區(qū)別人類哲學(xué)家和人工智能。”
從終結(jié)者系列電影到成為現(xiàn)實(shí),還有很長的路要走,在未來戰(zhàn)場上,作為一種威懾,擁有殺人能力的自主機(jī)器人已經(jīng)受到重視。
AI周圍的不確定性就是為什么我們不應(yīng)該忽略斯圖爾特·阿姆斯特朗這樣的專家給我們的警告。當(dāng)機(jī)器在快速發(fā)展,我們需要作好準(zhǔn)備。
聯(lián)系客服