當(dāng)智能機(jī)器可以像人類一樣自主決策,我們就需要考慮以下問(wèn)題:它們能夠作出哪些類型的決策?它們是基于什么作出這些決策的?誰(shuí)來(lái)設(shè)定它們的決策參數(shù)?如何實(shí)現(xiàn)人工智能作出符合社會(huì)倫理道德的決策?
人工智能機(jī)器與自動(dòng)化機(jī)器設(shè)備相比,有兩個(gè)顯著不同:第一,它們被賦予了更多的決策權(quán),不再是有限決策或完全被預(yù)先設(shè)定路線或程式的功能機(jī)器;第二,它們被要求在更加復(fù)雜、充滿不確定性的環(huán)境中運(yùn)行,不僅要和其他各種類型的機(jī)器互動(dòng),更要和人類或動(dòng)物產(chǎn)生互動(dòng)。這是一種從量變到質(zhì)變的飛躍。在醫(yī)療、交通、新聞、軍事等領(lǐng)域,人工智能已經(jīng)被廣泛應(yīng)用,由此所產(chǎn)生的倫理問(wèn)題也會(huì)逐漸增多。當(dāng)下,涉及道德決策問(wèn)題的討論,最典型的當(dāng)屬自動(dòng)駕駛汽車。它們被要求具備作出“正確”道德決策的能力,而且是在沒(méi)有人為干預(yù)和指導(dǎo)的情況下。
關(guān)于自動(dòng)駕駛汽車道德決策的討論集中在與“電車?yán)Ь场鳖愃频臉O端場(chǎng)景。這一困境背后隱藏著亟待解答的問(wèn)題是,究竟該由誰(shuí)(制造者、使用者、集體和其他智能機(jī)器)來(lái)決定智能機(jī)器的道德決策的參數(shù)設(shè)定?通過(guò)類似的案例研究人工智能道德決策具有啟發(fā)性,也具有一定的誤導(dǎo)性。根據(jù)美國(guó)交通部門2013年的一項(xiàng)統(tǒng)計(jì),每1億英里只有77次受傷和1.09次意外死亡事故,而且每一起事故的發(fā)生情境都具有明顯的差異性。上述案例中,殺死或傷害誰(shuí)的道德困境的確可能發(fā)生,但出現(xiàn)的概率很小。這類研究之所以備受關(guān)注,很大程度上是因?yàn)樗P(guān)乎人們的生死抉擇。但是,自動(dòng)駕駛汽車不可能做到百分之百正確的決策,當(dāng)前工作的重點(diǎn)是確保它們被設(shè)計(jì)成在車禍情形中風(fēng)險(xiǎn)最小。
安全問(wèn)題應(yīng)當(dāng)被最優(yōu)先考慮,但它不是問(wèn)題的全部。要拓寬道德算法的范圍,涵蓋其他一些次要的因素。我們可以將自動(dòng)駕駛過(guò)程將會(huì)面臨的各種決策情形劃分為不同的等級(jí),用一個(gè)金字塔來(lái)表示:“電車難題”情形下的決策處于最頂端,數(shù)量相對(duì)少見(jiàn);道路使用者是否遵守交通規(guī)則的抉擇處于中部,占據(jù)主體部分;各種并不違反交通規(guī)則但可能影響其他道路使用者的決策情況占據(jù)金字塔的最低端。對(duì)于這些道德決策情形的研究,可以接受思想實(shí)驗(yàn)方法的啟發(fā)性指導(dǎo),但更多地應(yīng)該通過(guò)實(shí)證研究進(jìn)行。
目前,對(duì)于人工智能道德決策的研究有“自上而下”和“自下而上”兩種研究進(jìn)路。自上而下的研究是將倫理原則或某種道德理論進(jìn)行編碼,植入智能機(jī)器的制導(dǎo)系統(tǒng)當(dāng)中,自動(dòng)駕駛汽車基于被嵌入的道德哲學(xué)程序做出道德選擇。不過(guò),正如批評(píng)者們所指出的:一方面,適用于某些人的道德標(biāo)準(zhǔn)可能并不適用于其他人;另一方面,如何在互相競(jìng)爭(zhēng)的道德系統(tǒng)之間進(jìn)行選擇存在困難,這些爭(zhēng)論在傳統(tǒng)的倫理學(xué)討論中尚且沒(méi)有定論。
自下而上的進(jìn)路主張,是指智能機(jī)器不需要被嵌入任何道德規(guī)則或道德哲學(xué),它只需要“觀察”并分析大量的實(shí)際情境中人類的行為數(shù)據(jù),就能學(xué)會(huì)如何做道德決策。這種依托大數(shù)據(jù)和機(jī)器學(xué)習(xí)的進(jìn)路已經(jīng)在自動(dòng)駕駛汽車的非倫理方面被廣泛采用。例如,自動(dòng)駕駛汽車能夠通過(guò)對(duì)幾十個(gè)小時(shí)的手動(dòng)駕駛數(shù)據(jù)進(jìn)行分析實(shí)現(xiàn)自動(dòng)駕駛。不過(guò),批評(píng)者也指出,智能機(jī)器在學(xué)會(huì)道德行為的同時(shí)也會(huì)學(xué)會(huì)一些不道德行為。在面臨突發(fā)情況時(shí),司機(jī)因緊張做出的條件反射式動(dòng)作可能成為機(jī)器學(xué)習(xí)的對(duì)抗樣本,而不是審慎的和值得提倡的道德決策。這樣,智能汽車學(xué)會(huì)的只是常見(jiàn)的處理方式,而不是什么是道德的。
兩種研究進(jìn)路都面臨種種困難,這主要源于人類所使用的道德哲學(xué)的內(nèi)在結(jié)構(gòu),而不來(lái)自技術(shù)本身。當(dāng)我們考慮把某種道德規(guī)范或價(jià)值標(biāo)準(zhǔn)植入智能機(jī)器時(shí),共同體的道德一致性和智能機(jī)器使用者的個(gè)人偏好,究竟應(yīng)該優(yōu)先考慮哪一個(gè)?2016年,《科學(xué)》雜志刊發(fā)的一項(xiàng)研究揭示,大多數(shù)人都支持智能機(jī)器保護(hù)更多的人。但是,當(dāng)涉及自身或家人的生命安危時(shí),人們可能轉(zhuǎn)向相反的道德標(biāo)準(zhǔn)。
至此,我們應(yīng)該認(rèn)識(shí)到對(duì)人工智能的道德決策實(shí)施監(jiān)管是必要的。這種監(jiān)管要通過(guò)兩種途徑同時(shí)著手:一是外部制約。隨著機(jī)器學(xué)習(xí)的不斷增強(qiáng),人工智能的道德決策可能會(huì)偏離初始設(shè)置,因此監(jiān)管機(jī)構(gòu)要定期審查其道德算法是否還能通過(guò)道德水平測(cè)試;二是內(nèi)部監(jiān)控。從算法上設(shè)置一種二階程序?qū)崟r(shí)地監(jiān)控人工智能系統(tǒng)的運(yùn)行,即用人工智能監(jiān)管人工智能。
(作者:孫保學(xué),單位:湖南師范大學(xué)人工智能道德決策研究所)