1936年,捷克著名科幻劇作家恰佩克(KarelCapek)在喜劇《羅素姆的萬能機器人》中首次使用“robota”(機器人)這個詞,后來演化為“robot”,指的是經過生物零件組裝、為人類服務的奴隸。20世紀50年代后期,恩格爾伯格(JosephF.Engelberger)研制出第一臺工業機器人。20世紀60年代,機器人進入了全面發展時期,機器人的發展經過計算智能、感知智能層次,已經向著認知智能層次發展。隨著人工智能的應用,機器越來越像人,甚至超過了人類的能力。人工智能機器人通常被認為是人工智能系統的載體,機器人是人工智能的承載者。如何設計與對待機器人也進入學者視野,機器人倫理學(robotethics)因此誕生。我們在追溯機器人倫理研究緣起、分析機器人倫理學的理論預設基礎上,對于機器人倫理究竟是機器的倫理還是人的倫理予以澄清。
一、機器人倫理研究緣起
1.機器人技術潛藏著難以預估的風險
從簡單的圖靈測試到世界上第一位具有國籍的機器人公民索菲亞的出現,機器人的發展有失控的風險,難以預測機器人技術的走向是否能夠被人類準確評估與規范,也沒有任何的經驗或者教訓可以借鑒和吸取,貝克(U.Beck)在《風險社會》中提到“正是無法預見的東西創造了曾經未知的情境”[1]。21世紀以來,軍用殺戮機器人在戰場上誤殺無辜生命,無人駕駛汽車致使行人死亡,聊天軟件公開發表種族歧視、性別歧視的言論,人臉識別涉嫌種族歧視,機器人在虛擬互動中通過“作弊”獲得用戶的隱私信息等負面事件不斷出現,引發人類對于機器人的負面效應的思考。機器人技術出發點本來是“為己”的,現在卻變成了“異己”的力量,導致“機器人異化現象”出現。機器人帶來失業風險,福特(MartinFord)在《機器人崛起:技術,以及失業的未來威脅》中著重從教育、金融以及醫療等領域機器人的發揮說明機器人的社會影響,特別是導致勞動者失業[2]。有的學者認為智能機器的負面影響已經超過了正面的積極作用,智能機器人所帶來的風險超過了它的積極作用。智能機器人所帶來的負面影響和風險給人類生活造成了影響,從失業風險到信息泄露,機器人的出現不但帶來技術風險而且帶來社會風險和環境風險,甚至影響人類生命安全,機器人的負面影響及其倫理規范引發學者思考。
2.機器人威脅人類的主體地位
隨著人工智能的發展,機器越來越像人,機器不僅僅具有工具屬性,還具有獨特的存在價值,機器人開始挑戰人類的主體性,人類對智能機器的發展表現出恐慌心理。智能機器不僅僅是簡單的工具與客體,機器人不再局限于人類肢體的延伸與作用的增強,機器人具有自主決策與推理能力,可能具有自由意志與人類情感,這可能威脅到人類的主體地位,引發人類主體性地位喪失。隨著機器人技術的突破,智能機器人在社交、知覺、創造力、自然語言理解等方面的能力不斷突破,在帶來巨大的物質力量、促進社會進步與人類發展的同時,也引發人類主體性地位喪失的可能性與風險。西蒙(H.Simon)、紐維爾(A.Newell)與數學家肖(C.Shaw)的研究結果表明,機器是可以使用邏輯規則進行推理,并最終作出合理決策的。人工智能先驅明斯基(MarvinMinsky)在《理解人工智能》雜志上發表《機器人會掌控世界嗎?》來探討機器掌控人類世界的問題。國際象棋被公認是挑戰人類智能的一項運動,1997年,深藍計算機戰勝國際象棋冠軍卡斯帕羅夫就曾引發人類對于機器智能超越人類智能的思考。“技術可以導致人類的勞動價值喪失;個人的孤獨封閉和人際間的疏遠冷漠等精神方面。人的思維成為無必要的。技術就是一個摒棄人類能力的過程?!?/span>[3]智能機器的發展正在日益威脅到人類的主體性地位。
3.機器人帶來新的倫理問題
機器人倫理學家格魯吉奧(G.Veruggio)指出:“機器人技術正在迅速成為科學技術的領先領域之一,因此我們可以預言在21世紀人類將與我們所擁有的第一個外星人智慧共存———與機器人接觸。”[4]機器人的出現與發展,除了需要解決傳統的倫理問題之外,還引發一些新的倫理問題。隨著機器人的應用,機器誤傷兒童、無人駕駛汽車撞死人事件時有發生,影響人類安全。例如,2016年,谷歌Lexus無人駕駛汽車事故;2018年5月,特斯拉Autopilot模式引發的交通事故;2018年,Uber無人駕駛汽車致人死亡事故等,這些都涉及機器人使用安全問題。1979年1月,美國發生第一例機器人殺人事件,1982年英國某工廠的機器人將操作員的手臂砍斷。2016年11月18日,在第十八屆中國國際高新技術成果交易會上,發生機器人傷人事件。機器人傷人、殺人事件時有發生,威脅人類安全,到底是設計者還是機器應該對此類事件負責呢?這帶來機器是否是道德主體的疑問。機器學習與圖像識別技術讓無人駕駛汽車輕松上路,卻帶來機器設計道德上的倫理困境的思考等等。機器人采集數據涉及到數據共享與隱私之間的悖論。數據既包括個人的社會信息,比如通信方式、家庭住址等,也包括個人的物理信息,如個人的人臉識別特征、指紋、音色等,這些信息一旦被濫用,則可能對個人的生命、財產安全構成威脅。機器人是否能夠獨立承擔責任等倫理問題。由于不能公平地使用機器人帶來國家與地區間的經濟發展差異,機器人的使用導致社會不公平現象的出現等。上述問題都是隨著機器人出現而引發的新問題,我們也嘗試通過在機器人中內置道德來規避這些新倫理問題,尋找解決傳統倫理問題或者新倫理問題的途徑。
二、機器人倫理學理論預設分析
機器人倫理學隨著機器人出現而誕生,2004年,由意大利比薩圣安娜藝術實驗室和羅馬圣十字學院的神學研究所合作舉辦的第一屆機器人倫理學國際研討會,推動了人們對機器人倫理學的關注。格魯吉奧在這次會議中提出“機器人倫理學”這個術語,2004年,IEEE-RAS成立了機器人倫理技術委員會。2004年2月25日,日本發布《福岡世界機器人宣言》。2005年、2007年機器人與自動化國際協會在西班牙的巴塞羅那召開機器人倫理的研討會,對機器人倫理學進行研究。
1.人與機器的區別是機器人倫理學的理論預設
首先要承認機器人與人相區別,機器不可能成為人,也就不能成為道德主體,這樣才有機器倫理學與機器人倫理學的區分。所謂道德主體(moralagents)指的是具有自我意識,能夠進行道德認知,能夠進行推理并形成自我判斷,能夠進行道德選擇與實施道德行為且承擔道德責任的道德行為體。在此基礎上,才有可能研究機器人倫理學。人工智能先驅德雷福斯(H.Dreyfus)強調人與機器的區別,他在《計算機不能做什么:人工智能的極限》一書中提出人工智能是基于生物學假設、心理學假設、認識論假設以及本體論假設基礎之上的?!吧飳W假設:在某一運算水平上,大腦與計算機一樣,以離散的運算方式加工信息。心理學假設:大腦被看做一種按照形式規則加工信息單位的裝置。認識論假設:一切知識都可被形式化,可以被編碼成數字形式。本體論假設:存在是一組在邏輯上相互獨立的事實,知識可以被編入計算機程序?!?/span>[5]從德雷福斯總結的人工智能的四個假設來講,機器與人有本質的區別,人類推理依賴于本能與直覺,而智能機器依賴于算法與程序,智能機器不可能具有人類一樣的道德主體地位,學者基于機器與人的區別關注機器人倫理。
2.機器人不具有道德主體地位
機器人不可能成為道德主體,這是機器人倫理學的第二個理論預設。美國達特茅斯學院的哲學教授摩爾(JameH.Moor)在《機器倫理的本質、重要性與困難》(TheNature,Importance,andDifficultyofMachineEthics)中提出,界定機器是否具有道德主體地位是困難的,倫理只是情感的表達,機器不可能有情感,但在當今的技術世界,我們不能也不應該避免對機器倫理的考慮。摩爾通過層次模式對人工道德主體進行了分類,他把道德主體分為四類:道德影響主體(ethicalimpactagents)、隱性道德主體(implicitethicalagents)、顯性道德主體(explicitethicalagents)以及完全道德主體(fullethicalagents) [6]。最低層次是“道德影響主體”,指的是任何可以對其道德后果進行評估的機器。摩爾舉例在卡塔爾啟用機器人代替了小男孩參加騎駱駝比賽來說明機器對道德的影響。第二層次是“隱性道德主體”,指的是機器的設計者通過解決設計過程中的安全和關鍵可靠性問題,努力對其進行設計,使其不會產生負面的道德影響。在這種意義上,所有的機器都應該被設計成隱含的道德主體,都是為了避免不道德的結果而被限制某方面功能的機器。第三層次是“顯性道德主體”,指的是機器使用倫理類別作為其內部編程的一部分進行倫理推理,可能使用各種形式的道義邏輯,或者使用各種其他技術,這種機器是具有道德行為算法的機器,有一定的倫理判斷及行為能力。在摩爾看來,顯性道德主體彌補了人類的不足,因為人類在獲取與處理信息方面的能力可能不如計算機,在決策速度上也不如計算機。顯性道德主體在避免災難的情景中可能是最佳的道德主體。第四層次是完全道德主體,完全道德主體表現在機器與人類一樣具有倫理道德能力,即具有自由意志、具有意識及意向性,這種機器具有完全的道德主體地位。機器人不具有自由意志、意向性,因此,機器人不具有人類的道德主體地位,不能準確評估行為后果,也不能獨立承擔責任,機器人只是按照程序行動,不具有人的主觀性,因此機器人不能作為道德主體。
三、機器人倫理學的內涵辨析
2017年,瓦拉赫(WendellWallach)與阿薩羅(P.Asaro)編輯了《機器倫理與機器人倫理》一書,收集了關于機器倫理與機器人倫理以及道德主體等方面的文章。機器人倫理(robotethics)與機器倫理(machineethics)在內涵界定、研究范疇以及責任主體方面都有差異。
1.機器人倫理學與機器倫理學內涵辨析
機器人倫理學家格魯吉奧首次將機器人倫理學縮減為“roboethics”這個單詞,他認為機器人的發展是由三大基本元素構成:人工智能、機器人技術和倫理學,其中,機器人技術是一個研究機器人的設計、制造、操作和使用的領域。人與機器的區別是機器人倫理學的研究預設,首先要承認機器人與人相區別,機器不能成為人,也就不能成為道德主體。機器倫理學與機器人倫理學內涵不同,機器倫理學指的是機器具有了人的主體地位之后出現的倫理問題,例如,機器如何表現出符合人類倫理道德的行為,機器傷害人類后如何承擔責任,等等。機器倫理學是人工智能倫理的一部分,涉及到人工智能物的道德行為,人工智能機器作為實際的或潛在的道德主體而存在,不但如此,機器可能具有自主學習能力,具有自我意識、自由意志、人類情感與人類智能。機器具有自由意志和道德主體地位,能夠獨立承擔責任是機器倫理學的理論前提。美國人工智能專家庫茲韋爾(RayKurzweil)預言:“擁有自我意識的非生物體(機器人)將于2029年出現,并在21世紀30年代成為常態,他們將具備各種微妙的、與人類似的情感?!?/span>[7]機器與人一樣具有理性,能夠辨識自己的行為,能夠獨立承擔責任的道德主體,因此,可以有針對機器的倫理學,機器倫理學關注的是機器對人類用戶和其他機器的行為,機器倫理是以機器為責任主體的倫理學。
2.機器人倫理學與機器倫理學的研究范疇辨析
機器人倫理學與機器倫理學研究范疇有相近之處,機器倫理學是關于以機器為智能主體的研究。例如,2009年,牛津大學出版社出版了溫德爾·瓦拉赫(WendellWallach)與科林·艾倫(ColinAllen)的《道德機器:如何讓機器人明辨是非》(MoralMachines:TeachingRobotsfromWrong),涉及到機器自主行為的倫理后果以及機器自主的最近和潛在發展,關注的是像人類倫理一樣的機器道德。機器倫理學的發展要求在機器上增加一個道德層面的內容,提高道德考量比重。2011年,美國康涅狄格州哈特福德大學機器倫理學家邁克爾·安德森(MichaelAnderson)與美國大學哲學系教授蘇珊·安德森(SusanLeighAnderson)夫婦編著《機器倫理》(MachineEthics)一書,對機器倫理的本質與內涵進行詳細分析,機器倫理學研究機器道德,把機器作為具有自由意志,能夠獨立承擔責任,具有道德主體地位,機器與人的地位是完全相同的。機器人倫理學與機器倫理學的研究范疇不同,它指的是人在設計機器人中的倫理學,機器人倫理學的研究范疇主要包括機器人制造與使用階段的倫理道德問題以及把人類道德規范嵌入到機器人的操作系統中等問題,關注機器人設計者的道德以及機器人設計應用引發的人類安全、設計公平、社會穩定以及環境影響等問題。
3.機器人倫理學是以人為責任主體的倫理學
機器人倫理強調人與機器的區別,機器倫理把機器當做人來看待。學者基于機器與人的區別關注機器人倫理。美國加州理工大學哲學系帕特里克·林(PatrickLin)在《機器人倫理:機械化世界的問題映射》(RobotEthics:MappingtheIssuresforaMechanizedWorld)中強調機器人設計,關注在機器人設計環節如何實現價值的嵌入,從而設計出有道德的機器人,提出設計具有同情心和無私情懷的機器人的設想。帕特里克在《機器人倫理2.0:從自動駕駛汽車到人工智能》(RobotEthics2.0:FromAutonomousCarstoArtificialIntelligence)中,認為構建機器人倫理要在道德機器的基礎上,增加法律責任的考量,指出隨著智能機器人的智能水平的不斷提高,智能機器能在一定程度上為其行為負法律責任,并詳細闡述了其法律責任分配的依據,其中就包括了設計者可能要肩負的法律責任等內容。對于機器人倫理來講,研究主要集中在人類負責任和不負責任地使用人工智能技術。根據機器人倫理學家阿薩羅的概括,機器人倫理學至少包括三個方面內容:“首先,機器人內置的倫理系統;其次,設計與使用機器人的倫理;再次,人類如何對待機器人的倫理”[8]??梢钥闯?/font>,人機關系是機器人倫理的核心問題,機器人倫理學指的是人在設計機器人中的倫理學,機器人制造和部署的倫理道德問題,用來處理人們發明機器人的倫理道德問題。在機器人倫理學家看來,機器不具有人類的主體地位,也不能獨立地承擔責任。人工智能仍然只是人類決策的輔助工具時,即機器仍由人來控制和干預時,機器作惡可用已有的道德和法律規則來進行約束,因為此時作出錯誤決策的是人本身而非機器,機器只是人的命令和指令的執行者而已。機器人倫理學主要關注的還是機器設計中的設計主體責任以及機器應用帶來的社會倫理問題,從這個意義來講,機器人倫理學是作為應用倫理學的分支存在的。
通過上述分析我們可以知道機器人倫理學關注人工智能設計以及人工智能給人類帶來的倫理問題,例如,數據挖掘倫理、人工智能社會倫理等問題;機器倫理認為人工智能具有自我推理與決策能力,所以主要研究機器在決策過程中決策失誤、傷害人類身體以及損害人類利益中的倫理問題。機器人倫理學是設計、制造以及對待機器人的倫理學,這種倫理學一般針對設計主體來說的,機器人倫理學屬于“以人為中心”的倫理學,責任主體是人,主要研究設計者在機器人設計、使用中的倫理規范;機器倫理學是機器人具有了人類智能后應該遵循的倫理規范,機器倫理學是“以機器為中心”的倫理學,責任主體是機器。這是機器人倫理學與機器倫理學之間的本質差異。
四、機器人倫理學的實踐路徑
機器人倫理學是一門迅速發展的跨學科研究,它屬于應用倫理學與機器人學的交叉領域,旨在理解機器人技術,尤其是機器人的倫理含義和后果。機器人倫理學是以“人”為責任主體的研究學科。研究機器人倫理應該在分析人的機器人倫理立場、機器人倫理的研究進路以及機器人倫理的制度保障等方面進行研究。
1.機器人的倫理立場分析
2005年,格魯吉奧與歐普圖(F.Operto)等人在美國電子電氣工程師協會召開的機器人與自動化國際會議上總結了對待機器人的三種倫理立場:第一,對機器人倫理沒有興趣;第二,關注機器人倫理的短期問題;第三,關注機器人倫理的長期問題[9]。對機器人倫理不感興趣的人認為人類的行為是中性的,不負載價值,因此設計機器人、利用機器人不存在價值取向,設計中不存在設計者的道德責任,因此,沒有必要提倡機器人倫理。對機器人倫理的短期倫理問題感興趣,堅持這種立場的人認為機器人應該區分為“好”與“壞”兩類。他們覺得機器人必須遵守社會習俗或者參考某些文化價值觀,包括在不同領域“尊重”和幫助人類。對機器人倫理的長期倫理問題感興趣,堅持這種立場的人從全球性、長期性視角關注機器人的倫理問題。例如,關注發達國家與發展中國家的“數字鴻溝”,承認工業化國家和貧窮國家之間的差距,思考發達國家是否應該改變他們發展機器人的方式以便有利于發展中國家發展等長期性倫理問題。
2.機器人倫理研究進路分析
瓦拉赫、艾倫與斯密特(I.Smit)提出機器人倫理的兩種進路:即“自上而下進路”(top-downapproach)與“自下而上進路”(bottom-upapproach)。自上而下的倫理學進路建立在找出或者表征作道德決策的一般或者普遍原理的基礎上。自上而下的進路是將規則轉換為道德算法嵌入到機器人設計中,例如將效果論(consequentialisttheories)、功利主義(utilitarianism)倫理學、康德的道德律令、法律和職業規則等嵌入到機器人的設計中,將人類的道德決策分解為可計算、可管理的模塊或者組件。在這種意義上,阿西莫夫機器人三定律就屬于“自上而下”的機器人倫理學,“任何討論'自上而下’式的機器人道德設計不能不談阿西莫夫三定律”[10]。阿西莫夫機器人三定律包括以下三條:“第一條,機器人不得傷害人類個體,不能目睹人類受到傷害不干預;第二條,機器人必須服從他的命令,命令與第一條沖突時除外;第三條,機器人在不違反第一第二條的原則下,要保護自己的安全?!?/span>[11]后來又增加了“第零法則”,即機器人不得傷害人類,或者,因為不作為,讓人類受到傷害。
因為機器具有智能以及自我推理與決策能力,應該通過前攝倫理或者在機器中嵌入人類道德。需要一種“道德算術”,例如,吉普斯(JamesGips)給出基于效果論機器人的“自上而下進路”的嘗試。吉普斯認為在結果論中,行為由結果來判斷,為了能夠以結果論的方式進行道德推理,機器人應該具備以下條件:描述世界情境的方法;產生可能行動的方式;一種手段可以預測基于當下情境采取行動而導致的后果;根據情況的好壞或者可取性來評價它的方法。在此基礎上吉普斯構建機器人倫理的評價指標體系,通過分析道德利己主義者與道德利他主義者的差異,將道德分解為機器人可執行的算法來思考機器人倫理的自上而下研究進路的實踐路徑。除此之外,吉普斯還給出基于義務論(deontologicaltheories)與美德論(virtue-basedtheories)的機器人倫理的自上而下的研究進路。義務論不同于結果論,在義務論中行為的評價是基于行為本身,而不是基于行為的結果。效果論一般不關注特定的行動實施的理由以及行動實施的主體,但道義論把責任直接歸屬于主體的具體本性,不同種類的主體就會有不同的責任。吉普斯通過把普遍的道德規范變成具體的道德算法從而使機器人行為符合道德規范,這是非常典型的自上而下研究進路。通過倫理原則在機器人中嵌入道德,關注設計者的責任與道德。
機器人倫理的“自下而上”的研究進路是按照具體的設計情景來制定具體的設計標準。人類的道德是動態的,必須在具體的設計情景中去把握。必須協調好利益相關者之間的關系,可以通過計算機模擬測試各種設計策略,運用博弈論觀點選擇最佳設計方案。丹尼爾森(PeterDenielson)在《人工道德:虛擬游戲中的道德機器人》[12]中提出“功能性道德”,認為理性是智能體成為道德智能體的前提條件?;魻?JoshDtorrsHall)也關注自下而上的道德機器設計,2007年,他編著《超越人工智能:創造機器良知》(BeyondAI:CreatingtheConscienceoftheMachine),霍爾認為人工道德智能體需要一個“共謀者擔保協議”以便從動態的情景去設置道德算法。機器人倫理從動態的社會機制輸入道德信息,從而對人工道德智能體的整體設計提供技術與標準。還有的學者堅持“自上而下”或者“自下而上”相結合的研究進路,通過普遍性的倫理規則與具體的道德情境相結合,構建人工道德智能體。
3.機器人倫理的制度保障分析
沒有既定的倫理準則與法律制度去遵守和執行,機器人具體倫理要求能否在技術層面真正實現還存在爭議。為了規范與引導機器人技術的良性發展,國家部門、社會組織、行業學會以及設計者也從不同視角作出努力。2004年,機器人倫理技術委員會(TheTechnicalCommitteeonRobotEthics)建立,目的是提出和解決機器人研究和技術所引發的相關的緊迫倫理問題。2005年,歐洲機器人學研究網絡(EuropeanRoboticsResearchNetwork)資助機器人倫理學工作室(RoboethicsAtelier)項目,任務是繪制第一個機器人倫理路線圖(roboethicsroadmap)。機器人倫理路線圖的最終目的是對機器人研發中涉及的倫理問題提供系統的評估;增加對有關問題的認識,并促進進一步的研究和跨學科研究。2016年,聯合國教科文組織與世界科學知識與技術倫理委員會聯合發布報告,討論機器人進步以及帶來的社會與倫理道德問題。2016年,英國標準協會(BSI)頒布《機器人和機器系統的倫理設計和應用指南》。2017年1月,阿西洛馬會議公布的阿西洛馬人工智能原則(AsilomarAIPrinciples)從科研問題、倫理價值以及長期問題三個視角保障人工智能的安全與合乎道德,給機器人設計者戴上“緊箍咒”。IEEE在2015年和2017年提出“合乎倫理設計”(ethicallyaligneddesign,簡稱EAD)規范,呼吁在機器人設計中嵌入人類規范與道德價值觀,避免人工智能導致的社會不公平、算法歧視等社會問題。
除此之外,各國還制定相應的法律法規保障機器人的規范發展。例如,2008年,韓國國會議員提出《智能機器人法》,韓國政府強制實施的機器人特許狀制度,用法律與制度約束機器人產業的發展,2017年韓國出臺《機器人基本法案》,2017年2月16日,歐盟議會投票通過一項決議,就制定《機器人民事法律規則》提出具體建議。日本對于機器人應用部署問題制定的管理方針,包括建立中心數據基地來存儲機器人對于人類造成傷害的事故報告。
綜上所述,機器人倫理學不同于機器倫理學,機器人倫理學是以人為責任主體的倫理學,涉及到人類如何設計機器人,如何將人類道德嵌入機器人以及如何對待機器人等問題。我們應該通過普遍性的倫理規則與具體的設計情景相結合,發揮設計者、行業協會、企業、政府部門等不同設計主體的作用,通過法律、倫理等不同層面保障機器人的良性發展,發揮機器人的積極作用。
閆坤如
【參考文獻】
[1]烏爾里希·貝克.世界風險社會[M].吳英姿,孫淑敏,譯.南京:南京大學出版社,2004:11.
[2] FordM.RiseoftheRobots:TechnologyandtheThreatofaJoblessFuture[J].NewYork:BasicBooks,2015:1-3.
[3] EllulJ.TheTechnologicalSystem[M].GrandRapids:Wm.B.EerdmansPublishing,1990:95.
[4] VeruggioG.TheBirthofRoboethics[R]//IEEEInternationalConferenceonRoboticsandAutomation.Barcelona:ICRA,2005.
[5] DreyfusHL.WhatComputersStillCan'tDo:ACritiqueofArtificialReason[M].Cambridge:MITPress,1992:156.
[6] MoorJH.TheNature,Importance,andDifficultyofMachineEthics[J].IEEEIntelligentSystems,2006,21(4):18-21.
[7] KurzweilR.HowtoCreateaMind:TheSecretofHumanThoughtRevealed[M].NewYork:ThePenguinGroup,2014:195.
[8] AsaroPM.WhatShouldWeWantfromaRobotEthic?[J].InternationalReviewofInformationEthics,2006(6):9-16.
[9] VeruggioG,OpertoF.Roboethics:ABottom-upInterdisciplinaryDiscourseintheFieldofAppliedEthicsinRobotics[J].InternationalReviewofInformationEthics,2006(12):2-8.
[10] WallachW,AllenC.MoralMachines:TeachingRobotsRightfromWrong[M].Oxford:OxfordUniversityPress,2008:91.
[11] 阿西莫夫.銀河帝國8:我,機器人[M].葉李華,譯.南京:江蘇文藝出版社,2012:1.
[12] DenielsonP.ArtificialMorality:VirtuousRobotsforVirtualGames[M].London:Routledge,2002.