作者 段偉文 (中國社會科學院研究員)
責編 許嘉芩 劉愈
◆ ◆ ◆ ◆ ◆
人工智能的發展不是單純的技術問題,而涉及諸多現有的倫理和法律難以規范的問題。自去年國務院頒布《新一代人工智能發展規劃》以來,為了謀求科技強國和高質量的創新發展,中國在熱情擁抱了新一輪人工智能熱潮的同時,從政府部門到產學研各界對于人工智能發展可能引發的倫理和法律問題給予了高度關注,展開了廣泛的討論。
在道德倫理層面,人工智能與機器人帶來了很多開放性的價值挑戰與倫理沖突。一方面,大數據智能和機器人的現實應用促使人們開啟了對智能化生活的倫理反思,從個人數據泄漏、短視頻算法的誤導、聊天機器人與智能音箱的不文明語言、人臉識別中的隱私安全到陪伴機器人與兒童和老人的關系,人們從來沒有像今天這樣不得不認真審度人與機器的關系。另一方面,在“人工智能來了,未來還需要我們嗎?”的遠慮的推動下,一時間《未來簡史》、《今日簡史》、《生命3.0》洛陽紙貴,“超級人工智能會不會碾壓人類?”、“人類剩余優勢清單”、“我們會不會成為無用階級”成為街談巷議,人們從來沒有像今天這樣從文明的主人會不會變更的角度關心未來。
在法律層面,人工智能與機器人的法律問題更是引起了法律界前所未有的關注。人工智能與機器人最讓法律猝不及防的是,從無人駕駛到人工智能醫生,它們雖然尚無自我意識,卻在交通、醫療等領域成為涉及人身安全的行為的代理。不論人們將它們稱為智能體還是“電子人”,它們都在一定程度上像人一樣與人們互動,一旦出現安全事故和醫療事故,人們就會面對人工智能是否應該承擔法律責任這一問題。如果法律上認定現階段的人工智能尚不具備法律行為能力,就應該對相關人類責任主體做出明確界定。將來,隨著人工智能和機器人的發展,如果人工智能和機器人能發展成為具有法律行為能力的主體,法律上應該進一步厘清智能機器應該承擔的責任,并與相關人類主體的責任做出區分。而一旦認定了智能機器的法律責任,還要進一步確立智能機器如何承擔由此應給予的罪責與懲罰。例如,如果機器人具有一定的主體性,人類與性愛機器人的關系就可能需要引入新的法律規范加以調節。
在現實層面,法律問題已經成為人工智能應用的發展瓶頸。其一是責任歸屬問題。以無人駕駛為例,人工智能的應用無人駕駛汽車在遇到安全問題時的責任歸屬成為制約其上路的關鍵因素。目前的很多無人駕駛汽車是在普通汽車基礎上改裝的,在發生事故時如何劃分責任就成為法律和保險上的難題。類似的,美國的沃森醫療機器人雖然在“看片”上有優異的表現,即便其準確率可能高于優秀的醫生,而一旦出現醫療事故如何追責就成為一個法律難題。其二是信任問題。不論是大數據預測犯罪、智能化人事簡歷審查還是機器人養老以及人臉識別在安全領域的應用,都存在著機器學習等智能算法的不透明、難理解和不易追責等問題,而這些問題最終會導致人們對人工智能應用的信任。如果不解決這些問題,人們對智能機器的信任就會大打折扣,人工智能的應用也難以推廣。實際上,人工智能法規的合理制定,既是法律前沿的難題,更是人工智能技術亟待深究的重大課題,它們可能是人類有史以來最為艱深的法律創設。概言之,人工智能法律研究和法規創制絕非對人工智能的簡單約束,而是人類社會能否實現智能化革命的關鍵性的“技術-法律”綜合創新,是權衡人機關系的光電天平,是打開未來文明的大門的萬能鑰匙。
正是帶著對這些問題的真誠追問,學界和業界正在努力追趕著人工智能發展的步伐。從賽迪發布的《人工智能創新發展道德倫理宣言》到國家標準委員會主導的《機器人倫理標準》和《人工智能倫理標準》的研制,從旨在構建世界智能聯網汽車體系的《上海宣言》到法律界和騰訊研究院等對自動駕駛法規和人工智能審判的研究,中國正在以堅實的腳步邁向人工智能時代的美好生活之路。