作者簡介
王東:南京師范大學馬克思主義學院博士研究生;
張振:南京師范大學人文社會科學研究院教授,博士生導師。
摘要
人工智能的迅速發展給人們生產生活帶來了極大便利,同時也引起了一定的倫理風險問題,諸如技術倫理風險、社會倫理風險和人類生存倫理風險等。這些倫理風險的背后是主體規范缺失和角色失準、情境變化中矛盾展現、人類關于實踐意義認知差異和原則淡化、倫理形態的嬗變與重構等因素。規避人工智能所帶來的倫理風險,須堅持維護人類共同利益的最高倫理規范,在全面深化基本原則遵循的基礎上,推進倫理制度建設和新型人機關系建構,不斷提升人類應對科技迅猛發展帶來的倫理風險的能力和水平。
關鍵詞:人工智能;倫理風險;規避路徑
人工智能的迅速發展是現代社會智能化水平愈發提升的顯著表現,對人類生產生活方式產生了根本性影響。正如杰瑞·卡普蘭說到:“在未來幾年內,機器人與人工智能給世界帶來的影響將遠遠超過個人計算和互聯網在過去30年間已經對世界造成的改變。”人工智能不僅是作為一種社會和經濟上的變革性技術,更是關于人類生存意義的倫理挑戰。倫理被還原成一種技術性的存在,不可避免地將會引發倫理沖突,在解構傳統倫理關系的同時,帶來了新的倫理挑戰與風險。以人工智能為代表的技術發展與人類生存的倫理審思是現代倫理學關注的核心議題,在科學速率急速發展的智能社會顯得更為突出。如何準確審視人工智能時代的倫理風險,深度透視風險之后的內在原因,尋找規避倫理風險的踐行方案,是我們面對智能化道德實踐必須回應的重大時代課題。
一、人工智能倫理風險的時代鏡像
人工智能技術能力的日益增強,特別是當人工智能進入深度學習與感情交流,可以進行團體協作行動時,也就是說當人工智能開始挑戰、突破甚至完全脫離人為其設計好的初始算法而自我創制新算法時,人工智能必然影響整個人類社會發展。與此同時,人類由于自身的認知能力受到一定時空條件的限制,對人工智能可能產生的倫理后果將難以預測。面對高速率發展的人工智能時代,人類傳統道德倫理范式出現了非適應性的斷裂,人工智能時代正為我們呈現出一副人機關系新的倫理圖景。我們必須深刻認識并警醒到:失控的技術增長極有可能成為人類毀滅的重要源頭,它所造就的文化將是沒有倫理道德根基的文化,它將瓦解人的精神活動和社會關系,消解人類的生存意義和價值??偠灾?,人工智能所可能帶來的倫理風險直接關乎人類社會發展,我們必須予以高度重視。
1.人工智能自身存在的技術倫理風險
人工智能技術是人類能力在技術上的延展和增強,不僅是人的自然力的強化,更是通過信息化、自動化等新科技革命對人類智識、身體等能力的質的提升?,F在被人們所熟知的“人機大戰”、無人駕駛、人機對話等等,不僅彰顯了人工智能的強大力量,更深刻昭示著人類社會發展的遠景圖像。技術是一把雙刃劍,它在推進社會進步的同時,也在很大程度上帶來了技術風險。這是一種在科學技術發展的過程中,因技術失控、技術誤用等情況出現的威脅人們生產與生活的風險。人工智能作為一種尚未成熟且具有顛覆性影響的技術,勢必會帶來技術層面的風險挑戰。
以斯蒂芬·霍金、比爾·蓋茨為代表的一些人士發出嚴厲警示,認為人工智能是人類生存發展面臨的最大威脅,透露出了對人工智能未來發展的巨大擔憂。就當前人工智能發展的具體情況來看,雖然人工智能還處于初級發展階段,但其本身是一個具有綜合性、復雜性和前沿性的科學與智識,幾乎涉及所有的理工與人文社會科學等學科。
單從現實技術發展的層面來看,人工智能所體現出來的技術風險主要存在三個方面:一是在技術研發階段,很多科技人員并沒有遵從一定的倫理要求和法律規范,功利性地開展相關科研活動,特別是在忽視當前生產力條件和社會關系發展現狀的條件下盲目開展試驗活動,極容易造成不可控的技術后果,從而在社會認知層面引起大眾恐慌。二是從技術結合的角度來看,智能技術與生物技術的結合,在部分領域引起了極大的道德爭議。在單純的技術性操作層面上,促進智能技術與生物基因技術的高度結合的技術已經比較成熟,在短時期內可以實現重大突破,但同時也對人類倫理和道德形成重大沖擊。諸如嬰兒基因編輯事件等,就深刻印證了技術風險對人類生存倫理的挑戰。三是人工智能技術現實操作來面臨著一定的技術泛濫和失控情況。現在經濟社會發展的諸多領域都大規模引進智能技術,而技術操作主體的專業素質參差不齊,極容易出現專業性不足、操作性失誤等等情況。特別是在軍事等關鍵領域的人工智能技術操作,一旦失誤或者失控,將會造成難以估量的巨大損失。
2.人工智能引發社會倫理風險
技術是促進社會發展的重要推動力,在社會歷史進程中扮演著越來越重要的角色。與此同時,技術問題所引發的社會問題對人類社會發展的影響也更加突出,辯證地看待科學技術的社會作用是我們觀察和分析重大科技創新的重要方法。人工智能技術對社會發展的影響是整體性的,技術一旦缺失倫理的規范必然不可避免地帶來嚴重的社會倫理風險。在人們日常生產生活領域,人工智能“廣泛地應用于我們社會各領域,這又加劇形成道德決策風險乃至社會的系統性風險”。人工智能技術風險正在日益成為社會風險生成的重要因素。清晰展現人工智能技術因為倫理缺失導致的社會風險,有助于我們更加深刻認識人工智能技術發展的相關問題。
從個人發展的角度來看,人工智能技術的倫理缺失直接影響到個人生活領域隱私問題。隱私保護是現代社會文明發展的一個重要體現。但是隨著網絡傳播技術和大數據時代的到來,公民的隱私面臨著巨大的挑戰,人工智能技術的發展無疑進一步加劇了個人隱私權利被侵害的危險。形式各異的數據采集系統、信息交互傳播的互聯網系統以及系統分析歸納的大數據技術,等等,全面而詳細地記錄著個人相關信息,個人隱私存在著泄露的可能,可以說“隱私權已經陷入了風雨飄搖的困境”。從社會整體發展來看,人工智能技術的倫理缺失嚴重影響了社會發展的公平性和均衡性。最直觀的社會景象就是在于勞動生產領域,勞動分化的現象將更加凸顯。機器代替人的勞動進而導致一定范圍內失業情況的出現,將是人工智能時代必須正視的重要社會問題。不僅如此,掌握智能技術的勞動者將在勞動體系中占據著主導地位,無形中加劇了勞動的分化。價值理性中的公平、均衡與技術理性導致的優先、壟斷之間的鴻溝,不可避免地會引發系統性的社會風險問題。
3.人工智能帶來人類生存倫理風險
人工智能技術是人類生存意義和價值在技術層面的延伸和擴充,智能化技術拓展了人類生存發展的活動空間,給人類生產生活帶來了諸多全新體驗。可以說,人工智能技術將會徹底改變人類生存形態,成為一種顛覆傳統、形塑未來的強大技術力量。也正是因為如此,人工智能技術的倫理缺失所帶來的不僅僅是社會風險,更是關系到人類生存發展的根本所在。人類生存的意義、價值、方式以及形式都面臨著嚴峻的挑戰。對于技術的過度依賴,會導致人類生存意識的消解、生存能力的弱化以及生存空間的虛化。
人類生存的意義在于不斷發現個人價值,推進群體發展,尋找類的本質所在。人工智能技術一方面擴展了人類生存意義,但是缺少倫理規范的人工智能技術,所“造成的人類分裂和對立,對人的內在性、自主性、平等性、整體性的顛覆和消解可能是不可逆的”,人類關于意義的探索會出現新的茫然與不解。在生產生活領域,人工智能技術開始取代并向著大規模代替人類勞動的方向發展,將來絕大多數的活動可以由智能機器承擔,人類的主體性將受到嚴峻挑戰。就像學者所預言的那樣:“人造物表現得越來越像生命體;生命變得越來越工程化”,一種新生物文明即將到來。就目前而言,人工智能技術在時間維度上占據了大多數人的大多數時間,某種意義上形成了對人類思維的控制,進而不斷弱化人的自然能力和社會能力。生存空間的虛化進一步虛無了人類現實世界的意義和實踐。虛擬空間的未知性導致無法預設和規定人類行為,人類極有可能在虛擬空間中不斷喪失作為人的主體性,整個人類便有毀滅之虞。
人工智能技術目前在某些領域內實現了對人類智慧的強化和超越,處于弱人工智能階段,其倫理風險圖景尚未明顯鋪陳開來。但是隨著技術的進一步發展,擁有人類思維的智能機器將成為可能,“它能夠進行科學創造,具有通識,甚至掌握社交技巧”,極有可能在此基礎上全面超越人類認知。這種強人工智能甚至是超人工智能的出現,將會真正影響到人類自身的根本。人工智能的發展前景比我們想象得更加久遠,它所帶來的風險圖景也遠比我們描述的更加嚴峻。
二、人工智能倫理風險的多維透視
人工智能發展的“奇點”是否會到來以及何時到來還是充滿爭議的問題,既有人堅定認為隨著人工智能技術的發展,“奇點”必會到來;也有人持反對意見,認為人工智能始終是人的創造物。無論是樂觀期待還是悲觀抵制,不同意見持有者對于人工智能會帶來的倫理風險挑戰卻形成了普遍共識。目前我們處于人工智能發展的初級階段,即弱人工智能階段。我們需要通過目前顯現出來的倫理風險及其潛在問題,科學研判未來強人工智能和超人工智能時代可能出現的更關乎生存根本的倫理問題。毋庸置疑,現代社會愈發成為技術統治甚至是技術壟斷的時代,科學技術“賦予我們進步的觀念”,但同時“渙散了我們與傳統的紐帶,包括政治紐帶和精神紐帶”。我們必須正視人工智能技術可能帶來的倫理問題,這不僅需要從“更大社會系統層面來討論技術本身所帶來的影響,需要在過分擔憂和過分樂觀之間尋找一種倫理平衡”,更要立足于倫理規范的自身要素,分析導致人工智能倫理風險的內在原因。
1.主體因素:規范缺失和角色失準
弱人工智能階段處于人創制人工智能的時期,它是人類知識系統、技術系統和生物能力系統聚合的表現形式,不僅是對人類自然能力的拓展延伸,同時更為重要的是對人類思維和行為進行高度模仿。目前這種高度模仿仍然處于人類可控范圍內,并且是按照人類意志生成,更多地是體現人工智能技術對人類生產生活的功能性滿足。既然是作為人類的創制物,同時也是人類生活的使用物,人工智能與人存在著主客體的相對關系,并且隨著人工智能算法走向更高級別水平,人工智能與人在思維和行為上的一致性將極大增強,這種主客體間的關系必然面臨著傳統模式的變革。這些目前看起來微妙的關系最終將會面臨重塑,所以要求我們必須從創制物和對象物這兩個層面對倫理風險的主體因素展開分析。
一方面,作為人類創制物的人工智能,特別是從人工智能技術全球范圍內發展的總體態勢而言,貫穿創制過程的倫理規范遠未形成。當前倫理理論多元化趨勢業已形成,既有悲觀主義、樂觀主義也有中立主義,在人工智能倫理何以可能、如何規范的問題上沒有統一共識。具體到創制層面來說,在設置算法時遵循何種倫理、功能定位時遵循何種倫理以及創設環節時遵循何種倫理,沒有統一規范便無從談起倫理制約。這種倫理規范針對的是人工智能技術創制主體的人。因為人類生活情境的復雜多樣,特別是在不同倫理情境下,固有的倫理規范設置極有可能面臨失靈的情況。這種謀求共識性倫理規范與固有倫理認知可能造成不良影響的矛盾也成為倫理風險頻發的關鍵因素。深入倫理規范設置的決策過程,也可以發現倫理規范如何設置以及如何作用并沒有統一路徑,或者說單一“自上而下”的路徑難以發揮倫理規范的應然效力。因此,創制過程倫理規范難以統一和難以持續成為人工智能技術發展要解決的前提問題。
另一方面,作為人類使用物的人工智能產品在消費使用過程中,不同主體的倫理遵循也會導致人工智能倫理后果的嚴重差異。與此同時,因為使用主體本身道德素質的差異,對于人工智能使用存在不同認知,在關鍵人工智能產品,如智能武器等,使用時一旦出現特殊情況,極有可能造成倫理風險和社會風險。無論是作為創制主體還是消費使用主體,主體缺失倫理規范所導致的責任不明、角色不清等情況,對于人工智能技術創新和產品使用都會帶來不可避免的負面影響,亟需引起社會的普遍關注。
在弱人工智能階段我們明確人是人工智能技術創制和產品使用的唯一主體,但是隨著強人工智能和超人工智能的可能出現,我們必須進一步思考人工智能自身是否具備主體性,也就是說人們關于人工智能是否是倫理主體認知的差異會帶來不同的倫理后果。無論是自然物、社會物還是人造物,成為倫理主體或者是道德主體,必須具有自我意識、獨立行動、深入學習的能力。就人工智能的本質和發展前景而言,人工智能成為倫理主體是我們必須做好的現實應對。因此,我們需要把以人工智能為代表的人造事物倫理標準清晰明確,與人類道德倫理范疇體系緊密融合,賦予其合理規范的倫理角色。
2.關系因素:情境變革中的矛盾展現
人工智能是一場全新的技術革命,同時也是一次全新的倫理革命。它既產生于一定的社會關系,也會對現存社會關系產生一定影響。人工智能技術最終呈現的是當時人們社會的思維判斷和行為選擇,時空這一根本場域決定了人工智能倫理風險的全部內容。當今時代發展愈加多元和復雜,對技術的社會性需求前所未有,眾多的技術創新全面改變了我們生產生活方式,也從根本上形塑著我們生活的物質世界和精神世界。可以說,人工智能一方面重塑了人類生產生活的社會情境,另一方面也在適應新的社會情境中面臨新問題新挑戰。時代的深刻變革和調整必然導致人工智能發展領域出現新的突出矛盾,這是人工智能技術發展中趨利避害所不能忽視的時空條件。
倫理情境面臨深刻變革主要集中表現在三對矛盾之中:一是人工智能倫理需求本土化和技術發展國際性之間的矛盾。倫理道德本身具有自己特定的歷史生成土壤,帶有鮮明的民族特征,在歷時性發展中不斷豐富和發展,成為本土文化的重要組成部分,內在地決定了人工智能發展的倫理維度必須從本土倫理規范出發。但是作為技術性發展,人工智能技術是國際化合作的產物,這就出現了本土化倫理需求和國際化合作發展之間面臨著倫理規范如何協調統一的問題。二是人類發展整體性與個體隱私獨立性之間的矛盾。人工智能技術出現的根本原因是為了滿足人類日益多元化的發展需求,為了增進全人類的共同福祉。同時,現代社會更加注重個人發展的主體性,強調個人獨立。人工智能越滿足人類發展需求,就越弱化個體的獨立性,技術理性對私人領域生活的控制則越加強化。三是傳統主體實體化與信息虛擬性之間的矛盾。傳統倫理情境中的人機關系是以人為主導并且人是唯一的主體。作為一種客觀實在,單個人正在經歷前所未有的虛擬性生存體驗,人工智能正在脫離傳統倫理情境。在人工智能算法之中,虛擬性的倫理設置難以有效應對實體化的復雜倫理實際,甚至于產生一定的倫理斷裂。
3.行為因素:實踐意義認知差異與原則淡化
人工智能技術的出現,不僅僅是對倫理規范意義上的挑戰,更是對倫理實踐意義上的考驗。按照阿薩羅的說法,人工智能倫理的基本問題分別是如何植入倫理、人類遵循何種倫理規范以及人們如何對待人工智能體。毫無疑問,這都涉及到對人工智能倫理實踐意義的思考和討論。關于人工智能實踐活動的倫理爭議從未停止,從倫理實踐角度反觀人工智能發展問題也同樣如此。
當前處于弱人工智能階段,人工智能機器還不具備實踐主體的資格,不僅是因為它無法構建實踐性思維和原則,更無法在具體實踐中主動完善和發展自己。“人類具有的智能,是一種解決問題或創造產品的能力”,這就說明了必須在實踐中才能理解人類的全部倫理意義和價值,也只有在實踐中才能不斷完善和豐富人類倫理意義。當前從實踐行為角度審視人工智能出現倫理風險的重點在于對人自身實踐的討論。
首先是人們關于人工智能倫理實踐終極意義認識存在一定差異。部分別有用心的科學研究者并沒有將全人類利益看成是技術研發的最高價值遵循,選擇性忽視甚至主動引發災難性的技術后果。這種帶有人為預設性的研究傾向,一旦缺少倫理維度的考量與制約,技術的“潘多拉魔盒”必然成為人類生存的最大威脅,甚至會導致人類文明史的終結。
其次是人工智能倫理實踐的重要原則沒有得到有效遵循。阿西莫最早提出了機器人設定該有的三個原則,分別是不得傷害人和見人受到傷害不作為、服從人的指令和自我保存,這只是人們進行人工智能機器創制過程中賦予機器人行為該有的倫理準則。對人自身而言,不傷害人同樣是一個重要原則。
最后是在具體實踐行為中,人們出現了倫理失范的情況,導致人工智能對社會發展產生了嚴重的危害。實踐行為沒有遵循一定的倫理規范,反而突破了現有的倫理規范,造成了倫理認知上的混淆。
4.結構因素:倫理形態的嬗變與解構
倫理形態是指在一定倫理情境中形成的穩定倫理關系,通過倫理實踐不斷調適自身的倫理結構。關于人機關系的已有倫理形態的結構基點是堅持人類主體主導模式,堅守科學技術發展中的人類中心主義,這與當前人工智能發展新趨勢以及人機關系重構之間有著一定的差距。已有倫理形態缺少對人工智能本身恰當的倫理關懷,使得倫理形態調適落后于已有的倫理實情,這也是倫理風險生成的內在結構性因素。倫理形態從來不是固定不變的,解構與重構是其最基本的結構性特征。質言之,已有倫理形態的解構是動態的變化過程,在應對倫理風險的同時也不斷產生著新的倫理風險。我們要認識到“人類能在多大程度上完善自己的道德能力和人類主體模式的道德建構,就決定了人工智能體的道德能力建構的水平”,倫理形態的時代性重塑具有重要的決定性作用。
如果從形式倫理和實踐倫理兩分法的角度對已有倫理形態進行研究,可以發現形式倫理和實踐倫理在很大程度上出現了斷裂甚至對立。形式倫理是現代邏輯哲學的產物,強調通過邏輯語言、語義系統和話語情景建構一整套語言來表達倫理規則,通過語言與現象結合起來進行倫理審視。觀之當前涉及人工智能的倫理形態,其形式倫理表現在通過特定概念闡釋、范疇厘清等語義手段,借助于跨學科語言體系建立關于人工智能倫理的新闡釋。但是隨著人工智能實踐發展,不同行業、不同領域以及不同國家層出不窮的倫理問題,給形式倫理帶來了極大挑戰。而在實踐倫理中,人工智能不僅僅關聯于單一倫理熱點問題,同時也亟需總體審視倫理風險。由此,形式倫理與實踐倫理的分裂甚至對立造成了人工智能倫理風險??梢哉f,形式倫理越發展,實踐倫理越未知;實踐倫理越發展,形式倫理越受限。人工智能作為一種技術的發展趨勢,特別是關于其道德地位是否形成的討論,也是當前形式倫理和實踐倫理分裂的重要原因。已有倫理形態解決不了將人工智能看成倫理主體的風險問題,它的重構與人工智能發展密切相關。
三、人工智能倫理風險的規避路徑
倫理風險的圖景展現向我們昭示著人工智能技術發展任重道遠。對于倫理風險的審思和規避,決定了未來人工智能發展的走向,也直接關系到人類社會自身發展的前途命運。在面向人工智能時代的倫理實踐之中,我們需要從真實的倫理沖突和矛盾出發,在實踐中凸顯人類智能的倫理智慧,讓人工智能真正成為文明發展的有利因素。
1.始終遵循實現人類共同利益的最高倫理規范
倫理規范最終指向的是人類生存意義的人文關懷,是對于工具理性的倫理規約,進而實現價值理性與工具理性的協同發展,并且突出強調價值理性的根本地位。眾所周知,馬克思·韋伯將理性主義體系劃分為工具理性和價值理性,以此作為認識近代社會發展尤其是資本主義精神的重要內容。在韋伯的闡釋中,工具理性具有手段的作用,意指資本主義精神通過形式化和技術化的方式展現出來;價值理性則關系到對人類生產生活根本問題的追問,具有目標導向的作用?,F代社會日益顯現出工具理性與價值理性的分離,尤其是科技革命的迅猛推進,出現了“科技是第一生產力”“科技就是意識形態”等觀點,強調科學技術及其理性日漸成為社會發展的強大動力??茖W技術的顯著推動作用是毋庸置疑的,但是日益繁盛的工具理性逐漸主導理性主義并消釋價值理性,業已形成了諸多現代化難題?!澳苓M行自主決策的人工智能,無論其能否自我改進,本身就必然需要一個'價值庫’,這是其行為準則。”對人工智能倫理風險問題而言,重新確證價值理性指導地位和規制工具理性作用顯得尤為重要和關鍵。
“科學研究過程中滲透著主體研究的旨趣和主觀經驗,而且科學運用過程也離不開主體的道德責任和倫理價值觀的指導。”無論是創制主體的科研活動者還是使用主體的普通民眾,或者是不同國家、不同行業的人工智能領域從業人員、政府部門都應該明確人工智能的根本價值在于為人類謀求福祉,促進人與人、人與機器、人與社會、人與自然的和諧共生。將謀求和實現人類共同利益作為最高倫理規范,才能真正統一起價值理性與工具理性,并且確證價值理性在社會發展中的目標指向作用??梢哉f,隨著經濟全球化和構建人類命運共同體的深入發展,人工智能技術發展的走向將直接關系到全人類的共同利益。要想避免技術統治和技術壟斷甚至是技術殖民的情形,必須加強國際合作。為此,需要成立國際性倫理規范委員會,對有關國家人工智能技術創制和產品使用制定具有針對性的倫理準則,使相關國家政府認識到具有高度一致性的倫理約束具有極端重要性。通過這樣的倫理規范平臺,才有可能將維護和增進全人類共同利益落實到人工智能發展的全過程,不斷豐富價值理性的深刻意蘊并發揮工具理性的功能作用。
2.深刻遵循倫理實踐的基本原則
一方面,我們要分清針對弱人工智能的一般性倫理規范以及針對可能出現的強人工智能以及超人工智能的特殊性倫理規范。既要從一般性規律出發,也要考慮到未來特殊情況的發生,從規范意義的角度做好預設工作,至少要通過算法將目前已經達成的倫理共識輸入到人工智能機器。我們要高度重視通過實踐來檢驗和完善人工智能倫理,盡可能提高復雜倫理情境下人工智能的判斷能力。我們需要將人工智能的深度學習策略建立在充分的實踐基礎之上,對于相關倫理風險展開預測和評估,最大程度上在有限理性的范圍內提升人工智能的“類主體”思維的養成,在一定倫理規范約束中發揮重要作用。實踐這一馬克思主義的基本觀念就是我們審視和規避人工智能倫理風險的根本立場,只有立足于實踐才能“超越一般哲學停留于科學認識論、抽象人性論的局限,表現出深入到資本統治與技術控制的歷史深度的批判性優勢”。
另一方面,在具體倫理實踐中,必須遵循如下基本原則。一是要堅持倫理先于技術原則。在人工智能創制過程中,首要就在于設定確定性的倫理規范,技術創新也必須按照對應的倫理要求來展開。二是堅持不傷害原則。人工智能技術發展絕不能危害人的生存發展,不能對人產生實質性的傷害。人工智能作為延展人的智能的技術形式,與人自身緊密結合。因此,在其創制和使用中都要始終明確不傷害原則,特別是要嚴厲禁止危險性人工智能產品的研發。三是堅持公正原則。技術發展是一種共享資源,其最終成果需要落實到全體人民。所以,人工智能技術應該做到公開透明,不應成為少數精英的壟斷專有。在使用過程中更要堅持公正原則,促進社會整體發展。四是底線原則。技術的實踐行為是意向性活動,認知上的不足或者差異都有可能造成某些底線被突破,進而影響到人工智能的整體發展。我們在實踐過程中必須牢牢樹立底線思維,明晰界限,明確范圍。
3.深入推進人工智能倫理制度建設
當前人類現有的知識概念和規范體系在應對人工智能倫理問題的時候容易出現制度性風險,因此倫理規則的制定必須通過一定的倫理制度建設和法律建設,明晰人工智能技術的發展空間,對其進行有效監管和評估。人工智能越發展,機器越自由,就越需要道德規則,也就越需要制度約束。特別是在道德倫理無法作用的特定領域,倫理制度建設將起到至關重要的作用。當前人工智能處于弱人工智能階段,應該把建立事前監管和事后評估制度、風險預判機制等作為制度建設的關鍵,還需要不斷健全關于隱私權的法律規范體系。
人工智能發展方興未艾,已經提出來的倫理規范或者準則應用于具體的操作場景必須細化為具體的體制機制。從人工智能技術創制的角度來看,加強倫理制度建設需要嚴格制定產業研發人員的倫理工作標準,形成科學完整的工作機制,以此強化相關人員的責任意識。需要特別指出的是,對于具有危險性或者戰略性的人工智能產品,要建立專家評估制度,形成關于該問題的專家智庫。既要從算法程序上作出合乎道德倫理的設計,又要對產品研發與投入使用進行全程介入、全程監管。與此同時,對于人工智能可能帶來的倫理風險形成集識別、監測、預警、反饋和決策為一體的風險防控機制,建立以“預警安全”為核心的風險模型,使其能夠判別一項人工智能技術有什么風險、風險有多大以及是否禁止等。制度建設還需要與法律建設同步并舉。當前最為迫切的是對于隱私權要進行更高水平、更有力度的法律規范。要設置專門條例,建立隱私數據保護庫,嚴格規范對隱私數據存取的行為,切實保護隱私安全。
4.協同建構人機發展新型倫理關系
規避人工智能倫理風險須適應正在變革中的倫理情境,進行倫理調適,重構新的人機倫理形態?!靶录夹g革命書寫了人類道德進步的新范式,不僅加快了道德進化的速率,還把道德還原成一種技術性存在”,這就是當前倫理情境的新變化。環境的變化,意味著已有的倫理形態有可能難以為繼,所以必須重構新的倫理形態,適應動態變化中的倫理情境。
人工智能技術每向前發展一步,人工智能倫理關系便需要向前一步。協同建構新型人機關系是人工智能倫理發展的題中之義,也是破解人工智能倫理風險的根本之策。首先,新型人機關系的構建必須從統一價值觀和規范體系相一致開始。一方面人類自身需要認真審思人工智能納入已有道德范疇的問題,針對出現的倫理風險及時應對并改進倫理規則;另一方面人工智能在合乎道德規范的算法設計中,努力增強倫理道德學習能力,在實踐情境中靠近人類思維和行為。其次,新型人機關系的構建仍然需要堅持人的主導地位,明確人工智能或者機器人主要在于輔助人的工作。人機協作要建立在相互了解基礎之上,以此形成人機共振的良好結果。再次,新型人機關系的構建需要進一步推進人工智能技術發展。人工智能帶來的倫理風險絕不應該成為限制甚至于抵制人工智能技術發展的理由,恰恰要在技術發展過程中發現倫理問題、解決倫理問題。要把不斷改善算法設計、優化產品研發、提升協同能力、增進互信共識作為發展人工智能的重要內容,在實踐中豐富與發展人機關系的時代內涵。日益多元化的倫理情境變革,提出了人工智能已有倫理形態的革新命題,我們要在人類倫理范疇的整體性框架中推進兩者結合,使得兩者產生良性的雙向互動,提升應對倫理風險挑戰的調適能力。
來源:《倫理學研究》
2021年第1期(注釋已略,如需請查原文)
本期編審:吉磊
本期編輯:劉芝佑