作者:莫宏偉教授,現任職于哈爾濱工程大學自動化學院。中國人工智能學會自然計算與數字城市專業委員會副主任,黑龍江省人工智能學會秘書長,中國計算機學會高級會員。
[摘要]:在人工智能領域,強人工智能是指有自我意識、自主學習、自主決策能力的人工智能,也是人工智能發展的終極目標,但是在意識問題沒有解決之前,強人工智能的實現還有很長的路要走。弱人工智能目前的深度學習還是一個典型的“黑箱”算法,連設計者可能都不知道它是如何決策,要在系統中發現是否存在歧視及其根源,在技術上是比較困難的。
一、 弱人工題智能倫理問的根源
由于目前的深度學習還是一個典型的“黑箱”算法,連設計者可能都不知道它是如何決策,要在系統中發現是否存在歧視及其根源,在技術上是比較困難的。傳統軟件的每一行代碼都由人類編寫,隨后經由數學證明般的嚴謹驗證,至少一些風險應用就是如此。深度神經網絡卻與之大相徑庭,一切都是待涂寫的白紙。深度神經網絡依據的是經驗知識,理論有所遲滯,有研究人員在通過可視化方法研究深度學習的特征提取和信息處理過程。但要解釋深度學習算法做出的每一個決定,目前還是比較困難。
雖然在大規模圖像處理、語音識別甚至音樂、繪畫等藝術領域的表現令人刮目相看,但沒人知道其決定的背后隱藏著什么,算法不僅僅會將歧視代碼化,而且會創造自己的現實,形成一個“自我實現的歧視性反饋循環”,包括預測性警務、犯罪風險評估、信用評估等都存在類似問題。歸根到底,深度學習算法仍然缺乏人類這樣的聯想、記憶、學習、推理等高級智能。但一定程度上,它有些接近機器學習專家佩德羅·多明戈斯所提出的“終極算法”,意思是說通過數據學得包括過去、現在以及未來的所有知識的算法,創造該算法將是科學歷史上最大的進步之一。迄今為止,這樣的算法并沒有被創造出來。深度學習只是一定程度上接近終極算法的理想,但很多表現已經讓人類不可理解。
上述分析說明目前以算法為主的弱人工智能并不值得百分百信任。人類對這種新型智慧的認識還太粗淺。
二、強人工智能倫理問題
在人工智能領域,強人工智能是指有自我意識、自主學習、自主決策能力的人工智能,也是人工智能發展的終極目標,但是在意識問題沒有解決之前,強人工智能的實現還有很長的路要走。斯蒂芬·霍金、比爾·蓋茨、馬斯克都曾表示了對人工智能會具有自我覺知和意識的憂慮。霍金認為人工智能可能是人類最大的災難,如果管理不當,會思考的機器可能終結人類文明。雖然霍金等人所擔憂的問題屬于現實中尚不存在的強人工智能所帶來的可能的、潛在的問題,但人類有必要預先考慮智能技術的發展造成的種種后果。因此,關于強人工智能倫理問題的討論,我們需要假定未來人類創造的人工智能具有了自我意識以及人性或人格,否則這種討論是沒有意義的。
關于強人工智能的倫理問題,我們需要思考如下幾方面:
(1)智能機器或自我意識的機器人的社會地位。一旦機器智能突破奇點,產生自我意識,具有人性特征,我們如何在法律上界定其地位,未來由于人機融合的發展可能出現電子人、合成人等智能體,它們的人格如何確定?在它們受到傷害時,是否應賦予其人道主義待遇?在傳統人類社會中的角色,它們的角色與人類的角色如何把握?
(2)權利義務和行為責任。人類是否比智能機器人擁有更多的權利?智能機器人或智能機器是否應比人類承擔更多的社會勞動和其他責任?比如服務機器人在照顧孩子、老人或病人時發生事故如何界定責任等等問題。
(3)人與智能機器之間的倫理關系。有了自我意識的智能機器與生物學意義上人類之間的關系注定變得復雜莫測。人類創造人工智能的目的在于讓機器變得更加智能,代替人類完成更多更復雜甚至更危險的工作,但由此帶來對人類社會傳統的個體、家庭以及社區、組織、機構和企業之間的倫理關系影響將是非常復雜的,由此在強人工智能實現之前需要來自法律、哲學、倫理學、工程、技術以及政府、企業、社會組織等各方面的更多探討和研究。
來源:《科學與社會》2018年第1期