精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
讓“算法”遵循“善法”

    人工智能的蓬勃發展帶來了人們在思想、生活和工作各方面全方位的變革。“人機大戰”引發廣泛關注的深層原因,在于它在文明史和人類史尺度上以一種儀式化的效應表征了一個時代的來臨,即人工智能時代的來臨。

 

人工智能時代來臨,人類應該如何行動

 

    從人工智能的主體結構看,無論“阿爾法狗”戰勝人類頂尖棋手,還是“微軟小冰”創作詩歌,抑或是IBM公司的超級機器人“沃森”躋身杏林、懸壺治病,它們目前充其量屬于某種弱的人工智能,離真正的智能主體相去甚遠。然而,這并不能消除一種日益滋長起來的恐慌性擔憂:一旦人工智能大規模進入我們的生活,人類未來會怎樣?斯蒂芬·霍金、史蒂夫·沃茲尼亞克、比爾·蓋茨等發出警示說:人工智能可能是人類存在的最大威脅。埃隆·馬斯克甚至說:“有了人工智能,就相當于我們開始召喚惡魔。”

 

    透過各種各樣的“悲觀主義—樂觀主義”的觀念對峙,我們看到,我們真正需要認真面對的問題是:既然認識到人工智能的時代已經到來,我們要如何行動才使自己成為未來的一部分?換言之,為了避免人工智能在喚醒萬物的同時喚醒人類無法控制甚至最終控制或取代人類的“惡魔”,我們到底應該如何行動?筆者認為,這個問題的緊要處只有放在規范性的先行構建上,才能未雨綢繆。它涉及人工智能時代的道德建構問題,應從“人為自己立法”的規范性原理中產生。就形式方面而言,筆者將這種規范性的先行構建概括為一個基本原則,那就是:讓算法遵循“善法”。因為“善法”的主體性總是與“目的”相關,而算法在總體上永遠只能是達到目的的手段或工具而已。

 

    具而言之,作為人工智能時代的道德建構,讓算法遵循“善法”的原則包含兩個重要的倫理尺度:一是人工智能自身嵌入的道德,涉及人工智能帶來的智能主體模式及其相關倫理尺度;二是人類在拓展人工智能的過程中進行的道德建構,涉及常見的人類主體模式以及人類主體與人工智能主體相處的“主體間”模式及其相關倫理尺度。

 

“人工智能2.0”是否依系于“道德算法”

 

    第一個方面的倫理尺度與人工智能的智能主體或智能主體模式有關。人工智能通常的定義是:研究如何使計算機等機器能夠做那些表現出人的智能的事情,其目標是使智能行為自動化。然而,就智能主體的類型而言,在機器中實現某些人類的智能的弱人工智能,與讓機器自主地或自動地表現人類的智能的強人工智能,在強弱程度上是大不一樣的。如果將前者記為“人工智能1.0”,那么后者就是“人工智能2.0”。目前的人工智能完全可以看作是從“人工智能1.0”到“人工智能2.0”的過渡,其實質是走向一場更深遠的智能主體革命。

 

    在這個背景下,人工智能作為一種“自主智能主體的架構體系”,其主體性或主體結構,有點類似于我們將人腦的某些功能(或類似人腦的某些功能)移至機器之中。如果說人類主體性的生物學基礎是“神經”,那么,人工智能的主體性是而且只能是對人類主體性的一種模仿。這種模仿的科學基礎和展現形式就是“算法”。拋開人工智能主體在多大程度上類似于人類主體不論,研究者指出:使人工智能產品成為智能主體的關鍵要素是“道德算法”——即一種令自主性人工智能裝置學會負責任行動的算法,它內嵌于人工智能的算法體系之中。那么,這是否意味著“人工智能2.0”的智能主體革命依系于道德算法呢?

 

    人工智能的主體模式在這個問題上面臨倫理尺度上的重大挑戰。以醫療和戰場中的自主式機器人為例,當面臨人類生命之生死抉擇難題時,機器人應該如何做決定?當不當決定導致原本可避免的傷害發生時,那是誰的責任?在這個問題上,人工智能的主體模式雖然凸顯了道德算法的重要性,但其更深層次且更為重要之依系,則無疑是人類為自己所立之“善法”。

 

人工道德與算法遵循“善法”的道德形態

 

    第二個方面的倫理尺度與人類主體模式下的道德建構有關。目前賦予人工智能以道德能力的算法大致上有三種:一是通過語義網絡擴增道義邏輯,形成義務與許可概念;二是通過知識圖譜建立關聯法則,偵測道德判斷情境;三是通過云計算發掘相關關系,評估或預測行動后果。道德算法是嵌入在算法體系中有待完善的算法程式。它本身是在不斷變化發展之中的,而非某種具體現存之物,也非某種一蹴而就或一勞永逸的終極預設。它作為一種人工建構,是一種通向“目的善”的“手段善”,因而依系于人類主體模式。在這個尺度上,算法只有體現或遵循人類主體模式下的“善法”,才能以有責任感的方式推進道德算法的進化及其在機器中的嵌入。這是人工智能時代的道德建構應遵循的基本原則,即算法遵循“善法”。在這一原則中,“善法”一詞盡管抽象含混,其表征的人類主體性尺度在具體內容上也可能引發爭論,但它在形式上則明確指向人類尺度上的兩種道德形態。

 

    第一種道德形態由常見的人類主體模式主導,涉及人類在拓展人工智能時可能帶來的所有倫理問題。特別說來,當人們把人工智能視為一種工具時,它的道德特殊性和道德重要性始終呼喚人類主體的道德責任之回歸。這是一種單純的規范性取向,即人類應該透過有責任感的方式籌劃和迎接人工智能時代的來臨。一種審慎的倫理表明,人工智能可能存在的最大威脅并非來自機器,而是來自人或人類的意圖和行動。考慮到賦予機器人以道德能力的算法本質上是模仿人類道德的算法,如果人類在道德問題上不能獲得明確性,以算法形式在機器中展現人類道德又如何可能呢?問題以悖謬方式彰顯了人工智能內爆的道德形態建構。它以某種方式回應了美國人詹姆斯·摩爾對倫理智能主體應具備道德明確性的要求,即隨著自主性的提升,具有自主道德能力的人工智能在面臨道德兩難的情境時,或者在面對不同道德原則沖突時,必須能夠作出明確的合理化決策。這種對道德明確性的要求,反過來構造或描繪了人類尺度上的“善法”之特質,它倒逼人類主體模式盡一切可能走出可能會引發晦暗后果(甚至災難)的各種道德模糊地帶。

 

    第二種道德形態由人類主體與人工智能主體相處的“主體間”模式主導,涉及人類主體與智能主體之間依系關系的道德建構。這是一個新的領域。道德算法只有在“‘人—機’交互主體間”的反復博弈中,才能不斷地矯正偏頗或錯誤,進一步升級和完善。自主性機器人可能會作出我們認為在道德上有錯誤的決定——例如被授權不為病患提供止痛藥,再比如帶有偏見的人工智能可能會自我強化從而損害社會。但是,這不應該成為人類拒絕機器人的原因,而應該成為機器人或人工智能在道德形態上得到改善和提升的契機。隨著人類主體與人工智能主體之間的相互依系關系的建立,具備自我決策能力的自主機器人一旦在與人類主體的互動中學習從道德角度發展決策算法,那么避免傷害就成為人與機器相互依系的“善法”。

 

    (作者:田海平,系北京師范大學哲學學院教授)

 

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能時代的道德:讓算法遵循“善法”
破解人工智能道德治理中的責任難題
讓智能系統成為倫理主體
機器人倫理學:機器的倫理學還是人的倫理學?
西方學界人工智能倫理風險防范研究
人工智能倫理規范難題如何走出困境?丨科技云·視角
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 长治县| 弥勒县| 兴安盟| 高陵县| 修文县| 阳朔县| 海安县| 张北县| 祁阳县| 剑河县| 且末县| 嘉黎县| 汝城县| 盐池县| 禄丰县| 长宁区| 当阳市| 泸西县| 麻栗坡县| 图木舒克市| 平昌县| 收藏| 芜湖市| 祁东县| 班玛县| 南涧| 新邵县| 武陟县| 元阳县| 娄底市| 八宿县| 湘潭市| 全椒县| 连江县| 漳平市| 右玉县| 兰西县| 阿拉善左旗| 香格里拉县| 繁峙县| 石景山区|