精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
以哲學之名重塑AI倫理架構:對認知、程序、規范和自由意志的考量

作為AI公共政策研究者,我對AI的發展充滿了好奇和期待。此文受歐盟《通用數據保護條例》(GDPR),IEEE《人工智能設計的倫理準則》,以及牛津大學互聯網研究中心《算法倫理的爭議要點》一文啟發,討論人工智能在認知,程序、規范以及自由意志方面給人類帶來的挑戰。


1.認知方面(Epistemic Concern):算法的邏輯基礎本身是否具有不確定性

以目前我們對人工智能的理解,算法使用的學習方法類似于人類學習知識的過程。具體來說,人類通過海量數據訓練數學模型(算法),再以數學模型建立智能化業務的系統和應用。這個流程的邏輯基礎為推理(induction),也就是利用相關性(correlation)比較顯著地經驗總結出一個結論或者模型,再由這個結論或者模型對更多的現象進行演繹(deduction)。


在AI領域中,演繹的過程也就是把AI應用于商業用途的過程。問題在于推理這個邏輯工具本身具有三個弱點:

其一,相關性不能證明因果關系(causality);

其二,有必然的不確定性(uncertainty);

其三,由于知識局限而必然產生的錯誤幾率(fallibility)。

 

當然幾千年來人類都是用推理和演繹的邏輯工具完成知識積累的,但區別性在于:第一,人類對自我知識和認知有主體責任;第二,人類在突破以往知識局限以后會以顯性文字或圖像修復結論。而對于AI來說,如果算法本身具有非因果性,不確定性和不可避免的錯誤幾率,那在應用當中我們是否應當在某些追求確定性的社會領域,如銀行,司法等相對限制AI的決策權呢?

 

2.程序方面(Procedural Concern):數據的不可解讀及不可追溯性帶來的挑戰

如果將AI算法比作一個公司的產品,那么可以毫不夸張地說,現在這類產品基本處于無質量監控和動態檢測的狀態。打個簡單的比喻,即使是冰淇淋,也要標注奶,糖,水,色素,甜味劑,穩定劑,防腐劑等各種原材料的成分,營養值。同時在工廠內部一定有一套完備的可追溯系統,確保當產品出現問題時可以及時聯系供應商來解決產品質量問題。

 

那么對于AI算法來說,我們是否知道訓練數學模型的大數據的來源?范圍?質量?是否脫敏?是否有系統性偏差?我想不能僅僅因為數據過于龐大,甚至超出個人的認知范圍就推導出我們不需要知情權的結論。

 

恰恰相反,正因為不同于冰淇淋,AI將對人類社會產生顛覆性的影響,那我們就更應該在數據來源上加以規范,在原料上加以質量把關。同時關于可追溯性和召回的問題,我們是否有標準判斷一個算法的質量是否合格?如果算法對社會造成重大影響,我們是否需要類似于缺陷汽車召回的制度來保障社會的安全?

 

3.規范方面(Normative Concern):算法是否會導致不公正的結果

所謂不公正的結果,絕不是說算法開發者有意在算法中放入不公正的評價標準以歧視特定人群。就像John Rawls所說,除非我們每個人都把自己放在無知的面紗(a veil of ignorance)后面,不然我們每個人都擁有特定的身份屬性,包括性別,種族,知識結構,家庭環境等等。而這些屬性就像宇宙中的星塵,也許平時你不會感受到它們的存在,但它們卻決定了你的基本構成。

 

同理,由于特殊的屬性,一個公司的一個算法必然有它自己的特點,那么所謂“不公正”簡直是一個必然的結果。對此我有兩點回應:

第一,就像社會中的其他產品一樣,不公正或者優先性(preference)并不可怕,可怕的是在一個行業內的每一個產品都有著同樣的不公正和優先性(比如女性只能穿裙子,不能穿褲子),使消費者無法選擇,那便造成了系統性的不公正。由此競爭和多樣性便是解決這一問題的唯一辦法。開放性的市場環境是保證AI時代享有公平結果的至關重要的因素。

第二,在涉及如銀行,司法等敏感領域時,數據主體(data subject)有權利不接受由人工智能自動處理得出的結論并要求提供解釋(詳見歐盟GDPR第二十二條)。如果我們能在制度設計方面保障市場開放性并賦予消費者拒絕算法決策權的話,那么我們也許能夠減少算法不公正性造成的負面后果。

 

4.哲學方面(Philosophical Concern):人類將決策轉移給算法之后如何解決自由意志的問題

在關于人工智能的很多討論中,都有機器人是否會控制人類的問題,我覺得這也是所有問題里最有趣,也最抽象的一個問題。所謂“機器比人聰明”不是機器控制人的充分必要條件。從哲學角度,我認為人類自由意志的基礎來源于自我的決定權,而決定就意味著自我風險,自我給社會帶來的風險,以及在行為之后承擔相應后果。


拿自動駕駛來說,人類駕駛意味著道路上充滿各種風險:醉酒駕車,疲勞駕駛,危險駕駛等等。而將決策權交給算法以后,一方面我們可以大大降低以上非法行為的風險性,另一方面我們也將相應的責任轉移給了算法。那么,一個沒有自由意志的算法如何承擔主體責任呢?更確切的說,一個沒有自由意志的算法如何被認定為法律主體呢?


對我來說,人類對于自我決定權的轉移(the transference of autonomy)從很大程度上反應了人類對于自由意志的反感和集體恐慌。通俗一點說,就是很多人不愿意承擔自己決定的相應后果,于是一個機器的決定可以使他們擺脫自己應當承擔的相應的責任,可以令人暫時安心并停止焦慮。然而逃避了風險和責任的人類就真的更加安全么?認識到自己有無限可能真的就那么令人焦慮么?還是說更多人本身就愿意像機器一樣被一種大于人類的力量控制,按照指令去生活呢?


本期話題:構建人與算法之間的信任,需要什么樣的機制?

關于45 Society:聚焦人工智能對法律和法律行業的影響,探索面向2045年的法律文明和智能社會。

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
AI倫理邊界:西工大李學龍團隊探索人工智能倫理計算
摯愛元素 生而為愛 人間值得
哲學將面臨一次顛覆性的挑戰?
怎樣應對人工智能帶來的倫理問題
何積豐院士:智能制造與安全可信人工智能
全球人工智能發展趨勢及挑戰
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 同德县| 堆龙德庆县| 抚州市| 江西省| 庆云县| 馆陶县| 西吉县| 贺州市| 阿合奇县| 海淀区| 札达县| 潜山县| 岚皋县| 瑞安市| 买车| 乐陵市| 水城县| 巫溪县| 景宁| 如东县| 漠河县| 南昌市| 静海县| 绥德县| 平利县| 屯门区| 潞西市| 万州区| 金沙县| 灵台县| 博罗县| 乡宁县| 仲巴县| 泰宁县| 长春市| 长武县| 尼玛县| 大渡口区| 阜阳市| 鄯善县| 呼伦贝尔市|