精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
“信息繭房”、隱私外泄,如何應對人工智能帶來的倫理風險?

過去十幾年里,人工智能技術取得了長足進步,應用到各行各業之中,并帶來生產力的大幅提升。不過,在具體實踐中,人工智能的應用也暴露出侵犯數據隱私、制造“信息繭房”等種種倫理風險。

尤瓦爾·赫拉利在暢銷書《未來簡史》夸張地預言,智人時代可能會因技術顛覆,特別是人工智能和生物工程技術的進步而終結,因為人工智能會導致絕大多數人類失去功用。

盡管危言聳聽,但赫拉利無疑為人類敲響了一面警鐘。人工智能發展帶來的倫理風險需要也正在被越來越多的國家重視。我們要警惕技術帶來的哪些風險?需要采取什么樣的措施未雨綢繆呢?

人工智能帶來的倫理挑戰

信息繭房:用戶被算法圈住,受困于狹窄的信息視野:

?過濾氣泡(Filter Bubble),即根據用戶喜好提供展示內容,網站內嵌的推薦算法會透過使用者所在地區、先前活動記錄或是搜尋歷史,推薦相關內容。社交媒體網站從千百萬用戶那里獲得的使用數據,會構成無數個過濾氣泡的小循環。

?回聲室效應(Echo Chamber),在社交媒體所構建的社群中,用戶往往和與自己意見相近的人聚集在一起。因為處于一個封閉的社交環境中,這些相近意見和觀點會不斷被重復、加強。

數據隱私:數據隱私引發的人工智能倫理問題,今天已經讓用戶非常頭疼。例如,盡管很多國家政府出臺過相關法案、措施保護健康隱私,但隨著人工智能技術的進步,即便計步器、智能手機或手表搜集的個人身體活動數據已經去除身份信息,通過使用機器學習技術,也可以重新識別出個人信息并將其與人口統計數據相關聯。

算法透明性與信息對稱:用戶被區別對待的“大數據殺熟”屢次被媒體曝光。在社交網站擁有較多粉絲的“大V”,其高影響力等同于高級別會員,在客服人員處理其投訴時往往被快速識別,并因此得到更好地響應。消費頻率高的老顧客,在網上所看到產品或服務的定價,反而要高于消費頻率低或從未消費過的新顧客。

歧視與偏見:人工智能技術在提供分析預測時,也曾發生過針對用戶的性別歧視或是種族歧視的案例。曾經有企業使用人工智能招聘。一段時間后,招聘部門發現,對于軟件開發等技術職位,人工智能推薦結果更青睞男性求職者。

深度偽造(Deepfake):通過深度偽造技術,可以實現視頻/圖像內容中人臉的替換,甚至能夠通過算法來操縱替換人臉的面部表情。如果結合個性化語音合成技術的應用,生成的換臉視頻幾乎可以達到以假亂真的程度。目前利用深度偽造技術制作假新聞、假視頻所帶來的社會問題越來越多。

全球人工智能倫理法律體系建設

現階段,全球范圍內許多國家都認識到制定人工智能治理框架的必要性,但這一框架的制定也面臨著以國家間文化多樣性為基礎的道德多元化的挑戰。

01

人工智能倫理設置原則

牛津大學學者Luciano Floridi和Josh Cowls在2019年哈佛數據科學評論雜志上發表的文章中提出了如今被學術界廣為認可的AI倫理五原則:行善(Beneficence)、不傷害(Non-maleficence)、自治(Autonomy)、正義(Justice)以及算法可解釋性(Explacability)。其中,前四項由傳統的生物倫理原則沿用而來,最后一項則是針對人工智能算法而提出的新原則。五項總體AI核心原則后來又被衍生出更多細化的分支:

1

   / 行善

增進人類福祉(well-being);社會利益(social good); 共同利益(common good)

2

   / 不傷害

隱私(Privacy);安全(Security);正直 (Integrity)

3

   / 自治

自主決定權(Autonomy);選擇權(Choice);知情同意(Consent);自由(Freedom)

4

   / 正義

避免不公平(Avoid unfairness);不歧視與不偏見(non-bias/non-discrimination)

5

   / 可解釋性

明確的問責(Accountability);透明性(Transparency)

近年來,技術界也越來越關注AI倫理問題。全球人工智能頂會IJCAI、NeurIPS、AAAI上出現了越來越多的AI倫理論文,話題范圍涉及AI可解釋性,安全AI,隱私與數據收集,公平與偏見等。而在近20年以來各個大型AI會議上提及倫理關鍵字的論文標題的數量都在逐年增加。

02

歐盟,人工智能倫理立法先驅

2015年1月歐盟議會法律事務委員會(JURI)成立專門工作小組,開始研究機器人和人工智能發展相關的法律問題;2019年4月,歐盟委員會發布了正式版的人工智能道德準則《可信賴人工智能的倫理準則》,提出了實現可信賴人工智能(Trustworthy AI)全生命周期的框架。該準則提出,可信賴AI需滿足3個基本條件:

1

合法的(lawful), 即系統應該遵守所有適用的法律法規;

2

合倫理的(ethical),即系統應該與倫理準則和價值觀相一致;

3

穩健的(robust),不管從技術還是社會的角度來看,AI系統都可能會造成傷害。所以系統中的每個組件都應該滿足可信賴AI的要求

對于AI從業者,該準則包含四項道德原則,確保AI從業者以值得信賴的方式開發、部署和使用人工智能系統:

  • 尊重人的自主性(respect for human autonomy):人類與人工智能系統之間的功能分配應遵循以人為本的設計原則,并為人類選擇留下有意義的機會。

  • 預防傷害(prevention of harm):人工智能系統及其運行的環境必須安全可靠,確保不會被惡意使用。弱勢群體應得到更多關注。還必須特別注意人工智能系統可能由于權利或信息不對稱而導致或加劇不利影響的情況。

  • 公平性(fairness):人工智能系統的開發、部署和使用必須是公平的,公平體現既有實質性的也有程序性的。

  • 可解釋性(explicability):可解釋性對于建立和維護用戶對AI 系統的信任至關重要:流程需要透明、人工智能系統的能力和目的需要公開溝通、并且決策(在可能的范圍內)可以向直接和間接受影響的人解釋。有時候,解釋為什么一個模型產生了一個特定的輸出或決策并不總是可能的。這些情況被稱為“黑盒”算法,在這些情況下,需要其他可解釋性措施,例如,系統功能的可追溯性、可審計性和透明通信等。

2018年5月25日,歐盟《通用數據保護條例(GDPR)》 正式生效。這一條例明確定義了個人數據及其適用范圍,為數據保護提供合法性基礎,并明確了數據主體權利、數據控制者義務、數據流通標準、數據救濟和處罰等,已經成為全球眾多國家與地區制定數據保護條例的重要參考。

之后,歐盟又陸續頒布了更多的數據相關法案。年20202月歐盟發布《數據戰略》,帶來數據治理的整體規劃,按照其規劃,又相繼于21年20末至2022年初密集發布了一系列數據法案,包括《數據治理法案(DGA)》、《數據服務法案(DSA)》、《數據法案(DA)》、《數據市場法案(DMA)》等。

中國人工智能倫理立法穩步推進

2017年7月,中國國務院發布了《新一代人工智能發展規劃》。規劃呼吁,不僅要重視人工智能的社會倫理影響,而且要制定倫理框架和倫理規范,以確保人工智能安全、可靠、可控發展。

2018年1月,在國家人工智能標準化總體組的成立大會上發布了《人工智能標準化白皮書2018》。白皮書論述了人工智能的安全、倫理和隱私問題,認為人工智能技術需遵循的倫理要求設定要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識上,并遵循一些共識原則。

2019年2月,科技部在北京召開新一代人工智能發展規劃暨重大科技項目啟動會,成立了新一代人工智能治理專業委員會。同年6月,國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則》。

《治理原則》提出,為發展負責任的人工智能,人工智能發展相關各方應遵循以下原則:和諧友好,公平公正,包容共享,尊重隱私,安全可控,共擔責任,開放協作以及敏捷治理。9月,專委會正式發布《新一代人工智能倫理規范》(以下簡稱《倫理規范》),細化落實《新一代人工智能治理原則》,將倫理道德融入人工智能全生命周期,為人工智能應用的相關活動提供倫理指引。這是中國發布的第一套人工智能倫理規范。

相比于2019年《治理原則》中針對人工智能發展需遵循的原則,21年20發布的《倫理規范》中提出了更加細化與嚴謹的6項基本倫理要求:

1

增進人類福祉

堅持以人為本,遵循人類共同價值觀,尊重人權和人類根本利益訴求,遵守國家或地區倫理道德。堅持公共利益優先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經濟、社會及生態可持續發展,共建人類命運共同體。

2

促進公平公正

堅持普惠性和包容性,切實保護各相關主體合法權益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產品和服務時,應充分尊重和幫助弱勢群體、特殊群體,并根據需要提供相應替代方案。

3

保護隱私安全

充分尊重個人信息知情、同意等權利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數據安全,不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權。

4

確保可控可信

保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處于人類控制之下。

5

強化責任擔當

堅持人類是最終責任主體,明確利益相關者的責任,全面增強責任意識,在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任。

6

提升倫理素養

積極學習和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應對能力。

2022年3月,中共中央辦公廳、國務院辦公廳印發了《關于加強科技倫理治理的意見》 (以下簡稱《意見》,明確指出科技倫理是開展科學研究、技術開發等科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障。《意見》包含制定生命科學、醫學、人工智能等重點領域的科技倫理規范、指南等,通過建立并完善科技倫理相關規范和標準,明確科技倫理要求;建立科技倫理審查和監管制度;提高科技倫理治理法治化水平,同時鼓勵和加強科技倫理理論研究。

圖表 10.多國人工智能倫理原則關注對比

展望未來:人工智能應如何約束?

1、平衡治理監管與產業協調發展

盡管歐盟在規范AI倫理問題上下手早,但其過度監管也給相關市場的發展帶來了限制,造成歐盟在數字產業的發展上全面落后于全球。在全球技術主權激烈競爭的背景下,立法與監管政策需要保持謹慎思考,在治理與發展之間做好平衡,在方便企業滿足AI倫理風險的同時,為企業、行業以及相關產業提供充分的發展空間。

2、針對人工智能倫理的高風險場景特別立法

為了降低人工智能倫理執法的難度,一些國家針對特定部門/高風險應用場景單獨立法。如許多國家把人工智能系統在醫療領域中應用列為需要關注的場景,在這些領域中,算法產生的結果將直接關乎人類的生命福祉。按照針對不同風險等級制定不同嚴苛程度的管理思路,可以通過分場景監管,做到有收有放,進而實現治理與發展的平衡。

3、提升科研機構和企業對人工智能倫理的認知及自律

在規避人工智能可能產生的倫理風險上,科研機構和企業更容易在相關實踐中獲得第一手信息,也更應該承擔起構建安全人工智能技術的主要責任。

4、提高全社會科技倫理意識

倫理問題涉及到社會行為準則與規范,而治理倫理問題則需從公共管理的角度出發,在充分了解人工智能技術所帶來的潛在社會影響,找到相對應的解決辦法,并形成社會對人工智能倫理的共識。建議利用各種渠道廣泛的進行科技倫理宣傳、活動與交流,提升公眾的科技倫理意識,進而加強全社會對人工智能倫理的廣泛監督。

作者:阿里研究院 韓冰意、蘇中 

責編:斌卡(轉載及媒體合作請評論區留言)

參考文獻:

  1. https://www.wired.co.uk/article/tiktok-filter-bubbles

  2. https://physicsworld.com/a/fighting-flat-earth-theory/

  3.  https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2719130

  4. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

  5. http://news.shcaoan.com/zixun/25798.html

  6. https://www.npr.org/2022/03/16/1087062648/deepfake-video-zelenskyy-experts-war-manipulation-ukraine-russia

  7. https://github.com/iperov/DeepFaceLab

  8. https://www.frameworksinstitute.org/publication/communicating-about-the-social-implications-of-ai-a-frameworks-strategic-brief/

  9. Floridi, L., & Cowls, J. (2022). A unified framework of five principles for AI in society. Machine Learning and the City: Applications in Architecture and Urban Design, 535-545. https://onlinelibrary.wiley.com/doi/abs/10.1002/9781119815075.ch45

  10. Daniel Zhang, Nestor Maslej, Erik Brynjolfsson, John Etchemendy, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Michael Sellitto, Ellie Sakhaee, Yoav Shoham, Jack Clark, and Raymond Perrault, “The AI Index 2022 Annual Report,” AI Index Steering Committee, Stanford Institute for Human-Centered AI, Stanford University, March 2022.

  11. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

  12. https://gdpr-info.eu/

  13. http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm

  14. https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html

  15. http://www.gov.cn/zhengce/2022-03/20/content_5680105.htm

  16. https://www.wired.com/story/gdpr-2022/?spm=a2c6h.12873639.article-detail.6.7c3b3a56MfwCEt

直播預告

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
如果AI是孫悟空,誰來念“緊箍咒”?
何積豐院士:智能制造與安全可信人工智能
AI倫理與隱私保護:探討人工智能的道德邊界
算法“黑箱”下AI信任存疑,可解釋性AI迎來發展“元年”
【最新編譯】斯坦福大學發布2019年人工智能指數報告
機器學習并不“萬能” | 萬門
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 南澳县| 长顺县| 芮城县| 资中县| 辽阳市| 兰西县| 富民县| 南昌县| 呼伦贝尔市| 湟中县| 北安市| 青海省| 怀柔区| 阳春市| 秦皇岛市| 潞城市| 基隆市| 长宁县| 兴山县| 宁晋县| 文昌市| 昌图县| 鹿邑县| 西盟| 三门峡市| 广灵县| 新民市| 南漳县| 五华县| 伽师县| 北票市| 黎川县| 渝北区| 轮台县| 贡山| 鄂尔多斯市| 安图县| 正阳县| 武陟县| 毕节市| 乌鲁木齐县|