作者:劉芳 編審:王新凱
排版:王落塵
在數據保護和人工智能技術監管方面,歐盟一直走在立法實踐的最前端。當地時間 4 月 21 日,歐盟委員會公布了名為 “Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts” 的草案,對人工智能技術應用進行了風險評定。
根據這份草案,歐盟將全面禁止大規模監控和利用人工智能技術的社會信用體系,同時對特定領域的 “高風險” 應用進行嚴格限制。
2020 年 2 月 19 日,歐盟委員會曾發布了名為 “White Paper on Artificial Intelligence - A European approach to excellence and trust” 的白皮書,就如何促進人工智能發展及解決相關風險進行了討論。而 21 日發布的這項草案正是白皮書的法律延伸,目的在于為實現可信賴的人工智能生態系統提供牢固的法律框架。
一旦得到通過,這項法案將在很大程度上對其他地區的人工智能治理帶來影響,就如 2018 年 5 月 25 日生效的《歐盟一般數據保護條例》(GDPR)一樣。
歐盟競爭事務負責人 Margrethe Vestager 在公布草案時表示:“通過標志性法規,歐盟正在確立全球規范,以確保人工智能是一項值得信賴的技術。通過制定標準,我們可以為符合倫理的人工智能技術鋪平道路,并確保歐盟在此過程中保持競爭力。”
Politico 專門負責 AI 報道的 Melissa Heikkil? 則認為,這個草案有著一定的先發優勢,它將在很大程度上影響由歐洲理事會、經合組織、北約、聯合國教科文組織和七國集團主導的全球人工智能伙伴關系 (Global Partnership on Artificial Intelligence) 的探討。
被全面禁止的人工智能應用
在草案中,歐盟委員會首先討論了什么是人工智能這個問題。
由于技術錯綜復雜,行業內部一直沒有就這個問題給出確定的統一答案。歐盟委員會認為,人工智能是一大類迅速發展技術的統稱。對于一組人類指定目標,這項技術可以在物理或數字維度給出包括內容、預測、建議或決策的輸出,從而對其交互的環境產生影響。人工智能系統或自己為終端產品(非嵌入式),或為產品的一個組成部分(嵌入式)。
為了提供必要的法律確定性,歐盟委員會在草案中用附件的形式詳細列舉出了屬于人工智能范圍內的技術清單。不僅如此,該清單還會不斷更新,從而和最前沿的人工智能技術保持同步性。換言之,人工智能的定義在這項草案里具有靈活性和時效性,巧妙化解了法律滯后性和技術飛速發展之間的矛盾,為之后行業的合規帶來了便利。
草案將人工智能應用分為了完全不可接受風險、高風險和低風險等不同等級,其中有三種應用被完全禁止。
第一種是在不知不覺中對人類意識進行操控,從而影響其決定或扭曲其行為,進而對人類造成身體或心理的傷害。有觀察家認為,這項條例可以讓人聯想到 Facebook、Twitter、谷歌和亞馬遜的大部分商業模式,及虛假信息和極端主義等推薦算法。雖然沒有明確指出條例所針對的對象,但歐盟委員會是世界上首個以法律語言禁止人工智能系統 “操控” 人類思想的機構。
第二種情況是利用兒童或殘疾人的脆弱性對其造成傷害,這顯示了歐盟一貫的對弱勢群體的重視和保護。
第三項則是基于人工智能系統上的社會信用體系。歐盟委員會認為,公共當局根據自然人的社會行為或人格特征對其進行信用評估會造成不可預見的后果,個人或特定群體的權益將受到損害。不同的社會語境會產生不同的算法偏見,而算法偏見將直接對信用評估產生影響。這樣的社會信用體系侵蝕社會公平公正的原則,因此需要被禁止。
對于很多人關注的面部識別技術,歐盟委員會在這份草案中留出了余地。作為 “實時遠程生物識別技術” 的一種,面部識別在很大程度上侵犯了人們的隱私。因此,無差別的大規模監控會被歐盟全面禁止,只有在三種特定情況下除外:尋找失蹤兒童;解除恐怖襲擊的威脅;以及在法律允許范圍內追查特定的刑事犯罪嫌疑人。
“實時遠程生物識別技術” 是這次歐盟委員會著重強調進行限制的人工智能技術,它特指在沒有顯著延遲的情況下對個體生物數據的捕獲、比較和識別。這項技術的特點是將人的生物數據與數據庫進行比較,并且事先并不確定目標人物是否會出現。值得注意的是,在歐盟議會內部有強烈的全面禁止這項技術的聲音。上周,40 名歐盟議會議員曾聯名上書,批評該草案對 “實時遠程生物識別” 技術網開一面。
高風險應用場景
除了以上被全面禁止的情況外,歐盟委員會還詳細列舉了人工智能的 “高風險” 應用。草案稱,高風險的人工智能系統只有在符合歐盟強制性要求的情況下才能投入市場使用,否則公共利益會受到不可接受的風險。換言之,未來不符合準入標準的人工智能系統將被無情地擋在歐盟市場之外。
首先是執法系統和法院對人工智能的使用。草案稱,執法當局使用人工智能系統會導致權力嚴重失衡,侵犯個人基本權益。如果訓練這些算法的數據質量不高,或算法的準確性及魯棒性沒有達到要求,那么程序性正義,公平審判權,辯護權和無罪推定的權利就會受到沖擊。歐盟委員會尤其將個人風險評估、測謊儀、辨別情緒等應用歸為高風險。在刑事訴訟中,基于人工智能技術對證據進行可靠性評估,對嫌疑人的性格特征進行判斷,或基于過去的犯罪行為進行推定等行為同樣被歸為高風險范圍。
其他的高風險應用場景主要集中在社會保障、就業和教育等與生活息息相關的方面。在就業方面,歐盟委員會考慮到了人工智能在招聘、升職、解雇及合同關系中可能扮演的重要角色。草案認為,利用算法對工作人員進行評估或監測無疑屬于高風險,因為它們對員工的職業前景和基本生計有著難以把控的影響。同時因為算法偏見,人工智能對婦女、殘疾人或年齡的歧視也將繼續,人們的隱私權將不可避免地受到威脅。
在教育方面,歐盟委員會認為利用算法進行招生錄取及考試評定必須被視為高風險,因為這很可能會影響他們這一生受教育的機會,還將產生社會固化的問題。在社會保障系統方面,歐盟委員會認為人工智能參與決策過程將對民生產生重大影響。例如,利用人工智能決定人們是否能獲得銀行貸款、財政補助、保障性住房、電力電信等基本服務。由于種族、殘疾、年齡、性取向等各種因素,算法很可能會延續目前社會已經存在的廣泛歧視,從而使弱勢群體處于更加不利的地位。
草案中對于高風險人工智能的合規要求招來了一些歐盟組織的反對。雖然歐盟將通過質量管理和評估程序嚴格管控,但一些人工智能技術供應商將被允許進行自我合規測評。數字權利組織 EDRi 的高級政策顧問 Sarah Chander 對 Politico 表示:“歐盟委員會將合規交給了人工智能供應商,這可能會損害(人們的)基本權利,甚至可能讓公共當局逍遙法外。”
對此某些科技行業的游說人士則感到寬慰,他們對高風險應用的合規要求表示稱贊。計算機與通信行業協會(Computer & Communications Industry Association)的 Christian Borggreen 對法新社指出,歐盟委員會采用了基于風險的評估方法,這很好。該協會代表了包括亞馬遜、Facebook 和谷歌在內的多家科技巨頭。違反此法案的公司可能被處于 2000 萬歐元或公司收入 4% 的罰款,與此前的反壟斷法規定類似。
隨著草案的出臺,關于數據主體基本權利與技術創新間關系的新一輪爭論也將隨之拉開序幕。要想獲得通過,這項法案必須得到代表歐盟 27 國政府的歐洲理事會和直接選舉產生的歐洲議會的批準,整個過程可能需要數年時間。去年年底,以丹麥為首的 14 個國家發表了一份不具約束力的文件,呼吁建立一個更 “靈活” 的法律框架。但對于德國這樣更注重隱私的國家來說,這項草案的規定明顯還不夠深入。
人工智能技術的日新月異與歐盟繁瑣復雜的立法機制形成了鮮明的對比。但無論如何,人類已經就人工智能的系統性風險已經展開了實質性的立法規劃。從這個意義上來看,歐盟再次在法治戰略上搶得先機。
參考資料:
https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence
https://www.gpai.ai/
https://www.politico.eu/newsletter/ai-decoded/politico-ai-decoded-key-battles-for-the-eus-ai-law-ai-governance-twitters-algorithm/
https://news.yahoo.com/eu-unveils-ai-rules-temper-041250924.html
https://www.nytimes.com/2021/04/16/business/artificial-intelligence-regulation.html