評估:識別和測量AI風險
本文摘自《推進人工智能(AI)問責制》| 遠望譯品
一旦定義了AI系統的范圍、情境、參與者和評估標準,就有必要評估其可能帶來的風險,這些風險可能導致AI系統不可信。這個流程包括識別或發現風險、分析可能導致這些風險發生的機制,并評估其發生的可能性和嚴重程度。
本節概括了評估可信AI中的概念、過程和措施,其中一些內容在不同程度上與多項原則有關聯。例如,因為“準確性”可能影響生產力,進而與“造福人類和地球”原則相關;作為系統層面評估標準,也可能與“魯棒性和安全性”相關。為了避免重復,這種多方面的概念和措施將在其最相關的原則下出現。
1 造福人類和地球
引導AI的發展和使用,使其造福人民和地球至關重要。可信AI可以促進包容性增長、可持續發展、社會福祉和全球發展目標的實現。在教育、健康、交通、農業、環境和可持續城市等領域,AI可以用于社會福祉,并為實現可持續發展目標(SDGs)做出貢獻(OECD,2022)。
在整個AI系統的生命周期中,AI參與者和利益相關者可以、并且應該促進具有適當安全保障的AI的發展和部署,以實現有益的結果。跨學科、多利益相關者的合作和社會對話有助于對這些有益結果進行定義、有助于以最佳方式實現這些有益結果(OECD,2022)。
確保AI系統造福人類和地球意味著:評估和改善其性能、準確性及可持續性,還應包括對經濟包容性和社會福祉的下游風險進行評估。相關概念包括:
l準確性:指的是AI系統執行其開發任務的能力,例如將信息歸類到正確類別,或進行驗證后的預測和推薦。可以通過錯誤率或類似于'預期的泛化性能'(Arlot和Celisse,2010)指標來量化系統的準確性。提高系統的準確性和性能可以提高生產力、促進經濟增長,從而可能增進福祉(例如通過改善與健康相關的因素)并降低財務和環境成本。
l可持續性:近年來,用于訓練AI模型的計算能力呈指數增長,影響到數據中心的工作負荷和能源消耗。一方面,數據科學和AI芯片制造的進步以及新型的計算架構使得更高效的AI模型成為可能,這些模型可以利用較小的訓練數據集并進行較少的訓練運行,使得計算資源得到更加可持續的使用。同時,算力也受益于數據中心清潔能源供電的增長(Strier、Clark和Khareghani,2022)
另一方面,就通用AI(包括大型語言模型(LLMs))和特定目的AI之間的權衡仍在進行中。LLMs需要大量的訓練數據和計算能力,并且比特定目的AI消耗更多能源。因此,應該權衡好高能耗和AI系統所帶來益處之間的關系(Bender等,2021)。
l社會福祉和經濟包容性:在適當的情況下,AI參與者應該評估其AI系統可能對社會福祉和經濟包容性產生的下游影響,包括對弱勢人群(尤其是兒童和弱勢群體)的影響和負外部性,以及對就業質量和自動化潛力的影響。
2 以人為本的價值觀和公平性
AI應該基于以人為本的價值觀進行開發,包括人權、基本自由、平等、公平、法治、社會正義、數據保護和隱私、消費者權益和商業公平 (OECD,2022)。
一些AI系統的使用對人權產生影響,包括人權(如《世界人權宣言》中所定義的)和以人為本的價值觀可能會被故意或者意外侵犯的風險。因此,在AI系統中推廣“權利和價值觀的一致性”(即設計中采取適當的保障措施)非常重要,包括適應環境的人類干預、監督和救濟的能力。這種方法可以確保AI系統在運行過程中保護和促進人權,并與以人為本的價值觀保持一致。遵循民主價值觀可以增強公眾對AI的信任,并支持其在減少歧視或其他不公平以及不平等方面的應用 (OECD,2022)。
人權影響評估(HRIAs)、人權盡職調查、人類決策以及人類參與AI過程(即“人在回環”方法)、道德行為準則、質量標簽和認證等措施在促進以人為中心的價值觀和公平性方面起到了作用(OECD,2022)。對這些措施的三類AI風險包括:(1)偏見和歧視風險;(2)隱私和數據治理風險;以及(3)對其他人權和民主價值的風險。
偏見與歧視
AI系統可能會持續傳遞偏見、排斥,并對弱勢和少數群體產生不平等的影響,例如少數族裔、兒童、老年人以及教育水平較低或技能較低的人群。在某些訓練數據集中,女性的邊緣化也可能導致輸出偏倚的結果。由于缺乏低收入和中等收入國家的特定數據來訓練AI系統,且因為這些國家在整體AI產業中的邊緣化,不平等影響帶來的風險尤為顯著。公平意味著AI應當賦予社會中的所有成員權力,并幫助減少偏見和排斥。 在整個AI系統的生命周期中,發現偏見是一項具有挑戰性的任務(見框3.1)。偏見的來源包括(IDB-OECD,2021;Barocas和Selbst,2016):
l歷史偏見:訓練數據中現有的模式,例如社會偏見。
l表征偏見(和有限特征):由于缺少屬性、樣本量不足或子群體數據完全或部分缺失而導致的信息不完整。
l測量偏見:在模型中省略(或包含)應該(或不應該)包含的變量,包括作為受保護屬性或群體的替代指標(例如,將社區作為種族的替代指標)。
l方法學和評估偏見:在度量指標的定義(例如,對目標人群的錯誤假設)、模型驗證和校準以及結果評估方面出現的錯誤。
l監控偏見和樣本偏差:在監控過程中對系統結果解釋不恰當,初始偏見隨時間累積并偏向于訓練數據,或者數據捕捉方式臨時發生變化。
l反饋循環和流行度偏見:推薦算法容易受到流行度偏見的影響,即少數熱門項目會頻繁推薦給用戶。這會形成反饋循環,頻繁推薦的項目會得到更多的反應,從而被更頻繁地推薦。
3.1 錯誤、偏見和噪音的技術注解
系統誤差是模型預測值與正在估計的變量的真實值之間的差異。偏見是指:錯誤在系統性地偏向于特定的數據子集或特定的亞群體。例如,如果某個變量的預測值在數據中的某個亞組中始終較低,例如女性在同等資質的情況下與男性在等價職位上的薪資,那么該薪資變量存在偏見。相反,噪音是指錯誤是隨機的。
來源:IDB-OECD (2021[21]).
不同的利益相關者對公平和公正有不同的觀點,在作為社會技術系統的AI應用中,需要超越技術專家的專業知識來診斷和減輕偏見(OECD,2022年)。個體公平意味著類似的個體應該被類似地對待;而群體公平意味著如果將人口分為不同的群體(例如通過群體的受保護屬性分類),那么AI系統的結果不應該有所不同。
一系列重要的文獻領域致力于實施數學公平度指標,來評估模型對亞群體的公正性(IDB-OECD,2021;Chouldechova,2017;Kleinberg、Mullainathan和Raghavan,2016;Corbett-Davies等,2017;Koshiyama等,2021)。不同的公平度指標導致了對系統中的偏見的評估方式有所不同。例如:
l機會平等:是否屬于受保護群體并不影響AI系統的輸出。這一概念常用的數學術語為平均差(Bellamy等,2018年)。
l結果平等或統計平等:受保護群體(例如性別或種族)的每個分段必須獲得相同輸出比例。普遍接受應用于這一概念的數學術語為統計均等差異(Bellamy等,2018年)。
l反事實公正:如果在受保護屬性的值發生變化時(例如在種族或性別發生變化時),AI系統的輸出保持不變,認為該系統是公平的。
選擇AI公平度量標準時,應該考慮到使用情境,并且選擇的理由應該存檔(IDB-OECD, 2021[21])。實際上,適用于所有問題的單一AI公平度量標準并不存在。而且,遵守某個定義通常意味著,無法完全遵守其他定義(Chouldechova, 2017[23])。因此,遵守給定的公平度量標準并不一定能保證AI系統的結果是公平的。
隱私和數據治理
除非與人權、基本價值觀和民主價值觀一致,否則AI系統可能會引發或加劇權力和信息獲取的不對稱性,例如雇主和員工、企業和消費者、政府和公民之間的不對稱性(EU-HLEG, 2019)。
當AI系統涉及知識產權時,必須保護系統模型及其參數的知識產權。此外,在醫療應用和其他應用中,訓練數據的隱私需要得到保護。AI系統中的數據保護指的是防止暴露模型及其訓練數據的(De Cristofaro, 2020[29])。應建立數據治理機制,以確保用于訓練模型的數據的質量和完整性;數據在系統部署環境中的相關性;數據訪問協議;以及模型處理數據的能力,以保護隱私和敏感信息。包括:
l隱私和數據保護:AI系統在其生命周期內應尊重隱私和數據保護(OECD, 2019),包括用戶提供的信息和通過與系統互動生成的用戶數據。還應該制定數據訪問和處理協議,明確誰可以訪問和刪除數據,以及在哪些情況下可以這樣做(Butterworth, 2018)。
l模型安全性:可以根據以下幾個方面來評估AI模型的安全性和隱私性:(1)惡意行為者可能擁有的訪問級別,從“黑盒”(即對模型沒有任何了解)到“完全透明”(即對模型及其訓練數據有完全的信息);(2)攻擊可能發生的階段(例如實在AI訓練期間還是推理期間);以及(3)是否可能發生出于“好奇”被動型攻擊或完全惡意的主動型攻擊(De Cristofaro, 2020)。
隱私和數據治理的風險可能在數據和模型層面上產生,也可能在二者的交叉點上產生,同時在人類和AI系統之間的交互過程中也可能產生。評估這些風險的方法包括:
l數據層面:數據保護影響評估是評估風險的標準程序(Bieker等,2016)。這一程序在一些法域中已被法律正式化,包括歐盟和英國(圖3.1)。評估應考慮到數據污染的風險,即訓練數據被惡意操控以影響模型行為(Tan和Shokri,2019)。
l模型層面:模型層面上的隱私和數據保護風險包括試圖推斷模型參數并構建“仿冒”版本或副本的嘗試。旨在提取模型的完整副本或等效版本,或復制其某些功能的技術可以幫助AI從業者評估模型層面上的漏洞(Ateniese等,2015;Tramèr等,2016;Orekondy、Schiele和Fritz,2019)。
l數據和模型層面的交叉點:風險包括通過與模型的交互對人口或訓練數據集中某些成員進行推斷。評估漏洞程度的技術包括:統計披露(Dwork和Naor,2010);模型反演(Fredrikson、Jha和Ristenpart,2015);推斷類別代表(Hitaj、Ateniese和Perez-Cruz,2017);以及成員資格和屬性推斷(Shokri等,2017;Ganju等,2018;Melis等,2019)。
l人類與AI的交互:培訓、清單和驗證過程可以幫助識別由開發者或用戶的無意行為或缺乏行為引起的隱私和數據治理風險,從而影響了人類和系統之間的交互。
圖3.1. 英國信息專員辦公室(ICO)對數據保護的定性評級
基于顏色編碼的對AI系統在數據層面上對隱私和數據治理的風險進行評估
來源:ICO (2022[42]).
先進的隱私增強技術(例如同態加密、安全多方計算和差分隱私)以及新型的訓練方法(例如使用多個組織的數據進行聯邦機器學習)可以用來保護AI系統并增強其隱私性(OECD, 2022[20]; De Cristofaro, 2020[29])。這些減輕措施的影響根據情境和其他變量而異,需要在系統級別進行測試。此外,新興的數據治理模型(如數據共享池、數據合作社和數據信托)可以幫助預防隱私風險并促進數據治理的民主化(Micheli et al., 2020[43])。
人權和民主價值觀
AI“可能在社會和經濟內部以及不同社會和經濟之間產生不均等的效應,特別涉及經濟變動、競爭、勞工市場轉型、不平等以及對民主和人權、隱私和數據保護、數字安全的影響”(OECD,2019[5])。AI既可以支持實現人權,也可能創造新的風險,使人權可能被故意或意外地侵犯。人權法律,結合其他法律和制度結構,可以作為一種工具,幫助確保以人為本的AI(信息框 3.2)。
3.2 人權與AI
國際人權是指包括《國際人權公約》在內的一系列國際法律,以及在過去70年里在世界各地發展起來的地區人權體系。人權設立了基于人的尊嚴、自治、平等和法治等價值觀的普遍最低標準。這些標準以及與之相關的法律機制為各國創造了具有法律約束力的義務,要求它們尊重、保護和履行人權。國際人權還要求那些被剝奪或侵犯權利的人能夠獲得救濟。
近期的政府間法律文書,如聯合國(UN)《企業和人權導則》(OHCHR,2011[44]),也涉及私人行為者在人權背景下的責任。這些文書賦予私人行為者尊重人權的責任。此外,經濟合作與發展組織(OECD)針對跨國企業的《OECD跨國企業指南》(OECD,2011[45])也包含了關于人權的章節。
具體的人權包括平等、非歧視、言論和結社自由、隱私以及經濟、社會和文化權利,如教育或健康。人權還與更廣泛的倫理關切和與AI相關的其他法規領域重疊,如個人數據保護或產品安全法。然而,這些領域的范圍通常不同。
來源:OECD (2019).
人權框架為發現和管理AI對人權的風險創造了義務,包括邊緣化和弱勢群體的權利。這可以通過人權盡職調查(如人權影響評估)來實現。人權影響評估可以識別AI系統生命周期中參與者未能預見的風險。為此,它關注的是人權的附帶影響,而不是技術或其輸出的優化。人權影響評估或類似的風險管理過程可以在AI系統的整個生命周期中通過設計來確保對人權的尊重(OECD,2019[46])。應在每個生命周期階段和系統的環境、范圍、性質和目的發生變化時進行定期的人權影響評估(歐洲理事會,2019[47])。
人權影響評估(HARIA)的實例包括加拿大的算法影響評估(AIA),這是加拿大財政委員會關于自動化決策的指令的強制性工具,以及荷蘭議會對任何旨在支持公共和私營部門決策的算法強制實施的“人權與算法”(IAMA)影響評估。此外, OECD AI系統分類中有關“造福人民和星球”這一部分囊括了一個樣本清單,用于評估AI系統對福祉、選定的人權和民主價值的潛在影響(OECD,2022)。
人權影響評估還應評估由數據標注和數據豐富實踐引發的風險。多項研究(Gray和Suri,2019;PAI,2021)強調,數據豐富實踐中,勞工的采集和執行條件通常缺乏透明性,從而可能導致對工人的不當對待。這是與AI行為者的問責制直接相關的問題,也會影響到訓練數據的質量。丹麥人權研究所的指導和工具箱說明了如何使用人權影響評估來評估和解決商業活動對人權的負面影響。
在考慮與人權和民主價值有關的其他風險時,應考慮AI系統的部署如何影響利益相關方群體的權力分配和平衡,以及其對人類行為的影響,例如通過操控和大規模極化意見。盡管識別此類宏觀級別的風險可能具有挑戰性,但它對于AI生態系統中的問責至關重要。
不同人權之間可能存在權衡取舍。為了調和這些權衡,國際人權法允許對不同的權利和自由進行限制,如果這些限制符合合法性、合法性、比例和必要性的'三部分測試'。人權影響評估(HRIAs)可以在AI系統的設計和開發階段促進平衡這種權衡。例如,該評估可以檢查所選擇的設計是否符合適用法律,并且是否在各種人權和不同利益相關者的潛在影響下是相稱和必要的(Arai-Takahashi,2002年; Greer,2004年)。
3 透明度與可解釋性
可解釋性與可理解性
能夠清晰地、有意義地解釋AI系統的結果,對于建立和維護用戶的信任至關重要(Longo等人,2020)。可解釋性指:AI系統應該就其預測、推薦或決策的影響因素和決策過程提供明晰且易于理解的信息(OECD,2022)。
可解釋的AI系統意味著,用戶可以理解、挑戰或質疑AI輸出的結果,可以要求賠償,并且能夠通過人機界面進行學習,這對用戶是有益的。開發人員和其他AI參與者也能從中受益,因為他們能夠識別系統問題,修復系統,并通過包括理解因果關系在內的問題對系統進行更深入地了解。AI缺乏可解釋性可能導致利益相關者無法對AI系統的輸出結果進行質疑,也無法修復系統中的錯誤。可解釋性的要求細節可能因地點或用例而異,同時也要考慮適用的法律法規。因此,對于給定系統,同一技術或方法在不同情境中可能不適用。可理解性的概念與可解釋性密切相關(見信息框3.3)。
3.3 可解釋性VS可理解性
AI領域中,對可解釋性(explainability)和可理解性(interpretability)的定義一直在不斷演變。根據當前的趨勢,可解釋性指的是準確描述導致算法輸出的機制或實現的能力。而可理解性則指的是人類是否能夠從系統的輸出中推導出特定用例的含義。
有多種方法可以生成和提供對AI系統輸出結果的解釋和說明。可解釋性和可理解性工具和技術可以是可以是模型綁定的(model-specific),即基于特定模型,也可以是模型無關的(model-agnostic),即可以應用于任何模型;可以是局部的,也可以是全局的(Hall, 2019; Molnar, Casalicchio and Bischl, 2020):
l模型綁定(model-specific )工具VS.模型無關(model-agnostic )工具:模型綁定技術可以應用于單一類別或類型的算法,例如線性模型中的p值;而模型無關技術適用于多種類型的算法,例如對不可知模型的局部解釋(LIME)。
l局部技術VS.全局技術:局部可解釋性技術能夠詳細說明模型如何得出特定的預測,例如,在圖像分類中,顯示對像素子集產生最大影響的部分,例如使用夏普利值(Shapley values)等技術;而全局技術則可以詳細說明模型整體上對哪些特征重要,例如使用評估特征或變量重要性的技術。
透明度和可追溯性
透明度是指披露責任,確保人們知曉在預測、推薦或決策中使用了AI,或在互動中使用了AI(例如聊天機器人)。隨著AI應用的廣泛普及,在某些情況下,披露的可取性、有效性或可行性可能會受到影響(OECD,2022)。透明度還意味著讓人們能夠理解AI系統在應用領域中是如何開發、訓練、運營和部署的,以便用戶和消費者可以作出更明智的選擇。透明度也指向包括監管機構和審計師在內提供有意義信息的能力,并有能力闡明其提供了何種數據和輸出,以及為何做出此種輸出的原因。因此,透明度不一定需要擴展到對源代碼、其他專有代碼或數據集披露的層面,因為這些操作可能在技術上過于復雜,不適于對結果的理解。源代碼和數據集(包括商業秘密)也可能受到知識產權法規的限制(OECD,2022)。
AI的可追溯性指:在AI系統的開發過程中,需要保持對數據、過程、代碼和其他元素的完整記錄。可追溯性通常涵蓋AI系統的一個元素或組件的詳細信息,例如輸入數據或模型,這對于系統審計是必不可少的。
總而言之,透明度可以被理解為圍繞AI系統提供信息和披露,而可追溯性是在部署前、部署期間和后期跟蹤AI系統的能力(OECD,2022;IDB-OECD,2021)。缺乏透明度和可追溯性可能會阻礙對AI系統及其使用的信任度,并減弱對其輸出的問責。
在每個生命周期階段記錄風險管理過程和決策有助于透明度、可追溯性和AI問責(表 3.1)。
表 3.1.評估AI系統生命周期各階段透明度和可追溯性示例
所處AI系統生命周期的階段
記錄示例
計劃和設計
有關AI系統的目標、預期用戶以及因為AI使用和可預見型的濫用而受到影響的利益相關者的信息
收集和處理數據
數據源,包括數據集元數據、數據收集過程和數據處理信息
構建和使用模型
完整的、經過文檔化的代碼,包括必要的庫及其適用版本
驗證和確認
有關如何執行代碼以保證輸出的可再現性的信息,包括詳細參數和計算要求的文檔
部署
有關如何使用模型輸出結果的信息
運行和監控
有關監控策略的信息,包括性能指標、閾值、預期模型行為和緩解措施;有關模型的缺陷、限制和偏差的信息,以及是否及以何種方式向相關利益相關者傳達的信息
來源:根據IDB-OECD(2021年)調整。
4 魯棒性與安全性
培養人們對AI的信任,解決AI系統的安全挑戰至關重要。在該語境中,魯棒性指的是具有耐久性或克服不利條件的能力,包括抵御數字安全風險并且保持性能水平。AI系統在其生命周期內,不應生成不合理的安全風險,包括物理安全風險,無論是在正常使用條件下還是在可預見的誤用條件下。涉及消費者保護等領域的法律法規確定了何為不合理的安全風險。政府應與利益相關者協商決定,這些法律法規在何種程度上適用于AI系統(OECD,2022年)。
魯棒性和安全性問題在AI中相互關聯。例如,當數字安全風險未得到適當管理時,數字安全可能會影響互聯產品(如汽車和家用電器)的安全性。
與AI的魯棒性和安全性相關的技術概念包括:
l抵御攻擊的韌性:針對軟件和硬件漏洞(例如數據中毒,如篡改訓練數據以產生不良結果)和操作錯誤(例如數據泄漏,如在訓練數據集中包含了驗證集或測試數據;或雙重使用,如濫用系統)的自我保護水平。對抗魯棒性衡量了AI系統在最壞情況下的表現(Carlini等,2019;IDB-OECD,2021年)。
l通用安全和備用計劃:出現問題時的保障措施。所需的安全水平取決于AI系統風險的嚴重性。'形式驗證'(Qin等,2019年)是有意義的,因為它旨在通過數學方式檢查系統行為是否滿足給定的屬性或規范(例如安全性)。
l可靠性(一致的預期行為和結果)、可重復性(同一團隊在相同的實驗設置下使用相同的實驗裝置可以獲得相同的結果)、可復制性(不同團隊在相同的實驗設置下使用相同的實驗裝置可以獲得相同的結果)、可再現性(在給定相同輸入和使用相同方法的情況下,兩個動作的結果(例如模型的兩個輸出)之間的接近性)和可預測性(使利益相關者對系統的輸出能夠做出可靠的假設)(Almenzar等,2022)。
基于價值觀的原則之間的相互作用和權衡
越來越多人開始認識到,與基于價值觀的AI原則相關的程序和技術屬性之間存在權衡和互動。例如:消除偏見可能會導致系統精度下降,這是其性能的一個組成部分;使模型更易于解釋可能會影響系統性能和隱私;改善隱私可能會限制評估AI系統不良影響的能力。
權衡決策的優化取決于多個因素,尤其是使用案例領域、監管環境、以及使用AI系統的組織的價值觀和風險容忍度。在這個背景下,風險容忍度是指“組織或利益相關者為實現其目標而愿意承擔風險的準備程度或容量”(NIST,2022 )。權衡需要在特定背景下進行分析和平衡。
與可信AI原則相關的程序和技術屬性之間最常見的權衡因素和相關概念包括:
l可解釋性VS.性能:關于模型的可解釋性和性能之間的權衡已經得到廣泛探討(Goethals、Martens和Evgeniou,2022[61];Koshiyama、Firoozye和Treleaven,2020[62];ICO-Alan Turing研究所,2020[63];Babic等,2019[64];OECD,2022[1])。正在開發“可解釋性設計”工具和方法來實現這種權衡。圖3.2通過期望的可解釋性和性能水平將算法進行了分類。但也存在例外情況,例如當數據進行預處理并包含非線性特征時,線性模型的可解釋性會受到影響。
圖3.2. 通過可解釋性和性能對算法進行分類的映射圖解
注:基于文獻的估計,僅供說明目的。
l公正性VS.性能:公正性/偏見和性能之間的權衡是一個重要的爭議話題(Feldman等人,2015[66];Kleinberg、Mullainathan和Raghavan,2016[24];Zafar等人,2019[67])。例如,模型設計師和開發者可以通過采用統計均等和準確性等指標來定義偏見和性能的可接受界限。這些界限可以通過與業務和終端用戶聯絡、以及分析在應用領域中普遍采用的最佳實踐、標準或法規來確定。
l可解釋性VS.隱私:人們越來越期望AI模型既具有可解釋性又具有隱私保護性。例如,通過識別不必要的變量(Goldsteen等人,2020[68])的特征重要性圖表技術,可以在解釋模型的內部工作原理的同時、最小化所需的個人數據。
l隱私VS.公正性:相關問題是隱私和公正性之間的權衡。為了給所有受保護的群體或屬性提供相同的性能,公平的AI系統需要高度透明和可解釋性,這可能會以隱私為代價。反之亦然:隱私的級別越高,審查AI系統并確保其公平性就越困難。新興的數據治理方法和隱私技術可以幫助緩解這種權衡的難度。
l透明度VS.安全性:透明度和安全性之間存在權衡:系統越透明,攻擊它就越容易(Erdélyi和Goldsmith,2022[69])。
l可持續性VS.性能:通常情況下,大AI模型(指參數和計算負荷)比較小模型表現更好,但需要更多能源。
在AI原則相關的所有程序和技術屬性之間進行權衡通常是困難的,也不總是理想的。權衡分析目的是將應用程序、用例和法律道德背景之間的平衡進行優化。