精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
基于人工智能的軍事決策過程中的未來戰爭與責任管理!


摘要: 人工智能(AI)技術在軍事用途中的應用正在快速增長。因此,自主武器系統已經能夠侵蝕人類的決策權。一旦部署了此類武器,人類將無法改變或中止其目標。盡管自主武器擁有重要的決策權,但目前它們無法做出道德選擇。本文重點介紹人工智能在軍事決策過程中的倫理影響,以及具有機器學習 (ML) 功能的人工智能系統的特征如何與人類決策協議相互作用。作者認為,在未來,這些機器可能能夠做出類似于人類做出的道德決定。基于嚴格的技術、道德和文化參數對人工智能系統進行詳細而精確的分類,對于確定哪種武器適合特定任務和最合乎道德至關重要。

關鍵詞:人工智能、機器學習、致命自主武器系統、決策、軍事倫理、指揮官責任

人工智能技術在軍事用途中的應用正在快速增長。人工智能技術已經支持幾個新的系統和平臺,包括動能和非動能(例如,具有爆炸性有效載荷或網絡攻擊的自主無人機)。盡管人類在部署此類武器中的作用仍然極為重要,但人工智能的使用越來越多,使得武器能夠侵蝕人類的決策權。人類可以完全控制半自主武器系統。他們擁有部分控制權,但最終保留了覆蓋受監督自治系統的能力,最終無法控制無監督自治系統。在最后一種情況下,一旦部署了這些系統,人類將無法改變或中止其目標。

可能最具爭議的武器是無人監督的自主武器,因為一旦部署,人類就沒有能力控制它們。盡管目前可用的此類武器數量有限,但很可能繼續開發自主武器,其適用性將擴大。1

學者和從業人員之間關于使用這些武器系統的辯論主要集中在其潛在目標上;然而,在這篇文章中,作者建議我們應該將這些武器系統的使用視為任務的一部分。半監督和監督自主武器系統將由軍事運營商部署以支持任務,而自主武器將被賦予任務完成。我們處理的核心問題是,盡管自主武器可能被授權完成任務,因此將擁有重要的決策權,但它們很可能無法做出道德選擇。事實上,自主武器系統仍然缺乏的是,如果分配的任務可能產生不可預見的不道德后果,探索和考慮替代行動方案的能力。例如,在一枚巡飛彈藥被賦予摧毀雷達站的任務后,在攻擊的關鍵時刻,一輛載有家人的民用車輛可能會經過目標。自主武器系統將繼續執行其任務,并可能忽略任何可能的不道德附帶損害。

因此,人工智能在戰場上的部署引發了關于責任差距問題的重要爭論。關于致命自主武器系統(LAWS)的使用,Ann-Katrien Oimann詳細探討了當前關于責任差距問題的辯論。她指出了兩個主要立場,即那些認為可以通過采用三種不同的方法(技術解決方案、實際安排和追究系統責任)來填補負責任的差距問題的人,以及那些認為問題無法解決的人。2作者認為,有一種辦法在某種程度上有可能彌合這些顯然不可調和的立場。事實上,根據嚴格的參數對人工智能系統進行詳細和精確的分類,對于確定哪種武器適合特定任務至關重要。這些參數可能具有技術、道德和文化性質。例如,假設具有執行給定任務的正確功能的特定 AI 系統可用。在這種情況下,故意使用不同人工智能系統的指揮鏈應該對潛在的不道德結果負責。但是,如果使用了正確的AI系統,但它做出的決定導致了意想不到和不道德的結果,則該事件應被視為該決定是由人類善意做出的。最后一個案例清楚地表明,為什么文化因素,即人類愿意接受人工智能潛在有害的決定,將在人類決策過程中的人工智能整合中發揮決定性作用。

今天的自主武器無法做出道德選擇這一事實并不一定意味著它們永遠無法做出道德決定。作者認為,在未來,這樣的機器可能能夠做出類似于人類做出的道德決定。

因此,必須盡可能多地探索和確定哪些機器決策,特別是道德決策,可以為人類所接受。如果不這樣做,可能會產生兩個影響。一方面,那些對人工智能系統過于自信的人可能傾向于接受所有自動化決策,認為計算機比人類敏銳得多。另一方面,那些對計算機決策持懷疑態度的人,因為他們認為計算機永遠不符合足夠的道德標準,可能不會接受任何人工智能生成的決定。他們可能會放棄這項技術在速度和準確性方面可能為軍事決策提供的潛在好處。挑戰在于開發一種人工智能驅動的決策方法,在過度自信和懷疑陣營之間確定中間地帶。

用于識別這樣一個中間點的參數將首先考慮可用的技術,其次考慮道德框架,最后考慮人類接受人工智能決策的傾向。本文重點介紹人工智能在軍事決策過程中的可能倫理影響。它將探討具有機器學習(ML)功能的AI系統的特殊特征如何與人類決策協議相互作用。 

技術因素和人工智能星系

自主技術將繼續增加人工智能的作用,但更重要的是,它們將依靠機器學習來發展模仿人類思維和行為的能力。目前,盡管人工智能試圖模擬人類智能,但它仍然缺乏人類的好奇心或主動性來學習如何做它沒有編程的事情。3在人工智能領域,重要的是要注意人工智能狹義智能(ANI)系統所扮演的角色,該系統可以執行僅限于特定區域的任務(谷歌地圖可以繪制路線,但不能預測天氣);以及更類似于人類智能的通用人工智能 (AGI) 系統,因為它在決策時具有“看到整體的能力”。4雖然已經有許多高效ANI系統的例子,但目前證明不可能開發出可靠的AGI系統來支持決策過程。5因此,本文將主要提及 ANI,將它們標識為 AI 系統。關于機器學習,James E. Baker將其定義為“計算機使用算法,計算和數據來學習更好地執行編程任務從而優化功能的能力。6

盡管能夠在優化資源的同時提供更好、更快的輸出,但被編程為下棋的機器永遠不會主動學習如何玩不同的游戲,例如跳棋,因為它們僅限于執行編程的那些動作。作者并不排除人工智能系統可能以不可預測的方式運行的事實。本文基于對它可能發生的擔憂。這意味著,如果一個人工智能系統被編程為執行某個動作(玩一個特定的游戲),該系統將提高它玩這個游戲的技能,但它不會主動學習另一個游戲。

這些機器基本上是被動的,但它們在其特定用途的范圍內變得更加主動。在過去的二十年中,ML在某些應用程序中的集成改善了AI的積極態度。布萊恩·大衛·約翰遜(Brian David Johnson)正確地指出,我們應該期望“所有技術都將使用AI和ML。該術語的使用可能變得毫無意義,因為AI和ML將被一般軟件所包含。7例如,考慮谷歌巢恒溫器;這個家裝小工具觀察用戶的行為和生活模式(例如,用戶在前幾天做了哪些更正?用戶什么時候離開家或回來?在一天或一周的不同時刻設置溫度值。然而,這種積極態度的改善仍然遠遠不能反映人類大腦在沒有被指示的情況下探索和學習新事物的好奇心。

AI和ML的集成將允許創建可以模仿人類大腦行為的機器。斯圖爾特·J·拉塞爾(Stuart J. Russel)和彼得·諾維格(Peter Norvig)提出了一種分類法,根據這些系統“理性思考;理性行事;像人類一樣思考;并像人類一樣行事。8機器將能夠理性地思考和行動,采用明確定義什么是理性對錯的標準。9什么是對的,什么是錯的,遵循一個靜態的行動過程,因此它不會改變。這些機器的一般期望是,給定一組特定的輸入,輸出將隨著時間的推移保持不變。當這些系統的局限性必須在沒有正確或錯誤答案模型的情況下做出決定時,就會出現。像人類一樣思考和行動的機器不是指理性,而是試圖像人類一樣行事。這種差異意味著可以從所有其他事物中的經驗中學習的可能性。ML 使機器能夠從經驗中學習。10但是,如果參考模型基于真的或假的答案,則它們不足以復制人類行為。

人類決策的復雜性需要一種方法,這種方法應該超越計算機算法的典型是或否的二進制邏輯。Bahman Zohuri和Moghaddam Masoud詳細分析了模糊邏輯的概念:“一種基于'真度'的計算方法,而不是現代計算機所基于的通常的'真或假'(1或0)布爾邏輯。11模糊邏輯是構建有效人工智能系統的基礎,因為它處理決策,不僅將它們分類為完全正確或錯誤,而且還將這些類別之間的連續統一體分類。可以說,ML和模糊邏輯的結合允許創建自治系統,這些系統可以有效地模仿人類的推理和決策,其獨特的能力是從經驗中學習并表達判斷,例如,幾乎正確或不完全錯誤。

倫理因素:人工智能在決策中整合的倫理方面

人工智能系統在道德領域發揮作用,但它們作為道德代理人的資格需要考慮。詹姆斯·摩爾(James H. Moor)通過倫理代理的不同類型分析了不同機器倫理的本質。他區分了具有隱性代理的機器,其固有設計可防止不道德行為的機器(即“檢查和報告藥物相互作用的藥房軟件”);明確的代理,能夠“明確表示道德,然后在這種知識的基礎上有效運作”的機器;以及完全的道德代理,擁有“意識、意向性和自由意志”的機器。12目前,還沒有具有這三個特征的機器;然而,根據摩爾的說法,人工智能系統足夠道德,可以充當道德代理,對其特定功能具有所有必要的限制。13人類可以評估機器的道德規范,并在為特定目的而構建時將其用于特定和有限的部門,例如為救災行動設計的跟蹤和分類系統。14如果人類能夠達到完全道德能動性的地位,那么人類可以完全信任用于不受約束的通用目的的人工智能系統的倫理。然而,“窄”AI(ANI)是目前唯一可用的系統。

使用人工智能系統來支持自動駕駛汽車引發了一場有價值的辯論,即如何將道德規范整合到人工智能系統中,以培養他們做出道德決策的能力。Vincent Conitzer等人發現,在這個領域,僅靠理性主義的倫理方法可能會導致最大化效用的決定,但可能并不完全合乎道德。15他們建議,最初的理性主義方法應該在以后整合到基于“人類標記實例”的機器學習方法上。16因此,在一個系統學會了如何遵循嚴格的理性主義方法進行決策之后,人類應該繼續向這些系統提供信息,說明在各種不同的情況下什么是正確的道德決策。

諾亞·古道爾(Noah Goodall)在《自動駕駛汽車碰撞期間的道德決策》(Ethical Decision Making in Automatic Vehicles Crashes)一書中采用了類似的方法,但采用了更明確的實際行動序列,以更好地將道德規范整合到自動駕駛汽車的人工智能系統中。古道爾確定了道德人工智能系統開發的三個階段。在第一階段,車輛使用理性主義的道德體系(例如,結果主義),根據一般結果(例如,傷害比死亡更可取)采取行動以盡量減少碰撞的影響。17在第二階段,在第一階段建立的規則的基礎上,車輛將學習如何在一系列真實世界和模擬碰撞場景中觀察人類選擇做出道德決策。18第三階段也是最后階段需要自動駕駛汽車使用“自然語言”解釋其決策,以便人類可以理解和糾正其高度復雜且可能難以理解的邏輯。19這種能力將幫助人類理解為什么車輛會做出某些甚至意想不到的選擇,開發人員將能夠理解,更重要的是,糾正錯誤的行為和決定。20

Conitzer等人和Goodall同意分階段的人工智能培訓,該培訓從實施結果主義方法開始,然后整合基于人的經驗和專業知識。21技術進步的快速發展使我們相信,可能很快我們將能夠在人工智能系統中建立一個有效的道德框架。開發人員可以采用自上而下或自下而上的方法將道德規范構建到人工智能系統中。對于前者,開發人員將把所有想要的道德原則(即“阿西莫夫機器人三定律、十誡或......康德的絕對命令》)。22通過自下而上的方法,機器將在沒有特定道德或倫理知識基礎的情況下從多種情況下的人類行為中學習。23

使用自上而下的方法,沒有必要對機器在不同情況下可能做出的所有可能決策進行編程,因為它們將根據其嵌入式原理做出決定。24這種方法突出了模糊邏輯實現的重要性,因為它允許人工智能系統超越簡單的對與錯二分法。25做出足夠正確或不完全錯誤的決定的可能性擴大了人類可以識別他們可接受的選擇的可能選擇的范圍。然而,人類決策的道德力量是基于通常從童年開始的終身倫理發展,而自上而下的人工智能倫理對外部變化是被動的。根據Amitai Etzioni和Oren Etzioni的說法,自上而下的方法“非常難以置信”。26

通過自下而上的方法,機器可以在沒有特定道德或倫理知識基礎的情況下從多種情況下的人類行為中學習。27機器觀察人類的行為和對情況的反應。根據這些觀察,機器創建自己的規則集來獨立做出決策。這種方法的主要問題是,人類并非完美無缺,并且會犯人工智能系統可能無法識別并因此吸收為行為模型的錯誤。28很明顯,自上而下和自下而上的方法都存在缺陷,可能會阻礙機器的道德能力,并且難以緩解。

假設技術可以支持完全道德主體AI的發展,那么這樣的機器將是進化最快的AI系統。自上而下方法的應用將降低主要從經驗中學習的能力,因為機器主要依賴于由有限數量的個人輸入的人類標記數據或指令,而不是訪問特定動作/行為的整個人類經驗。自下而上的方法將使機器暴露在人類的自然缺陷和不當行為中,并允許開發像人類一樣可能犯錯誤的機器??梢哉f,最后一種情況可能會導致人類過度依賴一個系統,盡管該系統與人類一樣不準確,但由于其速度和用戶友好性,可能更有效。

另一個需要考慮的問題是關于與人工智能系統做出的決策有關的責任感。由于自主武器系統在執行任務時具有高度的自主性,可以識別和打擊軍事目標,因此使用自主武器系統引起了人們對錯誤決定和行動中的責任和問責的擔憂。29馬克·瑞安(Mark Ryan)提出了人工智能決策的責任問題,指出如果一方面將錯誤人工智能系統決策的責任分配給其設計者是不公平的,因為這些系統可以學習;另一方面,人工智能不能對其決策負責,因為它不是道德主體。30

羅斯·W·貝拉比(Ross W. Bellaby)考慮了與軍事人工智能系統故障責任相關的方面,分析了涉及自主武器或遙控武器系統的不同案例。他認為,責任與做出決定的可能性是相輔相成的。31理由是,如果使用遙控武器發生道德故障,人類飛行員或人類指揮鏈將對該失敗負責。然而,如果自主武器系統犯了道德錯誤,這將是其人工智能的責任,但人工智能不是一個受到法律訴訟的實體,因此責任應該由其開發者或決定將該系統用于該任務的人承擔。雖然開發人員可能會爭辯說,他們在失敗之前已經編寫了很長時間的代碼,并且在失敗時沒有可用的信息,但人類指揮鏈也可能堅持認為他們不能影響決策并發布命令以避免失敗。32在最客觀的基礎上進行識別,其中針對每種特定情況的最佳人工智能將是一個有用的工具,至少如果對訴諸錯誤的人工智能系統負有一定責任的話。

最終,對人工智能系統的完全依賴可能會在責任和問責鏈中造成差距,最終可以“與使用該系統的軍事運營商或指揮官保持距離并減輕其責任”。33風險在于,人類覺得自己沒有任何責任,可能沒有考慮人工智能系統所做決策的倫理影響。然而,在所有那些沒有明顯、不可預測的技術故障的情況下,全自主武器系統在執行指定任務時所犯錯誤的責任應由其指揮鏈承擔。

未來戰場環境:在決策過程中利用人工智能的優勢

在不久的將來,戰斗人員將面對能夠在空中、陸地、海上、太空和網絡空間同時進行的多域作戰(MDO)的敵人。在MDO中,人類可能會發現很難做出快速的,更重要的是及時的決策。正是在這樣的環境中,自動化系統對于支持人工智能的人類出圈決策過程將非常有益。34這種支持對于節省時間和在敵人身上獲得優勢至關重要。Anupam Tiwari和Adarsh Tiwari指出,“通常,時間表主要取決于移動設備或人員所需的時間,甚至只是彈藥移動到目標的時間。重要的是不要夸大在這些情況下加速決策過程的價值。35然而,這種辦法沒有考慮到決策過程的持久性;相反,這種辦法沒有考慮到決策過程的持久性。一旦總部發布命令,部隊在戰場上移動,觀察-定向-決策-行動(OODA循環)循環將繼續運行,以保持秩序與共同作戰圖的變化保持一致。出于這個原因,人工智能系統可能比看起來更相關。

此外,關于OODA循環,機器和人類做出決策的方式有相似之處。例如,Amitai和Oren Etzioni表示,自動駕駛汽車“被編程為收集信息,處理信息,得出結論,并相應地改變它們的行為方式,而無需人工干預或指導。36這些車輛被編程為以與軍隊通過OODA循環相同的方式接近決策過程。

人工智能系統改善了數據收集,并加速了態勢感知的制定和更新。行動是信息驅動的,成功往往站在那些對戰場有更好情況感知的人一邊。更多的信息使計劃者能夠預測敵人的舉動,并可能先發制人。37有理由認為,當今人工智能的重大局限性,例如其高度受限的“在某些條件之外識別圖像(觀察)的能力”是暫時的。38未來,人工智能將能夠持續改進情報收集,通過不同的應用程序提高態勢感知的清晰度,例如改進圖像、面部、語音識別、數據聚合和翻譯。39這種未來情景的一個跡象是美國陸軍發展了部署無人機群的能力,以“通過持續偵察提高態勢感知能力”。40在更短的時間內提供更精細和大量的信息將使擁有這項技術的人在 OODA 循環周期開始時在態勢感知方面比對手具有決定性的優勢。

在人工智能的支持下,自動化數據處理儀器可以提供更好的情報,并為軍事問題提出選擇。遺傳學、文化和綜合專業知識嚴重影響每個決策者處理信息和產生智能的心智模型。41簡而言之,多域環境中的觀察階段可能會迅速耗盡人類的分析能力,從而降低軍事規劃者做出決策和采取行動的速度。42為了緩解分析能力的短缺,人工智能和機器學習系統有助于實現一個環外系統,其中人類的貢獻嚴格限于必要的,這可能是系統的激活或用于識別戰場上參與者的參數的定義敵人。43根據Daniel J. Owen的說法,人工智能將在“人類決策者通過整合和綜合大量、不同的信息源來定位能力”的轉變中發揮重要作用。44盡管如此,無論是采用自上而下還是自下而上的方法,訓練AI/ML系統的都是人類。

如果“定向”階段以定義一些行動方案 (COA) 結束,則下一階段是對這些 COA 進行比較和加權以做出決定。假設人工智能系統的完全可靠性,他們可以決定人類應該實施什么選項。事實證明,時間是成功的關鍵資源,在不久的將來,似乎每一分之一秒都可能是決定性的。人類不太可能以與AI / ML相同的速度自給自足地管理情況。45經過訓練以實現模糊邏輯的改進自治系統可以提供準確和快速的決策。46

在“行動”階段,人工智能可以改善部隊保護。事實上,AI/ML系統有能力運行機器人和自主系統(RAS)。正在測試許多不同的RAS類型,以減少人類參與戰斗并提高武裝部隊的表現。能夠依靠先進的自主性,使RAS能夠在更長的時間和更遠的距離內執行危險任務,同時減少處于危險中的人員數量。47

平衡技術、道德和文化因素

在未來技術創新的應用中,在人類對人工智能的兩種極端方法之間確定一個中間點至關重要。一方面是絕對的懷疑,另一方面是對使用人工智能的無條件信任。作者認為,確定這樣一個中間點應考慮三個因素:技術、倫理和文化。48這個中間點的位置實際上可能有時比另一側更靠近一側,這取決于三個因素中每個因素的相關性。

圖1. 因素平衡

資料來源:作者提供,MCUP改編。

在圖 1 中,在軸的原點,三個因素處于各自的最小值。最小值表示技術不支持數據處理的條件;道德不能被納入決策;而且,從文化的角度來看,不可能接受機器可以代表人類做出決定。三角形代表三個因素達到平衡的點,為適合有效和道德決策的人工智能系統創造條件。虛線箭頭表示從原點到平衡點的距離。

盡管目前這個平衡點已經遠離了原點,但人工智能遠非具有道德維度的決策的完全可信支持。可以再次使用GPS導航儀的示例來描述當前情況。該技術允許處理相關數據,以確定個人在世界中的位置,將其與不同的地理點相關聯,并評估所有變量(時間,空間和法律),為該個人提供到達終點的最佳路徑。這種選擇的道德含義很簡單,以至于可以通過基本的功利主義模型使這個決定在道德上被接受,這種模型使主體的幸福最大化,同時減少他們的痛苦。

如果主題的優先級是旅行的持續時間,人工智能將開發一條路徑,盡管它是一條更長的路線,可能需要一些通行費,但與其他選項相比,它仍然是最快的。此外,像谷歌地圖這樣的應用程序正在實施新功能來計算節省汽油消耗的路線,以幫助減少一氧化碳。2排放。最后,人類現在習慣于使用GPS,并且已經接受了一種文化,這種文化很容易接受這種工具來支持決策。也可以得出結論,人類信任GPS導航儀,因為技術,道德和文化這三個因素融合在一起,形成平衡的,相互支持的互動。這個例子表明,人類信任GPS,因為他們習慣了它的AI(文化因素),它可以正確地進行數學(技術因素),而不會產生不道德的風險(道德因素)。

但是,如果這些因素中的一個或多個失衡,那么人類依賴人工智能系統是不安全的。例如,想象一下當三個因素之一損害整體平衡時會發生什么是很有趣的。ML技術可能會改善決策,為人類帶來質的飛躍。然而,由于其硬件和軟件的固有設計,這種技術可能會受到缺乏透明度的影響,這可能會影響人類控制AI / ML系統的方式。49

應該抵消可能缺乏透明度的問題;首先,通過適合滿足任務特定要求的道德框架,使機器的決定在道德上是可以接受的; 其次是人類使用這項技術的習慣有所改善。第一種緩解措施避免了道德上不需要的二階和三階效應,而第二種緩解措施則減少了人類對未知事物的自然恐懼。后一個方面值得更多解釋。

人類在決策中的優勢仍然存在,但在這種優勢還不夠的情況下,人工智能可能仍然非常有幫助。例如,始終看到大局的能力,加上堅實的道德背景,使人類在廣譜決策中更加敏銳。盡管如此,人工智能每秒處理更多數據的能力可以使人工智能在狹窄和特殊的情況下起決定性作用。人類將不得不承認,在某些情況下,他們最好的決定可能比人工智能系統最糟糕的決策更糟糕。事實上,當敵人發動導彈攻擊時,關于反導彈炮兵反應的準確但較晚的人類決定比尚未完全正確的人工智能決定更危險。這至少可以減輕由于人工智能的決策速度而造成的損害。未來,技術改進將允許設計越來越精細的人工智能系統,能夠做出與人類相同類型的決策。然而,人類將根據他們的知識或通過他們的經驗直接(自上而下)或間接(自下而上)訓練這些人工智能系統。50我們有理由相信,在訓練結束時,人工智能系統將能夠非常密切地復制人類推理的動態;這樣的推理有望包括倫理思維,并將具有與人類倫理思維相同的謬誤。盡管如此,人類應該將依賴人工智能作為其文化的一部分,特別是當情況需要在非常有限的時間內處理不成比例的數據時。因此,人工智能系統極有可能仍然會犯錯誤,但在某些條件下(例如,可用時間和數據量),它們可能比人類更可靠。

機器的易錯性可能不是問題,但人類幾乎無法接受它。問題在于,在某些情況下,特別是那些涉及人們安全的情況下,如果由人類而不是機器犯同樣的錯誤,可能更容易容忍。這種對人工智能系統的不信任背后有兩個原因:首先,人們認為人類可能會犯錯誤,而機器應該是完美的;其次,當人工智能系統出錯時,沒有人可以責怪。事實上,可以懲罰犯錯的人,但不能懲罰機器。51

雖然這兩個原因使得很難接受機器關于人類安全的決定,但決策支持工具的必要性是人類文化傾向的基礎,即接受人工智能系統可能完全或部分代表他們做出決定。

人類致力于研究和開發新技術,因為他們相信這些技術將改善人類的福祉和人們的生活質量。這種看法會影響人類愿意依賴人工智能的程度。人類越難保證特定任務的高標準速度和效率,他們就越覺得需要技術支持以提高他們的性能,因此,他們將更愿意依賴機器。因此,只要人類將機器最差的性能視為與人類在同一動作上的最佳性能相比更好的輸出,他們就可以安全地依賴人工智能系統。

結論

在看到人工智能在提高人類道德決策效率方面的潛力之后,個人必須盡一切努力定義客觀參數,以確定人工智能系統的平衡點。人工智能系統應該被編目并與某些情況條件(例如,緊急性或要處理的信息量)相關聯,以允許用戶確定哪些系統為他們的目的帶來最大利益。

這樣,軍事指揮官可以更好地決定在什么情況下使用哪些工具。指揮官可以大大減少在決策過程中投入的時間,并意識到給定系統的不完全適用性,并實施必要的安排以減輕可能錯誤的影響。這個過程的重要性在于,人工智能已經普及,所有競爭對手都可以使用。因此,無法優化人工智能系統的使用將意味著從相當大的劣勢開始,這可能會損害實現和保持對敵人主動權的能力,從而接受按照敵人的條件進行戰斗。人工智能在軍事決策過程中的應用很可能是不可避免的,因此,軍事領導人和人工智能開發人員可能會研究如何將道德規范納入人工智能系統。有不同程度的道德機器,從基本功利主義框架的實施,到道德上更復雜和精密的系統。這些不同類型的機器將能夠在決策過程的不同復雜階段執行。

軍事領導人應該對他們做出的決定負責。當人工智能系統用于支持其決策過程時,這種問責制也必須持續存在。擁有一個目錄,確定哪種設備適合以及在不同情況下用于什么目的,這是將責任分配給正確個人的基本條件。如果指揮官故意不為特定任務使用適當的設備,他們應對決定負責。然而,如果指揮官選擇了正確的設備,但設備失敗了,并且如果對其他參與者的責任(例如,人工智能設計師,代碼開發人員)的后續調查確定沒有一個參與者有直接責任,那么人類可能應該接受結果是不可預測的。

未來的研究應該研究如何在平衡點為三個因素的權重賦值。就技術而言,它可以是依賴或不擁有特定技術特征或某些組件的簡單而有效的方法。關于倫理學,定義一個與純粹基于功利主義邏輯的特定倫理模型相關的價值尺度可能會有所幫助,或者還可以考慮更深刻的影響或評估二階和三階效應。最后,文化因素可能是克服的最具挑戰性的障礙,因為它具有主觀性,并且在某種意義上是短暫的。但是,諸如在人群中的擴散或設備使用的時間等參數可以作為建立值的起點。

尾注

  1. 無監督自主武器的使用正在迅速增長,其使用已被證明是一種優勢。在2020年納戈爾諾 - 卡拉巴赫戰爭期間,阿塞拜疆對亞美尼亞使用了以色列制造的IAI HAROP游蕩彈藥,并取得了出色的效果,這證明這種武器可以非常強大。見布倫南·德弗勞,“在烏克蘭及其他地區游蕩彈藥”,巖石戰爭,22 年 2022 月  日。

  2. Ann-Katrien Oimann,“責任差距和法律:辯論的批判性映射”,《哲學與技術》36,第3期(2023):7-16,https://doi.org/10.1007/s13347-022-00602-7。

  3. ML并不排除培養好奇心。然而,如果人類不指導人工智能/機器學習系統,它們就無法學習一些東西。例如,基于AI/ML系統的恒溫器可以學習如何提高人類在家中的舒適度,但在人類改變算法之前,學習如何下棋并不奇怪。

  4. Ragnar Fjelland,“為什么通用人工智能不會實現”,人文與社會科學通訊7,第1期(2020):2,https://doi.org/10.1057/s41599-020-0494-4。

  5. Fjelland,“為什么通用人工智能不會實現”,7。

  6. 詹姆斯·貝克,《半人馬的困境:即將到來的人工智能革命的國家安全法》(華盛頓特區:布魯金斯學會出版社,2020 年),第 14 頁。

  7. 布萊恩·大衛·約翰遜,“自主感知技術和道德商業的未來”,在道德@工作:

    近期的困境以及您的組織如何解決它們,克里斯·奧斯特加德編輯(德意志州米德爾敦:重新人性化出版,2022 年),第 69 頁。

  8. Stuart J. Russell和Peter Norvig,《人工智能:現代方法》(Hoboken,NJ:Pearson,2009),2-5。

  9. 作者同意這樣一個事實,即強烈的康德道德行為觀適用于人類是不可信的。在這里,我們專注于其行為由它們收到的特定輸入決定的機器。正如Russel和Norvig所說,機器理性思考,理性行動。為了像人類一樣思考并像人類一樣行事,他們需要使用ML并采用非二進制邏輯方法。

  10. 人工神經網絡(ANN)是在機器上實現學習技能最常用的解決方案之一。

    這項技術的主要思想是模仿人腦在人工神經節點不同層中的神經連接。

    不正確的輸出會在內部和隱藏的神經層中產生適應,直到結果正確。因此,經驗更豐富的機器會更有效。然而,這項技術仍然存在透明度問題,因為就像人腦一樣,尚不清楚機器如何管理這些適應。這種缺乏透明度可能會阻止人類理解在誤報輸出的情況下是否以及為什么發生故障。

  11. Bahman Zohuri和Moghaddam Masoud,神經網絡驅動的人工智能(Hauppauge,NY:Nova Science Publishers,2017),15-17。

  12. James H. Moor,“機器倫理的本質、重要性和難度”,IEEE Intelligent Systems 21,no. 4 (2006):19–20,https://doi.org/10.1109/MIS.2006.80。

  13. 摩爾,“機器倫理的性質、重要性和難度”,20。

  14. 摩爾,“機器倫理的性質、重要性和難度”,20。

  15. Vincent Conitzer等人,“人工智能的道德決策框架”,AAAI人工智能會議論文集31,第1期(2017):1-5,https://doi.org/10.1609/aaai.v31i1.11140。

  16. Conitzer等人,“人工智能的道德決策框架”,1-5。

  17. Noah J. Goodall,“自動駕駛汽車碰撞期間的道德決策”,運輸研究記錄2,424,第1期(2014):

    7-12,https://doi.org/10.3141/2424-07。

  18. 古道爾,“自動駕駛汽車碰撞期間的道德決策”,7-12。

  19. 古道爾,“自動駕駛汽車碰撞期間的道德決策”,7-12。在ANN的隱藏層中發生的事情對人類來說是模糊的。軟件開發人員無法理解基于ANN的機器如何達到其輸出以及它們在此過程中如何自我糾正。將機器語言翻譯成自然語言的接口將有助于理解機器的工作原理以及可能發生錯誤的地點和原因。

  20. 古道爾,“自動駕駛汽車碰撞期間的道德決策”;Alan F. Winfield和Marina Jirotka,“道德治理對于建立對機器人和人工智能系統的信任至關重要”,皇家學會哲學學報A:數學,物理和工程科學376,第2,133期(2018):https://doi.org/10.1098/rsta.2018.0085

  21. Conitzer等人,“人工智能的道德決策框架”,1-5;古道爾,“自動駕駛汽車碰撞期間的道德決策”。

  22. Amitai Etzioni和Oren Etzioni,“將倫理納入人工智能”,《倫理學雜志》21,第4期(2017):403-18,https://doi.org/10.1007/s10892-017-9252-2。

  23. Etzioni和Etzioni,“將倫理納入人工智能”,406-7。

  24. Etzioni和Etzioni,“將倫理納入人工智能”,405-6。

  25. Zohuri 和 Masoud,神經網絡驅動的人工智能,15-17;Etzioni和Etzioni,“將倫理納入人工智能”,403-18。

  26. Etzioni和Etzioni,“將倫理納入人工智能”,403-18。

  27. Etzioni和Etzioni,“將倫理納入人工智能”,406-7。

  28. Etzioni和Etzioni,“將倫理納入人工智能”,407。

  29. Forrest E. Morgan 等人,人工智能的軍事應用:不確定世界中的倫理問題(加利福尼亞州圣莫尼卡:蘭德,2020 年),xiii-xiv,https://doi.org/10.7249/RR3139-1。

  30. Mark Ryan,“我們相信的人工智能:倫理、人工智能和可靠性”,《科學與工程倫理》第 26 期,第 5 期(2020 年 13 月):14–2、749,67–10,第 https://doi.org/1007.11948/s020-00228--y。

  31. 羅斯·W·貝拉比,“人工智能武器能做出道德決定嗎?”,《刑事司法倫理》第 40 期,第 2 期(2021 年):第 86-107 頁,第 https://doi.org/10.1080/0731129X.2021.1951459 頁。

  32. 貝拉比,“人工智能武器能做出道德決定嗎?”,95-97。

  33. 摩根等人,人工智能的軍事應用。

  34. Anupam Tiwari 和 Adarsh Tiwari,“決策 OODA 中的自動化:循環、螺旋或分形”,i-manager's Journal on Communication Engineering and Systems 9,第 2 期(2020):1–8,http://dx.doi.org/10.26634/jcs.9.2.18116。

  35. Tiwari 和 Tiwari,“決策 OODA 中的自動化”,第 16-17 頁。

  36. Etzioni和Etzioni,“將倫理納入人工智能”。

  37. AI-ML的計算速度在不斷增長,不考慮量子計算。出于這個原因,人工智能能夠處理大量信息的期望是現實的。如果提供給算法的信息(任何數量的信息)是準確的并且具有正確的標準,人工智能將繼續提供越來越好的結果。問題是當大量信息未經過濾且沒有正確應用正確的標準時提供給人工智能時。

  38. Daniels J. Owen,“用人工智能加速 OODA 循環:一個有用或限制的框架”(論文,聯合航空航天力量會議,7 年 9 月 2021 日至 159 日),第 67- 頁。

  39. 歐文,“用人工智能加速OODA循環”,159-67;貝克,《半人馬的困境》,第30-31頁。

  40. 美國陸軍機器人和自治系統戰略(弗吉尼亞州尤斯蒂斯堡:美國陸軍訓練和條令司令部,2017 年),10。

  41. Tiwari 和 Tiwari,“決策 OODA 中的自動化”,第 1-8 頁。

  42. 費爾南多·德拉克魯茲·卡拉瓦卡,“跨域同步的動態 C2:

    高級領導者視角”(論文,聯合航空航天力量會議,7 年 9 月 2021 日至 81 日),第 89- 頁。

  43. Tiwari 和 Tiwari,“決策 OODA 中的自動化”,第 1-8 頁。

  44. 歐文,“用人工智能加速OODA循環”,159-67。

  45. 歐文,“用人工智能加速OODA循環”,159-67。

  46. Michael Doumpos和Evangelos Grigoroudis編輯,多準則決策輔助和人工智能:鏈接,理論和應用(英國奇切斯特:

    John Wiley & Sons,2013),34。

  47. 美國陸軍機器人和自主系統戰略,3。

  48. 這個想法并不一定背離大多數文獻。這個想法旨在為在決策過程中使用人工智能時如何分配責任提供更好的方法。定義參數,明確將每個人工智能系統與其可能的就業領域聯系起來將是有益的。例如,定義針對特定情況選擇正確 AI 系統的責任。這種選擇不應該只與以下問題聯系在一起:這個系統能夠做出這個決定嗎?它還應該理解與決策過程中的道德能力以及人類對該特定人工智能系統的接受率有關的問題。

  49. Alan F. Winfield和Marina Jirotka,“道德治理對于建立對機器人和人工智能系統的信任至關重要”,皇家學會哲學學報A:數學,物理和工程科學376,第2,133期(2018):6,https://doi.org/10.1098/rsta.2018.0085。

  50. Etzioni和Etzioni,“將倫理納入人工智能”,403-18。

  51. 亞歷山大·麥克納馬拉,“大多數公眾認為'人工智能不應該犯任何錯誤'”,《科學焦點》,6 年 2020 月  日。

作者:亞歷山德羅·納林中校,意大利陸軍; 和保羅·特里波迪,博士https://doi.org/10.21140/mcuj.20231401003

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能對道德倫理問題提出重大挑戰
奇點將至?淺析狹義AI 、通用AI 與超級AI
最好的人工智能仍敵不過中二少年 | 雷鋒網
人工智能沃森能拯救IBM嗎? | 機器之心
人工智能的道德代碼與倫理嵌入
章文光、賈茹|人工智能的社會倫理困境:提升效率、輔助與替代決策
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 随州市| 靖安县| 鹿泉市| 闻喜县| 刚察县| 昆明市| 定南县| 唐海县| 祁东县| 大宁县| 高州市| 顺平县| 罗田县| 北京市| 马龙县| 河曲县| 鄂伦春自治旗| 闵行区| 邛崃市| 鄂伦春自治旗| 三门峡市| 嘉峪关市| 抚宁县| 五峰| 临西县| 江陵县| 盐亭县| 区。| 西乌| 门头沟区| 迭部县| 平武县| 封丘县| 德庆县| 湖南省| 息烽县| 吴堡县| 赤城县| 平凉市| 区。| 龙山县|