參考消息網7月16日報道 據西班牙《機密報》網站7月8日報道,具有人工智能的新武器能比人類更好地識別目標。
報道稱,美國的軍用無人機可能很快就會采用一種新的人工智能系統,該系統“在識別目標方面比人類做得更好”。這種人工智能可以區分制服、武器,甚至可以比操作員更精準地解讀敵人的投降信號。這是該技術的開發者、澳大利亞企業雅典娜人工智能公司的說法。
該公司表示,該系統旨在幫助人類無人機操作員,防止他們在緊盯視頻畫面數小時后失去注意力焦點。“人工智能將為他們做很多繁重的工作。”雅典娜人工智能公司的負責人斯蒂芬·伯恩斯坦在接受《新科學家》周刊采訪時說道。
這一新系統能夠搜索、識別和定位地面上的物體,還能檢查一個物體是否在禁區內,并計算出附帶損害的風險。該人工智能還可以追蹤軍用車輛,并幫助確定疑似敵方士兵的個體的身份。
這并不是美國軍方第一次將人工智能集成到其作戰武器中。今年早些時候,他們宣布將人工智能用于控制一架改裝后的F-16戰斗機。
自主技術在戰爭武器中應用的倫理道德影響一直是一個公開、有爭議的問題。盡管雅典娜人工智能公司聲稱其系統符合《日內瓦公約》的人道主義標準,但我們無法知曉測試的結果或其使用的風險,因為它們是保密的。這家澳大利亞公司與美國領先的無人機公司Red Cat(專門從事軍用無人機技術開發)合作。今年5月,他們宣布向烏克蘭提供200架無人機,其中配備有Teal 2,這是一種由雅典娜人工智能公司驅動的遠程夜間系統。據《新科學家》周刊報道,現在所有的無人機都可以通過新的人工智能系統進行升級。
加州大學計算機科學教授斯圖爾特·拉塞爾指出,其他號稱比人類能力更強的人工智能經過徹底測試時,結果通常發現它們存在缺陷。這位專家對所進行的測試缺乏透明度表示擔憂,并指出人工智能識別系統也可能被欺騙。
報道稱,技術企業Shift5公司負責人、網絡安全專家喬什·洛斯皮諾索最近接受美聯社采訪時也表達了類似觀點。他談到了倉促部署人工智能產品的相關問題,特別是在軍事決策方面。洛斯皮諾索說:“盡管停止人工智能研究將不利于國家安全,但快速發展也可能導致不安全且容易出現故障的產品的產生。”
配備人工智能的無人機已經引發了一些嚴重事件。一個月前,在一次模擬戰斗演習中,一架具有人工智能的自主軍用無人機做出了“殺死”其操作員的決定,因為它認為操作員阻礙了它消滅敵方主要目標的行動。幸運的是,該操作員沒有受傷,因為是模擬演習。但在2023年關于歐洲“未來空中作戰系統”(FCAS)的一次峰會上披露的這一事件,引發了關于人工智能在軍事行動中的道德后果的激烈爭論。