據國外媒體報道, 頂尖的人工智能研究人員警告大眾,“AI軍備競賽”可能對人類是災難性的,并敦促聯合國審議關于禁止“進攻性自控制武器”的提案。生命未來研究所給出的公開信表示,那些自動“選擇并打擊目標,無需人工干預”的武器可能成為明天的AK 47,成為助長戰爭、恐怖主義的全球不穩定因素。這封公開信由許多科技界的知名人物聯署,其中包括斯蒂芬·霍金、伊隆·馬斯克和美國哲學家諾姆·喬姆斯。
該公開信表示,“人工智能(AI)技術已經達到如果沒有法律約束,幾年內就可部署的程度,而不是幾十年。” 該信表示帶有武器的四軸無人機就是一個很好的例子。雖然人工智能武器可以減少戰場上的人員傷亡,但這本身就是一個錯誤,因為它會降低走向戰爭的門檻。
“不像核武器,AI武器無需昂貴或難以取得原料,所以他們會變得無處不在。廉價到所有的軍事強國都會大批量生產。 他們出現在黑市和恐怖分子手中只是時間的問題。”
這封信結尾警告AI武器的發展可能會損害人工智能領域的發展,并引起“公眾的強烈反對”,將阻礙有益的人工智能研究。聯署人表示“應對超越人類控制的進攻武器采取禁令”,并敦促聯合國采取行動。
目前半自動武器系統已經大幅增加,美國空軍預測,“到2030年機械性能將極大增強,人類反而將成為最弱的系統組件。” 無論是人工智能的批評者和支持者都表示,人工智能武器系統的界限很難拿捏。
公開信的其他聯署人還包括蘋果聯合創始人史蒂夫·沃茲尼亞克,Skype的聯合創始人Jaan Talinn,Demis Hassabis,英國人工智能公司DeepMind的CEO。
譯者:持文
百度新聞與網易科技合作稿件,轉載請注明出處。