作者:雕鸮 / 編輯:冷小軍
早在上世紀五十年代,人類就首次提出了「人工智能」的概念。在當時,受制于電腦落后的性能,人工智能技術僅僅是一群年輕科學家提出的、用計算機模擬智能生物思考與學習的科幻技術。
然而,到了七十年代以后,電子技術的飛速發展使得人工智能技術成為了可能。尤其是在1997年,IBM公司的「深藍」人工智能電腦成功在國際象棋比賽中,擊敗了著名的國際象棋世界冠軍卡斯帕洛夫。這讓許多人驚訝地看到:具備自主學習和思考能力的人工智能已經開始從科幻片走進現實。
無人深空
▼
在電游皇牌空戰7中,描繪了一個令人不寒而栗的未來世界——在那個虛構的世界中,機動性極強的無人機取代有人戰斗機,蜂群式的神經戰斗網絡令傳統空戰戰術難以施展,甚至連無人機地生產也實現了「無人化」,大有人工智能能夠與人類分庭抗禮甚至還占據優勢的趨勢。
皇牌空戰7
游戲的世界觀固然是虛構的,但那令人不安的、搭載了人工智能技術的無人機,卻已經確確實實地在現實中出現了。
從本世紀初開始,無人機開始代替一部分有人戰機,憑借其更長的續航和滯空時間、更高的性價比而在戰場上占據了一席之地。然而,無人機的發展前景卻遠遠不止于此。目前,美軍正在嘗試將更成熟的人工智能搬上更大型的無人戰斗機。
不久前,美國國防部高級研究計劃局(DARPA)主持進行了一場「人機大戰」,由空戰人工智能對抗一位擁有超過20年飛行經歷的F-16戰斗機飛行教官。結果,這位王牌級的老飛行員在五場模擬戰斗中全程被人工智能按在地上摩擦,其中三次被機炮擊落。事后,他也不得不承認,人工智能飛行員在態勢感知和過載機動能力上比人類飛行員強了太多。
在模擬空戰中落敗的美軍王牌
AI競賽
▼
2014年,美國國防部首次提出「將人工智能技術列為國防部作戰網絡未來建設的重點」,打響了美軍探索軍事人工智能的第一炮。隨后,洛克希德.馬丁公司、雷聲公司等大牌企業紛紛跟進。
據悉,雷聲公司研發的首代「蜂群」式無人戰斗機已經初步具備了自主判斷飛行和巡航路線、判斷打擊目標類型的能力。DARPA也承諾,將提供至少20億美元,進行下一世代的人工智能研究。
信息化的美軍
眼看著美國人在軍用人工智能技術上取得了突破性的進展,其他國家自然也沒有閑著,尤其是美國的頭號對手俄羅斯。就在8月23日,俄羅斯蘇霍伊設計局研發的S-70「獵人」隱身無人機再次進行了試飛。
俄羅斯聯合飛機公司負責人尤里·斯柳薩對此表示,他們計劃在2024年開始向俄軍批量交付該無人機。S-70無人機不僅是一款隱形無人攻擊機,同時也能與蘇-57戰斗機高低搭配作戰,而它身上,就搭載了俄羅斯的人工智能飛行員技術。
S-70無人機
為了研究軍事級人工智能技術,俄羅斯專門于2015年成立了國家技術與機器人技術基本發展中心,當然,它也被稱為「俄羅斯的DARPA」。而俄羅斯國防部長紹伊古也多次強調,人工智能技術對于俄軍未來發展至關重要。顯然,在軍事級人工智能這塊處女地,俄羅斯并不甘心落后美國太多。
相比之下,中國雖然同樣重視人工智能建設,但也對這一技術抱有很強的警惕。中國多次呼吁,希望各國之間不要爆發「AI軍備競賽」,認為該技術有可能威脅到人類自身。
法國的意見也與中國相仿,法國最大的武器生產商泰雷茲公司首席執行官帕特里斯.凱恩表示,該公司將永遠不會生產「自動殺人機器」。而法國國防部長弗洛朗絲·帕利也表示,「讓機器選擇開火與否,對于人類來說將是生死攸關的問題」。
然而,人工智能技術的優勢太過誘人,除了美國和俄羅斯外,英國、以色列、土耳其、韓國等國都是緊鑼密鼓地進行自家軍事級人工智能的開發。美國《未來生活》雜志專欄作家、人工智能專家克里斯托.格隆朗德在自己的文章中坦言:「雖然大家都不希望這樣,但AI軍備競賽的發令槍已經打響了,軍用AI對人類的威脅將是不可避免的。」
自我毀滅
▼
美國軍事專家盧瑟斯.特倫托曾這樣評價人工智能技術:「如果說第一顆原子彈的爆炸標志著人類文明第一次具備了自我毀滅的能力,那么人工智能技術在軍事上的泛濫,將標志著人類自我毀滅手段的效率提升到了一個新的等級。」
事實上,自打人工智能技術誕生,它就一直面臨著外界的爭議。在上世紀八十年代,對人工智能的恐懼衍生出了「未來智能機器人毀滅人類」這一幻想,并造就了銀幕經典作品《終結者》。但是,比起電影中神擋殺神的T-800,真正的人工智能對人類的威脅要更加巨大。
能夠搭載人工智能的無人裝甲戰斗車
隨著計算機技術的發展,人工智能技術的兩大門檻「自主學習」和「邏輯分析」已經不再是遙不可及的高峰,但仍然有一個難題一直沒能攻克:這些人工智能雖然具備遠超人類的學習能力,卻完全不具備人類應該具有的情感。
曾有社會學家說過,人之所以稱為人,是因為有人性和情感。但對于軍用人工智能來說,它們只知道什么是「命令」,而它們所有的行動都圍繞著「執行命令」這個核心。試想一下,也許在未來的戰爭中,無人機輕輕松松地將滿是師生的學校夷為平地,只因需要斬首的「重要目標」隱藏在學校人群中;無人坦克一炮將手持自衛武器的平民炸上天,只因為他們「有攻擊意圖」……
也許這種場景永遠不會發生,也許會有更先進的技術對它們進行限制,但就目前來看,人類想要徹底控制人工智能幾乎是不可能的。因為在這個世界上,不可能存在「完美」的程序,而對于軍用人工智能來說,一個錯誤帶來的可能就是災難性的后果。
已經過世的著名科學家霍金、傳奇商業大佬馬斯克、阿里巴巴創始人馬云等許多知名人士,都曾表達過對「軍事人工智能」的擔憂。霍金在世時曾指出,雖然人工智能將讓戰爭進行地效率成倍地提升,但這些無人兵器中失去控制時屠殺平民、甚至毀滅人類文明的速度和效率,也將隨之成倍地提升。
可以說,人工智能技術就像一個潘多拉魔盒,它看上去非常美好,但同樣對人類擁有巨大的威脅。最后,用法國學者盧克.迪亞茲的一句話來結束這篇文章:雖然現在人工智能技術正在讓我們的生活變得越來越美好和便捷,但隨著AI軍備競賽的帷幕拉開,人類距離自我毀滅也許只剩下最后的半個世紀。