
本文
ChatGPT名字的核心是“GPT”這三個英文縮寫字母,翻譯過來的意思是“生成式預訓練轉化器”,即采用大量數據訓練出一個巨大的神經元網絡轉化器,生成與人類交互的內容。因為其最核心的智能技術是“生成”,所以這種技術就被稱為“生成式人工智能”或者“人工智能生成內容”。這個技術根據模型轉換器的不同,可以被用于生成各種各樣不同的內容。如果生成的內容是與人類之間的對話,比如回答問題、寫一個報告或文檔等,這就是我們現在看到的ChatGPT,也就是可以進行“會話的GPT”了。
從計算機科學的角度來看,ChatGPT的技術路線起源于自然語言處理,目的是要讓計算機理解人類使用的語言。為了能夠應對復雜的情況,其往往采用超大型的語言模型,依靠不斷增加模型參數來提升性能,通過越來越多的人類現有語言文本數據樣本進行學習訓練。而且,為了使ChatGPT會話更符合社會道德準則和生活實際,開發者還給它增加了“基于真人反饋的增強學習”過程,以及大量的標注過的準確數據,使得它組織起來的答案更能為人們所普遍接受。
相比于以往的人工智能程序,ChatGPT能做很多事情。ChatGPT的訓練閱讀了大量邏輯嚴謹、寫作規范的各學科學術文獻,這是任何一個人畢其一生都難以達到的。因此它非常適合于針對具體研究主題,根據所提問題進行分解、歸納或總結,并在此基礎上列出所要的研究提綱或模板。此外,ChatGPT還可以充當“萬能+”。語言是人類交互的工具,也是人類知識的載體,還可以是人類智能的體現。將人類常識引入到智能決策中,過去是個很大難題,但現在就變得有可能了。再比如,人機交互過去只能局限在感知智能層面,而現在通過ChatGPT就可以達到內容理解層面。所以,讓ChatGPT充當其他系統的“基座”,與其他系統配合就可以得到更好的智能系統,比如它與兵棋推演系統的結合,與分布式會議系統的結合,都可能帶來驚喜。

上述所說只是ChatGPT功能的一部分,并不是全部。ChatGPT目前雖然只是生成流暢的會話,但在背后支撐它的大模型技術和內容生成技術,卻代表了人工智能技術發展的一個重要里程碑。大模型技術的出現,一改過去我們僅關注專業領域智能技術突破的做法,通過引入巨量參數對基礎知識關系進行復雜表達,從量變到質變,最終使我們朝解決通用智能問題又邁進了一大步。
恩格斯說過:“一旦技術上的進步可以用于軍事目的并且已經用于軍事目的,它們便立刻幾乎強制地,而且往往是違反指揮官的意志而引起作戰方式上的改變甚至變革?!焙翢o疑問,以ChatGPT為代表的人工智能前沿技術必然會應用于軍事領域。近年來,外軍不斷發展人工智能等顛覆性技術,力求形成技術代差優勢。早在2017年,美軍就提出了“算法戰”概念。隨后,美軍設立“算法戰跨職能小組”,啟動“碼文工程”項目,并吸收谷歌、亞馬遜、微軟等商業巨頭參與,積極推動人工智能、大數據、機器學習等先進技術快速融入美軍作戰體系,試圖打一場“讓對手看不懂的戰爭”。
就直接運用ChatGPT而言,其對軍事領域的作用和影響不容忽視。在未來的信息化智能化戰爭中,作戰人員在戰場上具有強大的情報收集能力和近乎實時的信息感知能力,ChatGPT可以用于數據分析與決策支持、自然語言處理等基礎工作,海量的戰場信息經其處理,將會給指揮員的決策能力帶來質的飛躍。在此基礎上,可能會導致部分傳統業務崗位發生改變,從而引發軍隊編制體制變革。如果再將其進行專業訓練后與其他系統配合,可以用于訓練想定編寫、作戰方案生成、作戰計劃安排、行動規劃擬制、演習結果講評等較為復雜的工作,這將會帶來許多指揮決策機構業務調整,甚至將重塑指揮決策流程。如果今后其繼續迭代升級,還有可能參與完成戰爭計劃分析、危機處置方案評估等更高階的工作。此外,在認知域作戰中,ChatGPT技術還有可能被用于生產假新聞、假郵件,甚至模仿人的語言風格實施信息誘騙,或被用于網絡攻擊之中。
在筆者看來,就ChatGPT的核心技術即大模型技術而言,其對軍事領域的影響既不可低估,也不宜高估。大模型技術作為“基座”,很可能會引發智能技術批量突變,使許多當前徘徊不前的智能技術獲得突破。尤其是結合以“阿爾法狗”為代表的深度學習技術后,還可能導致指揮決策控制系統升級換代,從而大幅度提升體系作戰能力。然而,軍事智能領域的固有難題比如戰爭的“強對抗”“高實時”“過復雜”“不確定”等特性,當前的技術手段在解決途徑上仍存在“缺樣本”“沒數據”“不開放”“難共享”等問題。2016年,“阿爾法狗”在圍棋的人機大戰中戰勝人類選手,很多人認為解決作戰指揮智能決策問題已指日可待,但之后相關議題卻躑躅不前。今天,ChatGPT的出現又讓很多人心生期待,但按照技術的演進趨勢來看結局仍然不得而知。與其他領域相比,解決戰爭問題的思路與方式十分特殊,技術可以借用,但更強調思維方式的創新。
究其根本,人工智能想要追趕上的是人類的智慧。但人類大腦的復雜性是無止境的,它始終在不斷進化和發展之中。理解復雜的結果不會使其變得更簡單,而是只會變得更復雜,因而也就不可能用簡單方法加以實現。大模型之路是否正確,現在還無法完全判定,其給人工智能技術帶來巨大技術進步的同時,也提出了很多需要關注的難題。有媒體評論,ChatGPT是“既引人入勝,又讓人毛骨悚然”。什么東西不能交給大模型處理?在哪些地方“人”是不可或缺的?ChatGPT的使用如何納入誠信、政策問題研究?什么才是“準確的知識”?如何加強AI的開放原則?它對法律有何影響?等等。這些問題都值得我們深入思考。