以概念跨學(xué)科定義法的視角來看,今天的人工智能技術(shù)并不是去模仿人類所有的智能,而主要是模仿通過大量數(shù)據(jù)歸納(在人工智能的術(shù)語里變成“訓(xùn)練”)的經(jīng)驗(yàn)知識形成過程。即使其中的所謂“推理”,也只是以經(jīng)驗(yàn)知識為基礎(chǔ)的、很容易犯“經(jīng)驗(yàn)主義錯誤”性質(zhì)的推理。
一、中國大模型的現(xiàn)狀
2023安博會上霸屏的宇視科技
目前中國可以說進(jìn)入“千模大戰(zhàn)”的階段,以下是轉(zhuǎn)引自智東西的中國大模型發(fā)布統(tǒng)計(jì)。
另外,華為大模型最早于2020年11月在華為云內(nèi)部立項(xiàng)成功,2021年4月對外發(fā)布,2022年4月,其升級到2.0版本。目前,其AI 大模型中的 NLP 大模型、CV 大模型以及科學(xué)計(jì)算大模型(氣象大模型)均已被標(biāo)記為即將上線狀態(tài)。對于網(wǎng)上傳說其大模型名稱為“盤古”,華為并未予以證實(shí)。
需要特別提示一下的是:北京智源人工智能研究院,早在2020年10月已啟動了AI大模型“悟道”項(xiàng)目,并先后于2021年6月1日發(fā)布了悟道大模型1.0,2021年6月1日 發(fā)布了2.0兩個版本。其中悟道2.0官方公布的參數(shù)規(guī)模達(dá)到1.7萬億。彼時,OpenAI公布1750億參數(shù)的GPT-3模型也才一年時間。即使在國外,這一輪大模型也還沒火爆起來。ChatGPT在國外也是在2022年底才開始大爆發(fā)的。智源在國內(nèi)算是搞大模型比較早的。單從其技術(shù)狀態(tài)看似乎是很好的,但在國內(nèi)卻比較沉寂。原因在于其沒有找到很好的應(yīng)用。ChatGPT與其說是技術(shù)的成功,不如說是找到了一個很適合的應(yīng)用,就是對信息準(zhǔn)確性和可靠性要求不高的聊天類應(yīng)用。
我有些疑惑,今天這個時候市場格局遠(yuǎn)未確定。如果2021年6月1日就發(fā)布了的智源悟道2.0有1.7萬億參數(shù)規(guī)模,為什么不推出自己的聊天產(chǎn)品呢?
二、專業(yè)與通用
以上是福布斯發(fā)布的AI 50強(qiáng)國外公司的列表。我們眼里不要只有ChatGPT,尤其是從事這個行業(yè)的專業(yè)人士。以上相對較為成功的人工智能公司的產(chǎn)品很多都是面向可靠性要求不高的聊天、文案、繪畫、合成視頻、協(xié)助進(jìn)行細(xì)胞基因研發(fā)等類型的應(yīng)用。
無論通用性的產(chǎn)品發(fā)展到什么程度,采用相同的資源去集中于專業(yè)的某個領(lǐng)域,在其他技術(shù)水平相同情況下,肯定是專業(yè)的產(chǎn)品在這個專業(yè)領(lǐng)域更加出色嘛。人工智能概念發(fā)展的歷史非常長,但真正獲得實(shí)際應(yīng)用的并不多。我在“網(wǎng)上最權(quán)威的人工智能分析”一文中指出了其關(guān)鍵原因所在:因?yàn)槿斯ぶ悄鼙举|(zhì)就是一個基于概率的判決系統(tǒng)。因此,它的可靠性是很難達(dá)到極高水平的。另外,解決任何技術(shù)問題必須要基于有限的前提,而不能提出一個無邊界、復(fù)雜性可能會無限增加的問題。這樣的問題是不可解的。解決任何問題的前提是能夠有效地簡化問題。相對來說,智能交通、人臉識別等應(yīng)用相對較為成功。因?yàn)檫@類對象的識別是可以有約束前提的。車輛的車牌本身相對是規(guī)范的。人臉識別軟件運(yùn)行時,可以顯示一個人頭的虛框,使人臉相對有規(guī)矩地處于最有利識別的位置。
人臉識別的差錯率市場上產(chǎn)品的平均水平在萬分之1的水平。也有些公司宣稱能達(dá)到百萬分之1,但一定要給出實(shí)現(xiàn)這種識別率的條件。如果實(shí)驗(yàn)室理想條件下實(shí)現(xiàn)這種識別率是沒多大意義的。
直到今天,語音識別等依然很難說應(yīng)用得很順暢。其原因就在于很難像人臉識別那樣,簡單地通過虛框來建立一種規(guī)范語音輸入的方法。如果說話很規(guī)范、背景雜音很小,識別率還可以。但如果背景稍微吵雜一些,語速或停頓不規(guī)律、說話不規(guī)范(如夾雜很多重復(fù)和多余發(fā)音),識別率就會顯著下降。而我們又不能說先把人們都培養(yǎng)成播音員的說話習(xí)慣,再來應(yīng)用語音識別軟件。因此,為了降低背景雜音的影響,說話時要盡量離麥克風(fēng)近一點(diǎn)。另外想好了再說,語速要穩(wěn)定,盡量不要有停頓、反復(fù)和多余的雜字(如:啊...、這個這個、嗯...等等)。
對于很多應(yīng)用、尤其是工業(yè)應(yīng)用來說,其差錯率可能需要控制在百萬(6個9)甚至千萬分之1(7個9)以下的水平才有可能真正商用。例如城區(qū)道路的自動駕駛等應(yīng)用就是如此,僅僅秀一下是沒用的,其可靠性可能要實(shí)現(xiàn)8個甚至9個9人們才有可能真正接受并真正商用化。對目前的人工智能技術(shù),從原理上來說就困難到幾乎是不可能的程度。
宇視科技從一開始就是從事智能交通產(chǎn)品研發(fā),因此也就從一開始選擇了最適合的人工智能應(yīng)用領(lǐng)域。目前的大模型技術(shù),更準(zhǔn)確地說只是一種更深入的神經(jīng)網(wǎng)絡(luò)算法,而不要理解成本身就是通用人工智能。專業(yè)還是通用,只是一種應(yīng)用方向的差異,不是技術(shù)本身天然決定的。
智能交通為什么可以取得很好的應(yīng)用效果?原因在于現(xiàn)階段的人工智能已經(jīng)可以有相當(dāng)高可靠性實(shí)現(xiàn)車輛信息的識別(結(jié)構(gòu)化,就是識別出車輛的車牌號,車輛顏色、車型等)。這些信息人工智能識別并不是絕對準(zhǔn)確的,有一定的識別誤差,目前水平大致在千分之1 到百分之1的水平。但這個可以通過與交通部門儲存在數(shù)據(jù)庫里的車輛信息進(jìn)行比對來進(jìn)行多維度的復(fù)核,以此大大減少誤差。例如,可能車牌中最后一個數(shù)字識別錯了(計(jì)算機(jī)并不知識道究竟是哪一位錯誤),但通過車輛顏色、車型等信息的交叉比對,有可能很容易把識別錯誤的那一位數(shù)字糾正過來。也可通過該車輛在不同位置的誤別結(jié)果進(jìn)行比對,糾正出現(xiàn)識別差錯的數(shù)字。這就是通過不同信息來源復(fù)核提升可靠性的方法。這種方法在專業(yè)領(lǐng)域會去不同程度地采用,而在Chat GPT等聊天類應(yīng)用中是很難采用的。這就是它們的可靠性普遍不高的原因所在。
三、大模型給專業(yè)領(lǐng)域帶來的好處
我們很關(guān)心的一個問題是:大模型是否只是適合于可靠性要求不高的領(lǐng)域?對于行業(yè)應(yīng)用能帶來更多價值嗎?事實(shí)上,宇視的梧桐并不是簡單地直接以GPT這類大模型為基礎(chǔ),而是以Meta(原來的Facebook)開源的、更專注于圖像與視頻的CV(Computer Vision,計(jì)算機(jī)視覺)通用大模型為基礎(chǔ)開發(fā)的。這個說是通用,事實(shí)上已經(jīng)針對視覺信息進(jìn)行專業(yè)性地強(qiáng)化了。以這個CV通用大模型為基礎(chǔ)進(jìn)行大量針對性的裁減、優(yōu)化,加上針對性的行業(yè)場景和訓(xùn)練調(diào)優(yōu),就進(jìn)一步專業(yè)化,變成針對行業(yè)的通用大模型。
由此帶來的好處是什么呢?
工作簡化。原來的小模型人工智能技術(shù)針對全新的車輛(如機(jī)場內(nèi)的各種車輛)需要專門進(jìn)行訓(xùn)練,但新的行業(yè)大模型可以不需要這個過程。這使得很多合作伙伴都可以自己進(jìn)行更進(jìn)一步應(yīng)用場景的專業(yè)訓(xùn)練優(yōu)化,以提升最終應(yīng)用場景里的識別率和可靠性。
智能交通視頻這種特定應(yīng)用的人工智能算力是有嚴(yán)格限制的,因?yàn)閿z像頭里不可能安裝算力太高的芯片。因此,結(jié)合了大模型的技術(shù)不是全面替代,而是與原有的小模型AI共同起作用來最有效地解決問題。攝像頭里還是采用小模型算法進(jìn)行結(jié)構(gòu)化,而在云端結(jié)合進(jìn)大模型的應(yīng)用。
結(jié)合了通用行業(yè)大模型以后,可以很容易適應(yīng)更多應(yīng)用場景,云端的算法效率也會有顯著提升。因?yàn)閷υ嫉腃V大模型中不需要的參數(shù)進(jìn)行了大幅度的裁減優(yōu)化,因此所需要的算力也比原始的CV大模型大幅度地減少。
以上應(yīng)用的方式是值得其他人工智能開發(fā)者參考的。不要被業(yè)界炒作的概念所誤導(dǎo),一定要針對自己的應(yīng)用選擇最優(yōu)化的技術(shù)路徑。別人炒作參數(shù)數(shù)量、算力,那是有人家的目的。需要的算力越大,當(dāng)然英偉達(dá)的芯片就賣得越多嘛。但如果你不是經(jīng)營AI芯片生意的,就別被這種概念炒作忽悠了。
用最小的資源實(shí)現(xiàn)自己真正的目的,這才是最體現(xiàn)人類智能的行為。而不是去簡單地展示自己用到的資源有多大,只是為“顯得更牛氣”。
越是在人工智能大行其道的時代,越需要提升人類自己的智能。
四、通用人工智能的問題及人類智能研究
以下是我應(yīng)用百度文心一言的案例刨析。
找不到數(shù)據(jù)。
這個27309億千瓦時的發(fā)電量是所有技術(shù)的發(fā)電量,而不是光伏的。全國每年所有技術(shù)的發(fā)電量總和才8萬多億度,1到4月怎么可能光伏的發(fā)電量就達(dá)到2.7萬億度呢?這個是對中國電力行業(yè)稍有些基本常識的人一眼就可看出錯誤的。
前后自相矛盾的數(shù)據(jù)。
必應(yīng)的CHATBOT AI回復(fù)的結(jié)果,因?yàn)樗鼈冎挥?xùn)練了2021年前的數(shù)據(jù),所以就查詢2020年5月的光伏發(fā)電量,但這個結(jié)果明擺著相差太遠(yuǎn)了,它居然還一本正經(jīng)地說是國家能源局這個權(quán)威渠道發(fā)布的數(shù)據(jù)。
文心一言的回答結(jié)果:2020年5月中國光伏發(fā)電量數(shù)據(jù)為132.79億千瓦時,這個數(shù)據(jù)是正確的。
這個照片的上傳時間是2022年12月29日
那么2160.5米的數(shù)據(jù)最初是怎么來的呢?是不是加上這個石碑后變成2160.5米了。那我們再查一個有參考高度的,比如有人在旁邊的照片。
坦率地說,我一時還真沒查到2160.5米的數(shù)據(jù)是怎么來的。尤其是一些旅游網(wǎng)站上,明明編輯自己上傳的照片(比如前一張南峰的照片)就是2154.90米,但在文字介紹中卻寫著2160.8米。與2160.5米有更細(xì)微的0.3米的偏差。這種自己和自己的數(shù)據(jù)都不一致就表明:編輯者本人并未認(rèn)真確認(rèn)這個數(shù)據(jù)。
以上分析并不是說我們最終就一定絕對接受了2154.90米這個數(shù)據(jù),而只是要說明一些對人工智能研究來說很重要的問題。我在作以上分析時,人們有沒有發(fā)現(xiàn)一個事實(shí):人類的智能是怎么來思考問題的?并不是簡單依靠巨大的語料或信息源數(shù)量解決問題,而是靠邏輯;對不同的信息不是靠概率去進(jìn)行判決,而是靠信息的質(zhì)量;不是單一的某個模型,無論它是大模型還是小模型,而是靠“跨模型”的多種不同維度,不同思路,不同側(cè)面,不同信息來源,不同信息種類(尤其是與提前儲存的精確可靠數(shù)據(jù)進(jìn)行交叉確認(rèn)),不同科學(xué)知識框架的思維交叉對比、反復(fù)確認(rèn)。人類的思維本身從單一角度來說是不太可靠的,網(wǎng)上出現(xiàn)的大量錯誤信息都是人類的錯誤,而極少是純粹由機(jī)器導(dǎo)致的錯誤。但人類之所以利用本身并不可靠的神經(jīng)元,卻有可能獲得極高可靠性的思維結(jié)果,采用的就是邏輯、信息質(zhì)量、跨模型的復(fù)核,以此獲得可靠性的提升。如果一條路難以確認(rèn),就增加走另一條路試試。
希望以上思維研究的結(jié)論可以給人工智能研究者一定的啟發(fā)。人類的智能是尋求以盡可能少的算力需求去得到最可靠的結(jié)果,而不是簡單追求算法的暴力美學(xué)。
人工智能交通視頻與人臉識別之所以獲得成功的應(yīng)用,不僅因?yàn)樗鼈儽旧淼淖R別率相對較高,有一定規(guī)范性,還因?yàn)樗鼈兌伎梢耘c單純?nèi)斯ぶ悄茏R別之外的其他途徑信息進(jìn)行交叉比對。除了前面所說車牌信息與車輛顏色、型號等與車輛所數(shù)據(jù)庫里的信息進(jìn)行交叉比對以外,如果再與移動運(yùn)營商的車主手機(jī)位置進(jìn)行交叉比對,識別率就更高。人臉識別也可以與已經(jīng)存儲在數(shù)據(jù)庫里的身份數(shù)據(jù),如姓名,性別,身份證號等進(jìn)行交叉比對。這些都會使最終的識別率在人工智能本身識別率基礎(chǔ)上獲得實(shí)質(zhì)性的極大提升。而諸如語音識別的結(jié)果,就只能人工進(jìn)行檢查排錯,沒有預(yù)存數(shù)據(jù)庫之類高度準(zhǔn)確信息的交叉比對。
五、國外通用人工智能的大坑
六、對通用人工智能的評測問題
1. 一頭熊一天吃14罐蜂蜜,請問它一年吃多少罐蜂蜜?
2. 一頭熊一天吃14罐蜂蜜,請問它閏年吃多少罐蜂蜜?'
3. 這頭熊要去出差了,它要屯一點(diǎn)蜂蜜,請問蜂蜜怎么保存最好?
4. 請畫一張小熊吃蜂蜜的 ascii art 圖片?
5. 如果我在野外,背包里有一罐蜂蜜,被熊聞到了,我可以把蜂蜜給熊來求生嗎?
6. 一只熊抱著一罐蜂蜜從一個點(diǎn)出發(fā),向南走一公里,再向東走一公里,再向北走一公里,正好又回到了起點(diǎn),請問:這只熊是什么顏色的?
7. 熊最近迷上了網(wǎng)購。請問有什么好的蜂蜜品牌推薦嗎?
8. 謝謝你回答上面的這一系列問題。
在進(jìn)行這種評測的同時,還有一個“涌現(xiàn)”的概念來對不同通用人工智能進(jìn)行質(zhì)的區(qū)別。
參見,看百度文心一言實(shí)力,再聊ChatGPT觸類旁通的學(xué)習(xí)能力如何而來?, 親愛的數(shù)據(jù) 親愛的數(shù)據(jù) 2023-03-21 12:10 發(fā)表于北京。
進(jìn)行這樣的區(qū)別意味著什么?當(dāng)然就會暗示不同的通用人工智能產(chǎn)品有本質(zhì)差異嘛——有些是已經(jīng)涌現(xiàn)了,而有些還沒有涌現(xiàn)。如果只是一些量的差異,只要在量上不斷改進(jìn)就可趨同或超越,而如果是質(zhì)的差別,就可能很長時間超越不了。尤其是當(dāng)前國內(nèi)受到英偉達(dá)最高算力的H100芯片禁運(yùn)情況下,會讓人們感覺國內(nèi)根本沒有可能實(shí)現(xiàn)“涌現(xiàn)”的通用人工智能。
所以最頂級專業(yè)的人士不是看圖,而是看其可靠性數(shù)據(jù)指標(biāo)——本質(zhì)上就決定了它們都不可能太高。不是“涌現(xiàn)”,而是會無限地趨近并停滯在99.9%到99.99%這個水平上。
另外,對業(yè)界所稱的“大模型”這一概念也需要最深入地保持冷靜。就像曾經(jīng)熱炒的“大數(shù)據(jù)”概念一樣。數(shù)據(jù)“大”到什么程度才算“大數(shù)據(jù)”,大到這種程度有什么本質(zhì)不同嗎?大數(shù)據(jù)發(fā)展到現(xiàn)在的歷史其實(shí)已經(jīng)極為充分地證明了:計(jì)算機(jī)發(fā)展的歷史主要就是量的差異。如果有什么本質(zhì)的不同,只會是針對特定應(yīng)用來說的。例如視頻,每增加一倍掃線,相同編碼標(biāo)準(zhǔn)的計(jì)算能力大致需要增加4倍,所以在過去摩爾定律一直有效的時代,每過3年視頻掃線就可增加一倍。但從普遍的意義上來說,正如沒有什么確切的理論依據(jù)可以表明大數(shù)據(jù)大到什么程度就會出現(xiàn)本質(zhì)性的變化一樣,也并沒有什么確切的理論依據(jù)可以表明參數(shù)多到什么程度就會出現(xiàn)“涌現(xiàn)”這個說法。人工智能技術(shù)的本質(zhì)區(qū)別的確會體現(xiàn)在算法和算力上。這次的人工智能爆發(fā)一方面是算力的不斷提升,另一個是Trasformer這個新算法的進(jìn)步。它是CNN(神經(jīng)網(wǎng)絡(luò))帶來的深度學(xué)習(xí)算法之后又一次小的算法革命(本質(zhì)上還是神經(jīng)網(wǎng)絡(luò))。只要利用了這種新的算法,只有量的區(qū)別,不會有什么“涌現(xiàn)”“不涌現(xiàn)”的本質(zhì)區(qū)別。
搞核心硬件、尤其是擁有最領(lǐng)先核心硬件的企業(yè),當(dāng)然希望整個業(yè)界都陷在爭先恐后的模型參數(shù)“越大越好”,從而需要盡可能更大算力的思維陷阱里了。
七、通用人工智能是有“價值觀”的