在2024世界人工智能大會(WAIC 2024)期間,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏,與第一財(cái)經(jīng)傳媒集團(tuán)總編輯楊宇東和《硅谷101》創(chuàng)始人陳茜,進(jìn)行了一場圓桌訪談。在一個(gè)小時(shí)的對話中,李彥宏對開源閉源、大模型價(jià)格戰(zhàn)、智能體、超級應(yīng)用、AGI等業(yè)界熱點(diǎn)問題,表達(dá)了自己的看法。
李彥宏認(rèn)為,開源其實(shí)是一種智商稅。“當(dāng)你理性地去想,大模型能夠帶來什么價(jià)值,以什么樣的成本帶來價(jià)值的時(shí)候,就會發(fā)現(xiàn),你永遠(yuǎn)應(yīng)該選擇閉源模型。今天無論是ChatGPT、還是文心一言等閉源模型,一定比開源模型更強(qiáng)大,推理成本更低。”
談及“AI超級應(yīng)用什么時(shí)候出現(xiàn)”時(shí),李彥宏表示,“不是說一定在等待一個(gè)超級應(yīng)用的出現(xiàn)”。他認(rèn)為,在基礎(chǔ)模型之上,應(yīng)該能夠誕生數(shù)以百萬計(jì)的各種各樣的應(yīng)用。“如果僅僅是從0到1,你可能會希望出現(xiàn)某幾個(gè)Super APP,也就是幾個(gè)公司從中受益。但是今天,幾乎各行各業(yè)所有的公司,被大模型加持之后,它都能受益。這種影響力,對于整個(gè)社會、對于人類來說,無疑是更大的。”
李彥宏稱,智能體代表著AI時(shí)代的未來趨勢。“智能體正在爆發(fā),只是現(xiàn)在基數(shù)還比較小,大家的體感沒有那么強(qiáng)烈。”基礎(chǔ)模型需要靠應(yīng)用才能顯現(xiàn)出價(jià)值,智能體是一個(gè)幾乎“放之四海而皆準(zhǔn)”的基于大模型的應(yīng)用,由于它門檻足夠低,可能你連編程都不用,就可以做出一個(gè)效果不錯(cuò)的智能體。“讓更多人進(jìn)來,他們發(fā)揮聰明才智,指不定哪條路跑通了,它就是一個(gè)Super APP。”
以下為訪談精編全文:
超級應(yīng)用什么時(shí)候出現(xiàn)?
基礎(chǔ)模型之上將誕生數(shù)以百萬計(jì)的應(yīng)用
楊宇東:由ChatGPT掀起的這個(gè)熱潮已經(jīng)持續(xù)一年多了,你也曾表達(dá),接下來超級應(yīng)用什么時(shí)候出現(xiàn)?我們看到國內(nèi)面向C端的大模型產(chǎn)品形態(tài),看起來都差不多,都是搜索框+問答這種模式,你怎么看?有沒有可能產(chǎn)生一種差異化的競爭?什么樣的好產(chǎn)品會出現(xiàn)?
李彥宏:我倒不是說一定在等待一個(gè)超級應(yīng)用的出現(xiàn)。我更覺得,在基礎(chǔ)模型之上,應(yīng)該能夠誕生數(shù)以百萬計(jì)各種各樣的應(yīng)用。這些應(yīng)用有些是很小的領(lǐng)域,一個(gè)大家可能不太容易想到的應(yīng)用,但它對于那個(gè)領(lǐng)域的問題,解決得比以前好很多。確切的講,我現(xiàn)在還沒有看到,能夠比肩移動(dòng)互聯(lián)網(wǎng)時(shí)期超級應(yīng)用那樣的AI時(shí)代的原生應(yīng)用。但是已經(jīng)看到,越來越多在各種各樣場景、尤其是To B場景中,利用大模型提升了效率,產(chǎn)生了更多的收入,或者說節(jié)省了更多成本的情況出現(xiàn)。
今天,大家都在想,我能不能從0到1,做出一個(gè)人們想也沒想到過的東西?變成一個(gè)DAU10億的超級應(yīng)用?這個(gè)當(dāng)然很重要,假以時(shí)日也一定會出現(xiàn)。但是,更重要的是大模型在各個(gè)領(lǐng)域、各個(gè)場景的應(yīng)用。
從百度文心一言的日調(diào)用量來看,已經(jīng)非常明顯。我們在4月份曾經(jīng)公布過一個(gè)數(shù)據(jù),文心一言的調(diào)用量每天有2億次。前幾天,我們再公布的時(shí)候,文心一言調(diào)用量已經(jīng)到了5億次。也就是說,兩個(gè)月的時(shí)間調(diào)用量是double。調(diào)用背后意味著什么?意味著它在給應(yīng)用產(chǎn)生價(jià)值。因?yàn)闆]有價(jià)值的話,人家也不會花錢去調(diào)用。
楊宇東:C端用戶會有什么樣很好的場景?包括端側(cè)、手機(jī)上的APP,如何去調(diào)用AI能力?
李彥宏:我覺得分兩類:一類是大家比較關(guān)注的,過去從來沒有過的應(yīng)用。現(xiàn)在比較流行的、類似于ChatGPT這樣的ChatBot,就是聊天機(jī)器人。國內(nèi)每一個(gè)大模型公司,都會推出一個(gè)相應(yīng)的APP,或者是網(wǎng)站來做ChatBot。
對于現(xiàn)有這些To C的應(yīng)用,其實(shí)它的信息增益作用也是非常大的。我們在4月份的時(shí)候,公布過一個(gè)數(shù)據(jù),百度搜索今天有11%的搜索結(jié)果會由AI來生成,這個(gè)比例還在不斷提升。再比如說百度文庫,過去,百度文庫是大家在上面找一些現(xiàn)成的文檔。今天,百度文庫經(jīng)過大模型改造之后,已經(jīng)更多地變成了生成式AI應(yīng)用。你不管想要生產(chǎn)什么樣的文檔,是PPT、是論文的格式、甚至是漫畫,它都可以根據(jù)你的要求生成。今年以來,文庫已經(jīng)有大約2600萬付費(fèi)用戶。如果說用超級應(yīng)用的標(biāo)準(zhǔn)來看,它也沒有達(dá)到超級應(yīng)用的水準(zhǔn),但是要看它實(shí)際產(chǎn)生的價(jià)值,有那么多人愿意為這個(gè)產(chǎn)品付費(fèi),還是很厲害。這些產(chǎn)品都是過去已經(jīng)存在,但經(jīng)過了大模型改造之后,它的能力跟以前完全不一樣了。
陳茜:我特別同意你最近在多個(gè)場合強(qiáng)調(diào)的,去卷AI原生應(yīng)用,大模型才有意義。但到今天,我們還沒有看到應(yīng)用的爆發(fā),可能很多應(yīng)用出來也不太盡人意。所以我的問題或者疑惑在于,如果從模型能力上看,是不是現(xiàn)在還沒有到去卷應(yīng)用的時(shí)候?
李彥宏:大模型應(yīng)用其實(shí)已經(jīng)逐步在浮現(xiàn)出來,它對于現(xiàn)有業(yè)態(tài)的改造作用,比從0到1的顛覆作用,更早到來。這個(gè)過程一開始大家覺得,沒有那么性感,但是它對于人的工作效率的提升,對于成本的下降,對于打開新的可能性,產(chǎn)生的促進(jìn)作用,是比那些從0到1的應(yīng)用,反而更大。如果僅僅是從0到1,你可能會希望出現(xiàn)某幾個(gè)Super APP,也就是幾個(gè)公司從中受益。但是今天,幾乎各行各業(yè)所有的公司,被大模型加持之后,它都能受益。這種影響力,對于整個(gè)社會、對于人類來說,無疑是更大的。
只是大家覺得,以前都存在,這個(gè)東西我以前見過,所以沒有新鮮感。或者它更多誕生在生產(chǎn)力場景,它的受眾群體,或者單一應(yīng)用的受眾群體,不會過億過十億。尤其在C端,在公眾層面體感沒有那么集中。這是大家一直在尋找一個(gè)Super APP的原因。
為什么智能體是未來趨勢?
門檻足夠低,跑通了就是Super APP
楊宇東:我們前面聊的是“卷應(yīng)用”,接下來還有一個(gè)關(guān)鍵詞叫“智能體”。你說過好多次,AI時(shí)代最看好的應(yīng)用是智能體。但我們目前并沒有看到智能體的爆發(fā),為什么你認(rèn)為智能體是AI時(shí)代的未來趨勢呢?
李彥宏:我覺得智能體正在爆發(fā),只是說它現(xiàn)在基數(shù)還比較小,大家的體感沒有那么強(qiáng)烈。但是你要看業(yè)界大模型公司,都在做智能體。智能體就是一個(gè)幾乎可以“放之四海而皆準(zhǔn)”的基于大模型的應(yīng)用。今天大多數(shù)AI原生應(yīng)用,你用智能體的方式都可以做出來,效果也不錯(cuò)。由于它門檻足夠低,可能你連編程都不用,就可以做出一個(gè)效果不錯(cuò)的智能體。
門檻足夠低,就意味著越來越多的人,可以做出他想要的智能體。這個(gè)有點(diǎn)像90年代中期時(shí)候的互聯(lián)網(wǎng)網(wǎng)站。你可以把它做得非常復(fù)雜,比如雅虎就是很厲害的網(wǎng)站。但是在學(xué)校讀書的大學(xué)生,他也可以做一個(gè)自己的Home Page。由于做網(wǎng)站很簡單,在90年代中后期,就誕生了數(shù)以百萬計(jì)的網(wǎng)站。大浪淘沙之后,最終出來了一些非常優(yōu)秀的網(wǎng)站,像Google、Facebook,這是若干年之后才出現(xiàn)。但是早期看,這些網(wǎng)站都是亂糟糟的,一個(gè)大學(xué)生就能做一個(gè)網(wǎng)站出來,這有啥價(jià)值?但是你必須得門檻足夠低的時(shí)候,讓更多人進(jìn)來,他們發(fā)揮聰明才智,指不定哪條路跑通了,它就是一個(gè)Super APP。
陳茜:業(yè)界對AI Agent的定義,還是有一點(diǎn)不同。你對Agent的定義是什么?
李彥宏:我首先要考慮,這個(gè)門檻要足夠低,一個(gè)小白,大一的學(xué)生,他也可以很方便地制作一個(gè)智能體。當(dāng)然在此之上,可以有各種各樣比較fancy的玩法,調(diào)用工具、反思、長期的記憶等等,這些能力會逐步加進(jìn)去。
不是說用了最先進(jìn)的這些能力之后,它才叫一個(gè)AI Agent。我反而覺得,我們要把門檻降得足夠低,讓大家覺得,我也可以搞一個(gè)AI Agent。
說實(shí)話,我認(rèn)為現(xiàn)在AI Agent用到的這些能力,仍然是非常初級的,未來還會產(chǎn)生我們今天想也想不到的Agent能力。但是這些能力的誕生,反而要依賴數(shù)以百萬計(jì)的開發(fā)者,去開發(fā)各種各樣的應(yīng)用。在他們使用的過程當(dāng)中產(chǎn)生新的需求,這些需求被解決的過程,就是一個(gè)創(chuàng)新過程,就是AI Agent進(jìn)化的過程。
陳茜:百度有什么比較有意思的AI Agent案例,可以給我們分享一下嗎?
李彥宏:有很多。國內(nèi)高考是一個(gè)非常大的事件,不僅是學(xué)生,還有家長都非常重視。過去大模型在干什么事?高考有作文題,我們用大模型來寫一個(gè)作文,看它能得多少分。其實(shí)你想一想,這個(gè)東西在哪用呢?不可能讓一個(gè)考生帶著大模型去參加高考。但是高考完了之后,你要估分,要報(bào)志愿,要選擇學(xué)校,你要選擇專業(yè),一個(gè)考生他該報(bào)哪個(gè)學(xué)校,哪個(gè)專業(yè),每個(gè)人情況都是不一樣,每個(gè)人的問題也都是不一樣。這種情況下,哪有一個(gè)全能的輔導(dǎo)老師可以告訴你,你最適合的是哪個(gè)學(xué)校哪個(gè)專業(yè)?但是AI Agent就可以干這個(gè)事情。我們開發(fā)了一個(gè)高考填報(bào)志愿的AI Agent。在高峰時(shí)期,一天有200萬人在使用,足見大家對這個(gè)東西的認(rèn)可度和依賴度還是非常高的。
大模型對B端的改造比互聯(lián)網(wǎng)更大
規(guī)模更小一點(diǎn)的模型市場需求量更大
楊宇東:通用大模型和行業(yè)垂直大模型,它將來到底是什么樣的關(guān)系?
李彥宏:大模型在各個(gè)垂直場景里怎么用?我們經(jīng)過了一個(gè)探索過程。最初我們的想法是,我把這個(gè)基礎(chǔ)模型做得越來越強(qiáng)大,大家叫通用人工智能,在什么場景我都能做得很好。后來發(fā)現(xiàn)這件事情沒有那么容易,每個(gè)場景都有它自己的道。當(dāng)應(yīng)用場景需要反應(yīng)快的時(shí)候,我們需要更小的模型。這種小的模型,它由于沒有大模型通用的能力,所以在垂直場景當(dāng)中,還要對它做精調(diào),就是SFT,把你行業(yè)的數(shù)據(jù)怎么灌進(jìn)去,再經(jīng)過各種各樣的調(diào)教,在這個(gè)場景里的效果,就能夠跟大模型相比差不多。
類似這種場景,我們也見了很多。去年10月份,我們發(fā)了文心4.0之后,主要精力在做什么呢?就是根據(jù)最強(qiáng)大的模型,去裁剪各種體量的小模型,比如說十億量級的模型,百億量級的模型,千億量級的模型,這個(gè)模型也許擅長角色扮演,那個(gè)模型也許擅長邏輯推理等等,根據(jù)客戶不同使用場景的不同要求,做出各種各樣的模型。這些模型大多數(shù)速度都比EB4要快,推理成本比它要低,所以這種應(yīng)用是大家更愛用的。今天你要看市場需求的話,規(guī)模更小一點(diǎn)的模型,市場需求量是更大的。
楊宇東:你為什么認(rèn)為,大模型對B端的改造,比互聯(lián)網(wǎng)對B端的影響更大?
李彥宏:互聯(lián)網(wǎng)對C端的改造,我們都是感同身受的,是非常徹底的,是顛覆性的。但是互聯(lián)網(wǎng)對B端的改造,我覺得一般般。用的技術(shù)比較簡單,產(chǎn)生的增益也沒有那么明顯。但大模型不一樣。我們接觸到的一些能源電力、生產(chǎn)制造等企業(yè),都有類似的需求。比如說,現(xiàn)在國內(nèi)電動(dòng)車卷得也很厲害,車內(nèi)的對話系統(tǒng),很多也在用文心大模型,使用量也不小,但是對百度來說,這就是一個(gè)To B的應(yīng)用,我們不直接提供給用戶,它是經(jīng)過了OEM,經(jīng)過了車廠的集成之后,把這個(gè)應(yīng)用提供給了終端消費(fèi)者。這種事情其實(shí)非常多,而且我們就看調(diào)用量,如果調(diào)用量上得很快,這就說明我們的客戶需要這些東西,B端靠著這個(gè)大模型,靠著AI原生應(yīng)用產(chǎn)生了價(jià)值。
楊宇東:在金融、醫(yī)療等這些比較嚴(yán)謹(jǐn)?shù)念I(lǐng)域,生成式AI的幻覺問題,怎么破解?
李彥宏:今天,應(yīng)該說你會很少發(fā)現(xiàn)幻覺問題了,尤其是用最大規(guī)模、最強(qiáng)大模型的時(shí)候,已經(jīng)很少出現(xiàn)幻覺問題了。為什么呢?一開始,純粹用原來的Transformer去做出來的大模型,它確實(shí)是非常難避免幻覺的,因?yàn)樗莻€(gè)概率模型。
要解這個(gè)問題,就要在原來Transformer架構(gòu)上,增加一些東西,專業(yè)詞語叫RAG。我只要稍微借助一點(diǎn)工具,就可以消除這樣的幻覺。隨著使用這種工具的能力越來越強(qiáng),你就會發(fā)現(xiàn),在各種場景下,幻覺是越來越少的。
當(dāng)然,今天這種生成式人工智能,更像是一個(gè)Copilot,在特別嚴(yán)肅、對準(zhǔn)確度要求特別高的場景下,我們還不能讓它全部自動(dòng)實(shí)現(xiàn),還要靠人把最后一道關(guān)。這樣,一方面可以提升效率;另一方面,在準(zhǔn)確度上、在消除幻覺上,也能夠起到比較重要的作用。
陳茜:現(xiàn)在企業(yè)對AI的使用成本怎么看?是否愿意為AI付費(fèi)?你在跟一些企業(yè)客戶交流的時(shí)候,他們的態(tài)度是什么樣子的?
李彥宏:當(dāng)你處在市場經(jīng)濟(jì)環(huán)境當(dāng)中,企業(yè)其實(shí)是非常理性的。尤其是中小企業(yè),賬算得非常精。如果這件事情能夠讓我降本增效,能夠讓我賺到更多的錢,那我就會用它。如果不能,你再吹破天,我也不會用。市場會告訴你,大模型到底有用還是沒用?我們看到調(diào)用量的迅速提升,確實(shí)是因?yàn)樵谟脩魝?cè)、在客戶側(cè),它為企業(yè)產(chǎn)生了降本增效的作用。
我再舉個(gè)例子,比如說在招聘場景。過去是怎么做的?是HR坐在那,一份一份簡歷篩查,然后一個(gè)一個(gè)面試,面試100個(gè)人,最后篩出來10個(gè)人,再進(jìn)行下一步面試,效率是非常非常低。但是大模型進(jìn)來之后,它可以非常明顯地去提升效率。因?yàn)椋么竽P腿ダ斫膺@是一個(gè)什么人,理解這個(gè)老板要招什么樣的人,然后進(jìn)行匹配,它的效率就會高很多。
而且,你去算一算模型的推理成本,其實(shí)幾乎是可以忽略不計(jì)的。尤其在國內(nèi),現(xiàn)在大模型價(jià)格戰(zhàn)是非常厲害的,百度的輕量級模型都是免費(fèi)的,這個(gè)免費(fèi)不僅僅指的是模型免費(fèi),實(shí)際上算力也送你了,你本來要有電腦,要有帶寬等等,這些都沒有了,你只要來用就好。
如何看“開源閉源之爭”?
開源是一種智商稅
閉源模型比開源模型更強(qiáng)大
楊宇東:開源閉源問題是業(yè)界關(guān)注焦點(diǎn)。你認(rèn)為,閉源模型會持續(xù)領(lǐng)先。但我們看到,開源大模型越來越多,甚至有些能力都不亞于我們說謂的GPT4了,這個(gè)問題你怎么看,你們還是會堅(jiān)定的走閉源路線?
李彥宏:我覺得,開源其實(shí)是一種智商稅。你仔細(xì)想一想,我們?yōu)槭裁匆龃竽P停渴撬軌蛴袘?yīng)用,這些應(yīng)用在各種場景下,能夠?yàn)榭蛻魹橛脩籼嵘省⒔档统杀荆a(chǎn)生過去產(chǎn)生不了的作用。所以當(dāng)你理性的去想,大模型能夠給我?guī)硎裁磧r(jià)值?以什么樣的成本給我?guī)韮r(jià)值?你永遠(yuǎn)應(yīng)該選擇閉源模型。今天這些閉源模型,無論是ChatGPT還是文心一言,以及其他各種各樣的閉源模型,它的平均水平,一定是比這些開源模型更強(qiáng)大,推理成本一定是比開源模型更低。
陳茜:百度對To B客戶,是“閉源+公有云”這樣一套打法,有什么考量嗎?
李彥宏:ToB的客戶,他要選擇的是一個(gè)性價(jià)比最好的模型。一方面,模型要對他的應(yīng)用產(chǎn)生價(jià)值,另外一方面,成本要足夠低。很多時(shí)候,你看著有用,一算成本不劃算,客戶就放棄了。這是為什么我剛才講,開源模型打不過閉源模型。你只要理性的去看待,你的收益是啥,你的成本是啥,你就會發(fā)現(xiàn),最好還是去選擇閉源模型。當(dāng)然,閉源模型不是一個(gè)模型,它是一系列的模型,根據(jù)你的使用場景去平衡一下,要多好的效果,要多快的推理速度,要多低的成本。模型有非常多的變種,可以根據(jù)用戶的需求,讓他來做選擇。
閉源模型還有一個(gè)開源模型不具備的優(yōu)勢:這些相對來說規(guī)模更小的模型,都是從最大最powerful的模型裁剪出來的,裁剪出來這些更小規(guī)模的模型,仍然比那些同樣規(guī)模的開源模型要效果更好。
陳茜:百度對于中小模型、模型蒸餾上,有什么樣的策劃?
李彥宏:我們看到的真實(shí)需求,在絕大多數(shù)情況下都不是最大的模型,它都要求這個(gè)模型變小。變小意味著什么?速度快,成本低。比如說,我干這個(gè)事兒,總共能夠給我?guī)砻磕?00萬的增益,但使用最大的模型要120萬的成本,那我肯定不干了。那我就會給大模型公司提要求,把成本降到80萬,甚至降到8萬。那我們就得想,怎么把最強(qiáng)大的模型,蒸餾到足夠小,成本足夠低,滿足這個(gè)場景需求。因?yàn)殚]源有一個(gè)最強(qiáng)大的基礎(chǔ)模型,根據(jù)模型蒸餾或者裁剪出來的小模型,比那些開源模型做出來的東西更有競爭力。所以我們覺得,To B的機(jī)會仍然在閉源不在開源。
大模型價(jià)格戰(zhàn)不可避免
最終還是比誰的技術(shù)好、效率高
楊宇東:我們現(xiàn)在看到價(jià)格戰(zhàn)已經(jīng)開始打起來,其實(shí)還是蠻出乎我們的預(yù)料,這么快。
李彥宏:價(jià)格戰(zhàn)幾乎不可避免,在中國互聯(lián)網(wǎng)干了這么長時(shí)間,其實(shí)已經(jīng)對價(jià)格戰(zhàn)非常熟悉。但就像你講的,確實(shí)來得比我想象的更早一點(diǎn),這么早就開始把價(jià)格打到幾乎不可思議低的地步。但某種意義上講也不是壞事兒,當(dāng)你足夠低,甚至免費(fèi)的時(shí)候,就會有更多人有積極性來嘗試,在大模型基礎(chǔ)上去開發(fā)各種各樣的應(yīng)用,大模型對于各行各業(yè)的滲透速度會更快。
楊宇東:很多閉源大模型API調(diào)用費(fèi)越來越低,大模型靠推理收費(fèi)的商業(yè)模式未來成不成立?以后大模型比拼的是哪些點(diǎn)?
李彥宏:大模型技術(shù)天花板還是很高的,今天我們還是對于大模型的能力有很多不滿意的地方,仍然需要很多非常優(yōu)秀的技術(shù)人員、需要很多算力、需要很多數(shù)據(jù),才能訓(xùn)練出下一代大模型,我們還可能需要下下一代、下下下一代的大模型。
所以最終我覺得大家是要去拼誰的技術(shù)更好,你的技術(shù)好,你為客戶產(chǎn)生了更好的價(jià)值。今天之所以把這個(gè)模型打到足夠低,是因?yàn)楝F(xiàn)在模型的這個(gè)能力其實(shí)還沒有到最好,沒到最好的時(shí)候,大家都差不多的時(shí)候,就會誰的價(jià)格低就用誰的。
時(shí)間長了之后,市場本身會回歸理性。最終還是比誰的技術(shù)好,誰的效率高,誰會勝出。
陳茜:你覺得這個(gè)價(jià)格戰(zhàn)會持續(xù)多久的一個(gè)時(shí)間呢?
李彥宏:這個(gè)很難講,現(xiàn)在有些創(chuàng)業(yè)公司是玩家,也有很多非常大型的互聯(lián)網(wǎng)平臺公司是玩家,其實(shí)理論上講是可以燒很長時(shí)間。但我覺得燒錢不是事情本質(zhì),事情本質(zhì)仍然是誰的技術(shù)更好,誰的效率更高,當(dāng)你的技術(shù)好、效率高的時(shí)候,你就不怕去打這個(gè)價(jià)格戰(zhàn),所以多長時(shí)間都OK,最終會是優(yōu)勝劣汰的過程。
陳茜:你覺得在中國市場會是一個(gè)贏家通吃這樣的一個(gè)局面嗎?還是說等價(jià)格戰(zhàn)之后會剩下幾個(gè)主要的?可能還有一些更小一點(diǎn)的?
李彥宏:這次生成式AI是對整個(gè)IT技術(shù)棧的大變革,過去IT技術(shù)棧是芯片層、操作系統(tǒng)層、應(yīng)用層或者軟件層,就這三層。到生成式AI之后,IT技術(shù)棧變成了四層,芯片、深度學(xué)習(xí)框架層、模型層、應(yīng)用層,我認(rèn)為在每一層可能都會誕生至少2—3個(gè)大玩家。
應(yīng)用層的話,可能會有數(shù)以百萬計(jì)、甚至數(shù)以千萬計(jì)的各種各樣應(yīng)用出來,也會逐步出現(xiàn)超級應(yīng)用,既然是超級應(yīng)用,當(dāng)然不會很多,可能是三五個(gè)。
模型層我覺得也許兩三個(gè)就足夠了,因?yàn)樽詈蟠蠹冶绕吹氖切剩愕男嗜绻粔蚋叩脑挘陀X得說還不如用別的。
Scaling Law短期內(nèi)不會被顛覆
圖靈測試不再是標(biāo)準(zhǔn)
AGI需要十年以上才能實(shí)現(xiàn)
楊宇東:Scaling Law還會持續(xù)有效嗎?
李彥宏:Scaling Law可能還會有若干年的生命周期。但與此同時(shí),在此之上會疊加各種各樣的創(chuàng)新。剛才講的智能體,它的反思、進(jìn)化能力等,其實(shí)跟Scaling Law已經(jīng)是兩個(gè)路線在發(fā)展,但它仍然是基于Transformer這類大模型往上做。未來再過一兩年,還會出現(xiàn)什么新的技術(shù)創(chuàng)新,在此基礎(chǔ)上再去疊加,大家都在探索。換句話說,我覺得Scaling Law短期之內(nèi)不會被顛覆,但是在Scaling Law之上會疊加出來很多我們現(xiàn)在可能還無法想象的創(chuàng)新。
楊宇東:你認(rèn)為AGI實(shí)現(xiàn)的標(biāo)準(zhǔn)是什么?還有哪些路徑可以讓我們更快地通向AGI?
李彥宏:業(yè)界確實(shí)還沒有一個(gè)標(biāo)準(zhǔn)答案。以前大家覺得,通過圖靈測試就實(shí)現(xiàn)AGI了,實(shí)際上現(xiàn)在大模型已經(jīng)通過了圖靈測試。人們所說的AGI,其實(shí)大多數(shù)時(shí)候已經(jīng)不是只通過圖靈測試了。
那么什么叫AGI?在我心目中,AGI就是機(jī)器或者說AI,能夠具備人在任何場景下所具備的能力。Artificial General Intelligence,就是通用人工智能,它不管在什么場景下,能力都是跟人一樣的,這是一個(gè)很高的要求。
所以真正要實(shí)現(xiàn)AGI,我認(rèn)為還需要很多很多年。業(yè)界有人說AGI可能再過2年,或者再過5年能實(shí)現(xiàn)。我自己的判斷是10年以上,也許更長的時(shí)間。我們聽到很多人講,AGI是一種信仰,當(dāng)你把它當(dāng)做一種信仰的時(shí)候,誰的信仰會明年就實(shí)現(xiàn)?這是自相矛盾的。如果是一個(gè)信仰,它就是你值得為之長期奮斗的一個(gè)目標(biāo)。
陳茜:現(xiàn)在GPT5一直在延后,擔(dān)憂的聲音也越來越高,AGI沒有辦法用Scaling Law這個(gè)方式去帶我們實(shí)現(xiàn)了,你對這個(gè)有擔(dān)憂嗎?
李彥宏:我不是很擔(dān)心這件事情,我覺得大家應(yīng)該更關(guān)注應(yīng)用,而不是關(guān)注基礎(chǔ)模型,某種意義上基礎(chǔ)模型迭代速度稍微放緩一點(diǎn)不是壞事,如果今天的應(yīng)用開發(fā)者,有一個(gè)相對穩(wěn)定的基礎(chǔ)來開發(fā)應(yīng)用,其實(shí)是效率更高一些的,如果模型天天在那兒練,每天都要重寫一遍過去的代碼,那是很累的。但是在現(xiàn)有基礎(chǔ)模型上不斷去做微調(diào),去做一些漸進(jìn)式的迭代和和創(chuàng)新,其實(shí)你看到是一直在發(fā)生的,無論是OpenAI不斷在推的,還有百度我們的Turbo模型、更小量級的模型等等,都是在根據(jù)市場的需求在做迭代。
但長遠(yuǎn)來講,我確實(shí)認(rèn)為下一代大模型一定會比現(xiàn)在這一代模型強(qiáng)大得多。什么時(shí)候推出來我不是很著急,我們應(yīng)該更多的去看真實(shí)的市場需求,下一代模型在迭代的時(shí)候,要根據(jù)市場需求來迭代。