精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
年后AI落地別踩坑!DeepSeek熱潮下,企業(yè)最容易犯的2個(gè)錯(cuò)(含詳細(xì)避坑指南)

春節(jié)期間這波AI熱潮,注定會(huì)從餐桌前的談資,延續(xù)到辦公桌上的行動(dòng)計(jì)劃。

可以預(yù)見,開工之后,會(huì)有越來越多的企業(yè),抱著"有棗沒棗打一桿"的心態(tài),開始規(guī)劃AI項(xiàng)目。

就像當(dāng)年的互聯(lián)網(wǎng)轉(zhuǎn)型一樣,AI似乎也開始成為了企業(yè)升級(jí)的必答題。

一、兩塊硬骨頭

不過,對(duì)于眾多蠢蠢欲動(dòng)的AI團(tuán)隊(duì)來說,要想在年終考核時(shí)達(dá)成KPI,有兩塊硬骨頭必須啃下來:

1、選擇合適的技術(shù)路線

此時(shí)的AI發(fā)展態(tài)勢(shì),恰如彼時(shí)的田徑史:

四分鐘跑完一英里,曾被認(rèn)為是人類的生理極限。直到羅杰·班尼斯特以3分59.4秒打破這個(gè)紀(jì)錄。一旦心理障礙被打破,隨之而來的就是一連串的突破。這個(gè)紀(jì)錄僅僅維持了46天,就被約翰·蘭迪刷新至3分57.9秒。

今天的AI領(lǐng)域,正經(jīng)歷著類似的歷史時(shí)刻。整個(gè)2024 年,關(guān)于AI 減速的討論此起彼伏。而DeepSeek的突破,就像是AI界的“班尼斯特時(shí)刻”,打破了發(fā)展的心理藩籬。加上開源浪潮的推動(dòng),AI技術(shù)迭代正在加速。[1]

在這樣的關(guān)鍵節(jié)點(diǎn)上,選擇技術(shù)路線不僅要考慮當(dāng)下的技術(shù)成熟度,更要預(yù)判未來的發(fā)展方向。押對(duì)了,就能在技術(shù)浪潮中占得先機(jī);押錯(cuò)了,可能需要付出數(shù)倍的代價(jià)重新開始。

2、從成本中心轉(zhuǎn)變?yōu)槔麧欀行?/strong>

不然,等到下一輪"降本增效"來臨時(shí),AI團(tuán)隊(duì)往往是第一批被"優(yōu)化"的對(duì)象。

前兩年,很多AI團(tuán)隊(duì)之所以難以成為利潤中心,癥結(jié)往往不在AI商業(yè)化本身,而在于對(duì)技術(shù)與業(yè)務(wù)融合的理解過于膚淺。不少團(tuán)隊(duì)陷入了技術(shù)中心主義的誤區(qū),以為掌握了算法就等于掌握了價(jià)值創(chuàng)造的鑰匙。

這種情況下,AI團(tuán)隊(duì)往往成為企業(yè)內(nèi)的技術(shù)孤島,整天研究最新的算法和模型,卻很少了解業(yè)務(wù)痛點(diǎn)。雙方就像說著不同語言的兩個(gè)群體,AI團(tuán)隊(duì)滔滔不絕地講著技術(shù)術(shù)語,而業(yè)務(wù)人員只關(guān)心問題能否解決、成本和風(fēng)險(xiǎn)。

這種割裂,最終會(huì)陷入惡性循環(huán)。AI團(tuán)隊(duì)為證明價(jià)值不斷追求技術(shù)指標(biāo)提升,卻始終無法解決實(shí)際業(yè)務(wù)問題。業(yè)務(wù)部門見不到效果,就更不愿投入資源支持,進(jìn)一步加劇了雙方的隔閡……

二、兩類參考答案

針對(duì)技術(shù)路線的問題,我春節(jié)期間看到最好的參考答案是perplexity。

1、

我原本以為,perplexity 很快會(huì)被聯(lián)網(wǎng)版的deepseek R1 取代。

因?yàn)閐eepseek 足夠強(qiáng)的推理加上實(shí)時(shí)的聯(lián)網(wǎng),就把提示詞的門檻給打了下來。

每個(gè)人只要像聊天一樣輸入自己的問題,就能收獲其他AI改半天提示詞也達(dá)不到的效果。[2]

于是我就想,免費(fèi)的deepseek 就能搜成這樣了,又要付費(fèi)的perplexity干嘛呢?

2、

但實(shí)際情況卻是,perplexity 不僅很快就引入了deepseek R1,而且成為了所有引入deepseek的產(chǎn)品中速度最快和效果最驚艷的:

deepseek原生的R1加上搜索,偶爾還是太飄了;不少人說最新版本的秘塔AI搜索,配的是滿血的R1,但實(shí)測(cè)效果也遠(yuǎn)不如perplexity。 

perplexity之所以那么好用,是因?yàn)槲蚁扔肅laude 去理解和搜索,再用R1去推理(如圖)。前者讓搜的內(nèi)容更精準(zhǔn),后者讓出來的結(jié)果更有洞察。整體有點(diǎn)類似于當(dāng)下熱門的DeepClaude的效果。

所以,早在deepseek沒有限制聯(lián)網(wǎng)之前,我就重新?lián)Q回perplexity了。

確實(shí)沒想到,perplexity 的產(chǎn)品力恐怖如斯。無論模型層有多大進(jìn)步,都能快速轉(zhuǎn)化成自己的能力,讓搜索效果更好,讓用戶體驗(yàn)更佳。

回到技術(shù)路線問題上,個(gè)人認(rèn)為perplexity這種「不會(huì)被模型進(jìn)步干掉,反而是模型越強(qiáng)我越強(qiáng)」架構(gòu),反倒更值得追求。

3、

在企業(yè)領(lǐng)域,在“模型越強(qiáng)我越強(qiáng)”方面做得最好的,當(dāng)屬美國AI ToB當(dāng)紅炸子雞Palantir 家的Ontology 。

什么是Ontology?

2021年的Demo Day上,Palantir曾宣稱,他們能在幾個(gè)小時(shí)內(nèi),自動(dòng)整合完公司各部門數(shù)據(jù),形成整個(gè)公司的“數(shù)字分身”(digital twin)。而這,就是Ontology。[3]

時(shí)間來到2023 年,Palantir與時(shí)俱進(jìn)推出的AIP,更是直接將先進(jìn)的AI模型(如ChatGPT)與Ontology框架結(jié)合,進(jìn)一步簡化操作,增強(qiáng)客戶基于全面、實(shí)時(shí)洞察做決策的能力。

當(dāng)年第四季度,Palantir 就在報(bào)告里說,美國商業(yè)收入同比增長70%,這主要得益于AIP的成功推出和市場(chǎng)需求……

4、

雖然,目前還沒有消息說Palantir 要AIP里引入deepseek,但我敢確信,只要跟Ontology框架結(jié)合,就一定會(huì)有超預(yù)期的效果。

理由無他,只是因?yàn)镺ntology 跟deepseek 等頭部AI 太配了。

如果說互聯(lián)網(wǎng)產(chǎn)品的工作機(jī)制是"預(yù)設(shè)路徑下的功能調(diào)用”,那么生成式AI產(chǎn)品則是“上下文感知下的動(dòng)態(tài)生成”。

AI負(fù)責(zé)感知和生成,Ontology則主攻“上下文”。

這個(gè)“上下文”有多重要呢?就像在現(xiàn)實(shí)生活中,我們絕不允許醫(yī)生在不看任何病歷資料的情況下就匆忙開藥,就算是華佗在世也不行。

想要AI 生成準(zhǔn)確的結(jié)果,就要提供詳盡如“檢查報(bào)告、過往病史和家族病史”的上下文。否則,再強(qiáng)的AI 在手,也只能空嘆“庸醫(yī)誤人”。

5、

所以,Ontology 是如何解決「大模型們?nèi)狈τ行舷挛摹箚栴}的呢?

太技術(shù)的內(nèi)容,先不做展開。我就拿自己比較熟悉的影視行業(yè),舉個(gè)例子吧:

【before】

在沒有 Ontology 之前,創(chuàng)作素材和各方意見散落各處,形成 “信息孤島”,導(dǎo)致溝通成本極高。

據(jù)一位非常資深的行業(yè)專家估計(jì),行業(yè)里70%以上時(shí)間,都耗費(fèi)在信息溝通上。

很多時(shí)候,由于缺失太多必要的背景信息,最強(qiáng)的AI 也無法提供足夠有針對(duì)性的幫助。

【after】

而引入Ontology后,可整合項(xiàng)目各種數(shù)據(jù),動(dòng)態(tài)鏈接關(guān)聯(lián),形成 “智能故事大綱”。

這時(shí),AI就像是一位對(duì)項(xiàng)目了如指掌的老編劇,無需反復(fù)解釋背景,一句話便可切中要害。

因?yàn)?,在它面前,角色性格、人物關(guān)系、劇情走向等關(guān)鍵信息都爛熟于心,給“一個(gè)眼神”就能指哪兒打哪兒。

更重要的是,這份"智能故事大綱"就像一張實(shí)時(shí)共享的創(chuàng)作地圖。

過去,大家找劇本最新版本可能要翻郵件,理解人物關(guān)系可能要翻會(huì)議記錄,琢磨角色性格可能要翻討論記錄,很容易陷入信息的迷宮里兜圈子。

現(xiàn)如今,有了這張統(tǒng)一的地圖,所有參與方都能一目了然地看到項(xiàng)目全貌,把更多原先用在找資料、對(duì)進(jìn)度上的時(shí)間,投入到打磨內(nèi)容上。

6、

可見,Ontology的價(jià)值,不止是“模型越強(qiáng)我越強(qiáng)”的保障,更是連接AI與業(yè)務(wù)的橋梁。

有了這座橋,AI才能真正讀懂企業(yè)的業(yè)務(wù)場(chǎng)景,訪問到關(guān)鍵信息,進(jìn)而提供真正有價(jià)值的輸出。

當(dāng)然,要搭建這個(gè)橋梁,不僅是技術(shù)工程,更是組織工程。比如,AI團(tuán)隊(duì)必須從獨(dú)立的技術(shù)孤島,進(jìn)化成連接各業(yè)務(wù)部門的紐帶。

只有讓AI專家真正理解業(yè)務(wù)痛點(diǎn),讓業(yè)務(wù)人員切實(shí)參與AI應(yīng)用設(shè)計(jì),才能確保AI項(xiàng)目既有技術(shù)可行性,又有業(yè)務(wù)價(jià)值。

跟業(yè)務(wù)方和行業(yè)專家協(xié)同方面,我在過去兩年有比較多的經(jīng)驗(yàn)和教訓(xùn),感興趣可以加我微信(yangchangpku)交流。

三、4 個(gè)重大有利信號(hào)

1、大模型支持context支持的拐點(diǎn),已經(jīng)到來

在年前那篇熱議的訪談中,MiniMax老板簡單梳理過大模型公司context的最新進(jìn)展。

他提到,之所以在去年年中說沒人做出成功的 Agent 應(yīng)用,是由于當(dāng)時(shí)大模型能力還不夠強(qiáng)。

現(xiàn)如今,他們家新發(fā)布的MiniMax-01,已經(jīng)在博客中宣告 “開啟 Agent 時(shí)代”了。

究其原因,是因?yàn)樵诩軜?gòu)層面,MiniMax-01已經(jīng)可以高效、快速地處理400萬token的 context。

如此一來,對(duì)于單個(gè)Agent(比如O1,可以單次輸出多步),就可以記住非常多的內(nèi)容,進(jìn)一步提高交互質(zhì)量;

對(duì)于多個(gè)Agent,可以像Claude 的MCP(Model Context Protocol,模型上下文協(xié)議)那樣,更好支持Agent 間巨長的通訊量,進(jìn)而提升多 Agent 之間的通訊能力。[4]

2、DeepSeek的R1-Zero模型,或?qū)砀餍懈鳂I(yè)的“李世石時(shí)刻”

公眾號(hào)“波斯兔子”[5]說,Deepseek R1可能找到了超越人類的辦法。

具體來說,DeepSeek的研究者基于 V3 模型,在數(shù)學(xué)和代碼這兩類包含思維鏈的數(shù)據(jù)上進(jìn)行了強(qiáng)化學(xué)習(xí)(RL)訓(xùn)練,他們創(chuàng)造了一種名為 GRPO(Group Relative Policy Optimization)的強(qiáng)化學(xué)習(xí)算法,最終得到的 R1-Zero 模型,在各項(xiàng)推理指標(biāo)上相比 DeepSeek V3 顯著提升,證明僅通過 RL 就能激發(fā)模型的推理能力。

該公眾號(hào)認(rèn)為,這是另一個(gè) AlphaZero 時(shí)刻,在 R1-Zero 的訓(xùn)練過程,完全不依賴人類的智商、經(jīng)驗(yàn)和偏好,僅靠 RL 去學(xué)習(xí)那些客觀、可測(cè)量的人類真理,最終讓推理能力遠(yuǎn)強(qiáng)于所有非 Reasoning 模型。

總而言之,DeepSeek R1-Zero展示了,如何使用幾乎不使用人類反饋來提升模型性能的方法,這是它的 AlphaZero 時(shí)刻。很多人曾說“人工智能,有多少人工就有多少智能”,這個(gè)觀點(diǎn)可能不再正確了。

就這兩天,DeepSeek研究員Daya Guo也在Twitter 上爆料:R1訓(xùn)練僅用兩到三周,春節(jié)期間觀察到R1 zero模型性能曲線的 “持續(xù)增長”,而且預(yù)計(jì)不會(huì)快速到達(dá)瓶頸,今年就能看到顯著的進(jìn)展。

在回答網(wǎng)友問題的過程中,Daya Guo提到,研究人員使用 RL prompt 未覆蓋的領(lǐng)域的基準(zhǔn)來評(píng)估泛化能力,目前來看,R1似乎具備泛化能力。[6]

以上種種說明,隨著R1 的快速發(fā)展,我們將在自己所在的行業(yè)里看到,在沒有行業(yè)專家“教”的情況下,行業(yè)的推理模型將超過頭部專家的能力,而且勝任更多我們想得到和想不到的任務(wù)

3、Coding Agent 領(lǐng)域的突破,將直接帶動(dòng)“上下文”框架的發(fā)展

錦秋在硅谷組織的Scale With AI活動(dòng)[7]中,有兩三百的硅谷頭部AI研究員、創(chuàng)業(yè)者和投資人參會(huì),會(huì)上聊到了些Coding Agent的核心挑戰(zhàn)與改進(jìn),他們都認(rèn)為需要進(jìn)一步發(fā)展的關(guān)鍵領(lǐng)域包括:

①事件建模 

②記憶和世界建模 

③準(zhǔn)確規(guī)劃未來 

④提高上下文利用率

我簡單搜了一下,發(fā)現(xiàn)這四大關(guān)鍵領(lǐng)域,都與上下文(context)存在緊密關(guān)聯(lián):

①事件建模的核心,是通過業(yè)務(wù)流程中的事件驅(qū)動(dòng)機(jī)制來構(gòu)建領(lǐng)域模型。事件之間的因果關(guān)系,需要依賴上下文來界定限界范圍(Bounded Context)。

②記憶機(jī)制通過分層管理上下文信息實(shí)現(xiàn)長期推理能力:工作記憶依賴Transformer的注意力機(jī)制,作為短期記憶處理即時(shí)上下文;長期記憶通過外部知識(shí)庫或神經(jīng)記憶模塊存儲(chǔ)結(jié)構(gòu)化上下文;世界模型(如R2I)結(jié)合狀態(tài)空間模型(SSM),利用上下文歷史預(yù)測(cè)未來狀態(tài),解決時(shí)間跨度長的任務(wù)。

③規(guī)劃需基于上下文動(dòng)態(tài)調(diào)整策略:短期規(guī)劃通過ReAct 等框架結(jié)合即時(shí)上下文和工具調(diào)用,長期規(guī)劃依賴上下文摘要和外部知識(shí)(如用戶目標(biāo)、環(huán)境狀態(tài))制定多步策略

④長上下文(超過 10,000 個(gè)tokens上下文的利用率會(huì)顯著下降),增強(qiáng)對(duì)擴(kuò)展記憶長度(例如 100,000 個(gè)tokens或更多)的推理能力,正在進(jìn)行的研究旨在提高更長上下文的記憶和推理能力。前文中提到的MiniMax-01,就是其中關(guān)鍵突破之一。

等這些技術(shù)突破到Coding Agent 可以處理全公司代碼的時(shí)候,這些代碼不僅可以作為實(shí)時(shí)更新的公司級(jí)別的Ontology,讓老板可以隨時(shí)用自己能懂的方式去了解所有線上業(yè)務(wù)的進(jìn)展,甚至可以牽一發(fā)而動(dòng)全身地實(shí)現(xiàn)更多業(yè)務(wù)的自動(dòng)化。

4、哪怕暫時(shí)用不上前三項(xiàng)技術(shù),現(xiàn)在也有可快速落地的技術(shù)方案

最簡單的是提示詞,余一老師曾多次分享,她可以通過1500字的提示詞,模擬出一個(gè)AI 版本的真人[8]

我基于她的方法,也做過一個(gè)“AI版本的楊昌”,效果非常驚艷。個(gè)人一些重大決策,已經(jīng)開始邀請(qǐng)?jiān)揂I來參謀了。

通過定期更新的項(xiàng)目背景提示詞,我們就可以搭建一個(gè)極簡版的Ontology。

如果嫌提示詞不方便更新和協(xié)作,也可以換成項(xiàng)目知識(shí)庫,再通過比較成熟的RAG(檢索增強(qiáng)生成)去處理。

其實(shí),Cursor等主流AI編程工具,都普遍集成了RAG技術(shù),并將代碼庫作為核心知識(shí)源。它們通過語義檢索與生成模型的結(jié)

對(duì)啦,如果方便的話,請(qǐng)告訴我你的公司-職位信息;如果你的朋友圈不可見,我就先不邀請(qǐng)了。

向上滑動(dòng),閱覽出處鏈接/參考文獻(xiàn)

[1]https://mp.weixin.qq.com/s/7Kt8XWx7g5pPxtRCIWydyw

[2]https://mp.weixin.qq.com/s/jlOvlC7Sp_-Xyz8PSBM1bA

[3]https://mp.weixin.qq.com/s/gtLstuLlUA6v0-hqL0t2xw

[4]https://mp.weixin.qq.com/s/VBnm3KCsYd4fuXcBpDgiaA

[5]https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ

[6]https://mp.weixin.qq.com/s/3czfUcGt6mJAOOBxUTYvfQ

[7]https://mp.weixin.qq.com/s/dY3Qnw7xj1aQwjBstUkrYw

[8]https://www.xiaoyuzhoufm.com/episode/6753337517cd5416ad158fd7

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 界首市| 环江| 自治县| 阜康市| 中牟县| 中方县| 公安县| 郸城县| 从江县| 晋宁县| 珲春市| 永兴县| 孟津县| 吉木萨尔县| 广西| 合江县| 永福县| 屏边| 璧山县| 旌德县| 壤塘县| 平顶山市| 疏勒县| 弥渡县| 漯河市| 张家界市| 秦皇岛市| 翼城县| 台中县| 特克斯县| 伊金霍洛旗| 莱芜市| 阿拉善左旗| 旬邑县| 临泉县| 原平市| 黄石市| 绵阳市| 乌拉特中旗| 临江市| 福鼎市|