精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
六位一線AI工程師總結(jié)爆火!大模型應(yīng)用摸爬滾打一年心得公開(kāi),網(wǎng)友:全程高能
夢(mèng)晨 西風(fēng) 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI

線AI工程師和創(chuàng)業(yè)者,把在大模型應(yīng)用開(kāi)發(fā)上摸爬滾打一整年的心得,全!分!享!了!

(奇怪的六一兒童節(jié)大禮包出現(xiàn)了)

這篇干貨長(zhǎng)文,一時(shí)間成為開(kāi)發(fā)者社區(qū)熱議的話題。

有網(wǎng)友評(píng)價(jià)為,大模型領(lǐng)域少有的“有操作性”的實(shí)用見(jiàn)解,非常值得一讀。

這6位作者來(lái)自不同背景,比如有大廠工程師,也有獨(dú)立開(kāi)發(fā)者,還有咨詢顧問(wèn)。

但他們的共同之處,是過(guò)去一年里一直在大模型之上構(gòu)建真實(shí)應(yīng)用程序,而不只是炫酷的Demo演示,他們認(rèn)為:

現(xiàn)在正是非機(jī)器學(xué)習(xí)工程師或科學(xué)家,也能把AI構(gòu)建到產(chǎn)品中的時(shí)候。

在他們的一系列分享中,網(wǎng)友熱議的亮點(diǎn)包括但不限于:

-何時(shí)用長(zhǎng)上下文、何時(shí)RAG、何時(shí)微調(diào)模型

  • 多樣化輸出不止提高溫度,改變提示詞中示例的順序也影響結(jié)果

  • 長(zhǎng)上下文不會(huì)讓RAG過(guò)時(shí)

  • “實(shí)習(xí)生測(cè)試”:如果大學(xué)生能根據(jù)提示詞完成任務(wù),說(shuō)明比較完善了

  • 每個(gè)大模型都有自己的偏好,Claude更喜歡XML格式,GPT系列更喜歡Markdown和JSON

  • 如果靠提示詞已完成了90%的任務(wù),微調(diào)可能就不值得投資

  • 大模型當(dāng)裁判評(píng)估結(jié)果可能起作用,但不是萬(wàn)能的
    ……

總之,無(wú)論是大廠工程師、創(chuàng)業(yè)者還是參加個(gè)人開(kāi)發(fā)者,都值得一看。

全程高能干貨分享

提示詞、RAG和微調(diào)都是改善大模型輸出結(jié)果的有效方法。

但是何時(shí)該用何種方法,還沒(méi)有定論。

作者們認(rèn)為,需要根據(jù)具體的應(yīng)用場(chǎng)景、任務(wù)需求、成本效益和性能目標(biāo)來(lái)做出決策:

  • 建議在開(kāi)發(fā)新應(yīng)用程序時(shí)從提示詞開(kāi)始

  • 需要大模型掌握新知識(shí)時(shí)優(yōu)先使用RAG

  • 當(dāng)需要針對(duì)特定任務(wù)優(yōu)化時(shí)再考慮微調(diào)

最后,他們還重點(diǎn)討論了對(duì)大模型應(yīng)用的評(píng)估和監(jiān)測(cè),認(rèn)為是應(yīng)該貫穿開(kāi)發(fā)全流程的重要環(huán)節(jié)。

提示詞篇

很多開(kāi)發(fā)者都陷入了一個(gè)誤區(qū):以為設(shè)計(jì)一個(gè)涵蓋一切的“終極提示詞”就能完美解決問(wèn)題。

就像過(guò)去軟件開(kāi)發(fā)中也有希望一個(gè)類或函數(shù)可以完成所有事情的誤區(qū)。

實(shí)際情況恰恰相反,隨著需求的復(fù)雜化,這樣的Prompt會(huì)越來(lái)越臃腫,性能反而每況愈下。

那么正確的做法是什么呢?提示詞也應(yīng)該像代碼一樣保持簡(jiǎn)潔,以會(huì)議記錄總結(jié)場(chǎng)景來(lái)說(shuō),可以分解為以下步驟:

  • 將關(guān)鍵決策、待辦事項(xiàng)和執(zhí)行者提取為結(jié)構(gòu)化格式

  • 檢查提取的詳細(xì)信息與原始會(huì)議記錄的一致性

  • 從結(jié)構(gòu)化詳情生成簡(jiǎn)明摘要

通過(guò)拆分,每個(gè)提示詞都簡(jiǎn)單、突出重點(diǎn)且易于理解,更重要的是接下來(lái)可以單獨(dú)迭代和評(píng)估每個(gè)提示詞。

比如思維鏈鼓勵(lì)A(yù)I在最終回答之前寫(xiě)下思維過(guò)程,除了“一步一步思考”之外,還可以用一些技巧顯著降低幻覺(jué)。

還以會(huì)議記錄總結(jié)場(chǎng)景為例,迭代后的提示詞示例為:

- 首先,在草稿中列出關(guān)鍵決策、待辦事項(xiàng)和相關(guān)執(zhí)行者。
- 然后,檢查草稿中的細(xì)節(jié)是否與文字記錄相符。
- 最后,根據(jù)要點(diǎn)合成簡(jiǎn)潔的總結(jié)。

在提示詞方面,作者們還提出了更多具體經(jīng)驗(yàn)。

對(duì)于給大模型提供示例的上下文學(xué)習(xí):

  • 提示詞中的示例數(shù)量追求≥5(也不要害怕用上幾十個(gè))。太少會(huì)讓模型過(guò)度遵循特定示例、損害泛化能力。

  • 示例應(yīng)該反映預(yù)期的輸入分布。比如做電影劇情總結(jié),示例中不同類型電影的比例大致應(yīng)與實(shí)踐中期望看到的相同。

  • 不一定需要提供完整的輸入-輸出對(duì)。在許多情況下,只有輸出的示例就足夠了。

  • 如果所用的大模型支持工具調(diào)用,則示例也應(yīng)包含希望AI使用的工具

對(duì)于結(jié)構(gòu)化輸入輸出:

  • 優(yōu)化上下文結(jié)構(gòu),讓模型更容易理解和處理。單純打包一堆文件人類看著頭疼,AI看著也費(fèi)勁。

  • 只保留必要信息,像雕刻藝術(shù)家一樣剔除冗余、自相矛盾和格式化錯(cuò)誤

  • 每個(gè)大模型都有自己的偏好,Claude更喜歡xml格式GPT系列更喜歡Markdown和JSON

比如給Claude的提示詞,甚至可以用xml tag來(lái)預(yù)填充輸出模板。

RAG(檢索增強(qiáng)生成)篇

不要忘記關(guān)鍵詞搜索

基于Embedding的RAG演示很多,讓人們?nèi)菀淄浶畔z索領(lǐng)域數(shù)十年來(lái)積累的經(jīng)驗(yàn)。

作者認(rèn)為向量檢索無(wú)疑是強(qiáng)大的工具,但不是全部。雖然擅長(zhǎng)捕獲高級(jí)語(yǔ)義相似性,但它們可能難以處理更具體的關(guān)鍵字,比如人名、首字母縮略詞或者ID。

不要忘記傳統(tǒng)的關(guān)鍵詞匹配(如BM25算法),在大多數(shù)情況下,混合關(guān)鍵字匹配和向量搜索效果最好:

先匹配最明顯的關(guān)鍵詞,再對(duì)同義詞、上位概念和拼寫(xiě)錯(cuò)誤做向量查詢,以及多模態(tài)向量查詢。

RAG輸出的質(zhì)量取決于檢索文檔的質(zhì)量

具體來(lái)說(shuō),檢索文檔的質(zhì)量又取決于幾個(gè)因素。

第一個(gè)也是最明顯的指標(biāo)是相關(guān)性。與傳統(tǒng)推薦系統(tǒng)一樣,檢索到的項(xiàng)目的排名對(duì)大模型輸出產(chǎn)生重大影響,要衡量這種影響,可以試試打亂順序并觀察大模型行為變化。

第二個(gè)是信息密度。如果兩份文檔同樣相關(guān),應(yīng)該選擇更簡(jiǎn)潔、無(wú)關(guān)細(xì)節(jié)更少的那個(gè)。

最后是信息的詳細(xì)程度,附加的詳細(xì)信息可以幫助大模型更好地理解。

優(yōu)先RAG,而不是對(duì)新知識(shí)微調(diào)

RAG和微調(diào)都可讓大模型掌握新知識(shí)并提高特定任務(wù)的性能。那么,應(yīng)該優(yōu)先選擇哪一個(gè)呢?

微軟一篇論文比較RAG與無(wú)監(jiān)督微調(diào)(又叫持續(xù)預(yù)訓(xùn)練),發(fā)現(xiàn)對(duì)于新知識(shí)RAG性能始終優(yōu)于微調(diào)

arxiv.org/abs/2312.05934

除了改進(jìn)性能之外,RAG容易更新而且成本更低。如果知識(shí)庫(kù)中發(fā)現(xiàn)錯(cuò)誤,RAG方法只需簡(jiǎn)單刪除有問(wèn)題的文檔即可。

RAG還可以給文檔權(quán)限提供更細(xì)粒度的控制,確保每個(gè)用戶只能訪問(wèn)自己有權(quán)限的文檔,不會(huì)泄露信息。

長(zhǎng)上下文不會(huì)讓RAG過(guò)時(shí)

首先,即使上下文窗口達(dá)到一千萬(wàn)tokens,仍然需要一種方法來(lái)選擇要輸入模型的信息。

其次,除了簡(jiǎn)單大海撈針評(píng)估之外,還沒(méi)有看到令人信服的數(shù)據(jù)表明模型可以在如此大的上下文進(jìn)行有效的推理。

如果沒(méi)有良好的檢索和排名,干擾因素可能淹沒(méi)模型,甚至可能用完全不相關(guān)的信息填滿了上下文窗口。

最后還有成本問(wèn)題,ransformer的推理成本隨上下文長(zhǎng)度二次增長(zhǎng),過(guò)度依賴長(zhǎng)上下文可能不劃算。

微調(diào)篇

當(dāng)最巧妙的提示詞設(shè)計(jì)也無(wú)法完成一些任務(wù)時(shí),可能就需要考慮微調(diào)了

雖然微調(diào)可能是有效的,但它會(huì)帶來(lái)巨大的成本。必須注釋微調(diào)數(shù)據(jù)、執(zhí)行微調(diào)和評(píng)估模型,并最終自行部署模型。因此,請(qǐng)考慮較高的前期成本是否值得。

作者們的經(jīng)驗(yàn)是:

  • 如果提示詞已完成了90%的任務(wù),那么微調(diào)可能不值得投資。

  • 如果確定要微調(diào),可以考慮合成數(shù)據(jù)或開(kāi)源數(shù)據(jù)集,降低人工收集注釋數(shù)據(jù)的成本。

Agent與工作流

最成功的Agent開(kāi)發(fā)者可能也是工程師團(tuán)隊(duì)的管理者,因?yàn)?span>給AI制定計(jì)劃的過(guò)程和管理初級(jí)員工的方式類似

我們給人類新手明確的目標(biāo)和具體的計(jì)劃,而不是模糊的開(kāi)放式指示,對(duì)Agent也應(yīng)該這樣做。

優(yōu)先考慮確定性工作流程

Agent被期待動(dòng)態(tài)對(duì)用戶請(qǐng)求做反應(yīng),但隨著執(zhí)行步數(shù)增加,失敗的可能性指數(shù)增加,并且從錯(cuò)誤中恢復(fù)的機(jī)會(huì)很小。

一種有前途的方法是使用Agent系統(tǒng)來(lái)生成確定性計(jì)劃,然后以結(jié)構(gòu)化、可重復(fù)的方式執(zhí)行這些計(jì)劃,好處包括:

  • 生成的計(jì)劃可以作為提示詞中的少數(shù)樣本,或微調(diào)數(shù)據(jù)。

  • 使系統(tǒng)更加容易測(cè)試和調(diào)試,失敗可以追溯到計(jì)劃中的具體步驟。

  • 生成的計(jì)劃可以表示為有向無(wú)環(huán)圖 (DAG),相對(duì)于靜態(tài)提示詞,它更容易理解和適應(yīng)新情況。

多樣化輸出不止提高溫度

如果任務(wù)需要輸出的多樣性,比如根據(jù)用戶之前購(gòu)買過(guò)的產(chǎn)品推薦新產(chǎn)品,簡(jiǎn)單增加大模型的溫度參數(shù)可能會(huì)產(chǎn)生問(wèn)題。

如果溫度太高,可能會(huì)生成不存在的產(chǎn)品,甚至輸出亂碼。

其他增加輸出多樣性的方法包括:

最簡(jiǎn)單的是調(diào)整提示詞內(nèi)的元素順序,打亂用戶歷史購(gòu)買記錄的順序,就可能產(chǎn)生顯著差異。

還可以在上下文中保留前幾輪的輸出,并要求大模型避免重復(fù)最近推薦過(guò)的產(chǎn)品。

另一個(gè)策略是改變提示詞的措辭,比如“選擇用戶喜歡經(jīng)常使用的產(chǎn)品”和“選擇用戶可能會(huì)推薦給朋友的產(chǎn)品”。

評(píng)估與監(jiān)測(cè)

大模型的輸入和輸出是任意文本,要完成的任務(wù)是多種多樣的。盡管如此,嚴(yán)格且深思熟慮的評(píng)估仍至關(guān)重要。

從真實(shí)的輸入/輸出樣本中創(chuàng)建基于斷言的單元測(cè)試

作者建議創(chuàng)建由生產(chǎn)中的輸入和輸出樣本組成的單元測(cè)試,并基于至少3個(gè)指標(biāo)測(cè)試。

3個(gè)指標(biāo)是實(shí)踐中總結(jié)出來(lái)的,更少可能表明任務(wù)沒(méi)有充分定義,或過(guò)于開(kāi)放。

這些單元測(cè)試應(yīng)該由工作流的任何更改觸發(fā),無(wú)論是編輯提示詞、通過(guò)RAG添加新上下文還是其他修改。

大模型當(dāng)裁判可能起作用,但不是萬(wàn)能的

作者認(rèn)為,讓最強(qiáng)大的模型當(dāng)裁判、給其他模型的輸出打分,用于定性比較優(yōu)劣可能有用,但具體輸贏的幅度就沒(méi)什么參考價(jià)值了

  • 不要讓大模型在量表上對(duì)單個(gè)輸出進(jìn)行評(píng)分,而是提供兩個(gè)選項(xiàng),要求選擇更好的一個(gè),這往往會(huì)帶來(lái)更穩(wěn)定的結(jié)果。

  • 提供的選項(xiàng)順序可能會(huì)影響結(jié)果,為了緩解這種情況,請(qǐng)將每個(gè)成對(duì)比較進(jìn)行兩次,每次交換順序

  • 在某些情況下,兩種選擇可能同樣好。因此允許大模型宣布平局,這樣就不會(huì)武斷地選一個(gè)勝者。

  • 使用思維鏈:要求大模型在給出最終偏好之前解釋其決定,可以提高評(píng)估的可靠性,還可以讓更小的模型獲得與大模型類似的結(jié)果。
    (這部分流程通常處于并行批處理模式,思維鏈帶來(lái)的額外延遲并不造成問(wèn)題。)

  • 大模型往往偏向于較長(zhǎng)的回答,為減少這種情況,請(qǐng)確保成對(duì)的回答長(zhǎng)度相似。

“實(shí)習(xí)生測(cè)試”

如果將提示詞(包括上下文)作為一項(xiàng)任務(wù),交給相關(guān)專業(yè)的普通大學(xué)生,他們能成功嗎?需要多長(zhǎng)時(shí)間?

如果大學(xué)生都做不到,就該考慮如何給大模型提供更豐富的上下文資料了。

如果根本無(wú)法通過(guò)改進(jìn)上下文來(lái)解決這個(gè)問(wèn)題,那么這就是對(duì)當(dāng)代大模型來(lái)說(shuō)太難的任務(wù)。

如果大學(xué)生能做到,但需要一段時(shí)間。可以嘗試降低任務(wù)的復(fù)雜性。分解任務(wù),或某些方面是否可以更加模板化。

如果大學(xué)生能做到,而且很快,但大模型不行。那么就該深入研究大模型反饋的數(shù)據(jù)了。嘗試找到失敗的模式,讓模型在輸出之前或之后解釋自己。

過(guò)分強(qiáng)調(diào)某些指標(biāo)可能影響整體

著名的古德哈特定律表示,“當(dāng)一項(xiàng)指標(biāo)成為目標(biāo)時(shí),它就不再是一項(xiàng)好指標(biāo)”

比如針對(duì)長(zhǎng)上下文的“大海撈針”測(cè)試最早是網(wǎng)友提出的,迅速成為行業(yè)通用方法之后,就很容易針對(duì)性優(yōu)化、刷榜

更好的指標(biāo)可能正是復(fù)雜的實(shí)際任務(wù),比如“給定一個(gè)小時(shí)的會(huì)議記錄,大模型能否總結(jié)出關(guān)鍵決策、待辦事項(xiàng)和相關(guān)負(fù)責(zé)人”。

這項(xiàng)任務(wù)更切合實(shí)際,超越了死記硬背的范疇,還考慮到了解析復(fù)雜討論、識(shí)別相關(guān)信息和歸納總結(jié)的能力。

在總結(jié)中強(qiáng)調(diào)事實(shí)一致性可能會(huì)導(dǎo)致摘要不那么具體(因此不太可能與事實(shí)不一致),也可能不那么相關(guān)。

反之,如果強(qiáng)調(diào)寫(xiě)作風(fēng)格和口才,則可能導(dǎo)致更多花哨的話術(shù),從而造成與事實(shí)不符的情況。

LLMs甚至?xí)诓粦?yīng)該返回輸出時(shí)返回輸出

大模型經(jīng)常會(huì)在不應(yīng)該生成輸出的情況下生成輸出。可能是無(wú)害但無(wú)意義的輸出,也可能是更嚴(yán)重有害輸出。

例如,當(dāng)被要求從文檔中提取特定屬性或元數(shù)據(jù)時(shí),大模型可能會(huì)自信地返回不存在的結(jié)果。可以嘗試讓大模型回答“不適用”或“不知道”,但也并非萬(wàn)無(wú)一失。

雖然謹(jǐn)慎的提示工程可以在一定程度上起作用,但還應(yīng)輔之以強(qiáng)大的“護(hù)欄”機(jī)制,以檢測(cè)和過(guò)濾/重新生成不受歡迎的輸出。

例如,OpenAI提供了一個(gè)內(nèi)容過(guò)濾API,可識(shí)別不安全的響應(yīng),如仇恨言論、自殘或性內(nèi)容。同樣,還有許多用于檢測(cè)個(gè)人身份信息 (PII) 的軟件包。這樣做的好處之一是,”護(hù)欄”在很大程度上與場(chǎng)景無(wú)關(guān),因此可廣泛應(yīng)用于特定語(yǔ)言的所有輸出。

此外,通過(guò)精確檢索,如果沒(méi)有相關(guān)文檔,系統(tǒng)也可以確定地回答 “我不知道”。

在實(shí)際應(yīng)用中,最好持續(xù)記錄輸入和輸出,以便進(jìn)行調(diào)試和監(jiān)控。

幻覺(jué)很難徹底解決

與安全問(wèn)題不同,幻覺(jué)可能很難被發(fā)現(xiàn)

根據(jù)作者們從大模型供應(yīng)商那里了解到的情況,要將幻覺(jué)率降低到2%以下是非常困難的,即使是在摘要等簡(jiǎn)單任務(wù)中也是如此。

為了解決這個(gè)問(wèn)題,可以將提示工程(生成的上游)和事實(shí)不一致護(hù)欄(生成的下游)結(jié)合起來(lái)。

對(duì)于提示詞工程,思維鏈等技術(shù)可以讓大模型在最終返回輸出之前解釋其推理,從而幫助減少幻覺(jué)。然后,可以應(yīng)用事實(shí)不一致護(hù)欄來(lái)評(píng)估摘要的事實(shí)性,并過(guò)濾或重新生成。

技術(shù)篇結(jié)束,還有運(yùn)營(yíng)、戰(zhàn)略篇

對(duì)于這篇精彩的實(shí)戰(zhàn)經(jīng)驗(yàn)分享,沃頓商學(xué)院教授Ethan Molick推薦并感慨:

這篇文章顯示了從傳統(tǒng)軟件角度來(lái)看,使用大模型是多么奇怪,以及人們還有多少東西需要學(xué)習(xí)。

事實(shí)上這只是六位作者完整分享的三分之一:戰(zhàn)術(shù)篇。

第二部分運(yùn)營(yíng)篇也剛剛發(fā)布,圍繞數(shù)據(jù)、模型、產(chǎn)品、團(tuán)隊(duì)發(fā)展四個(gè)話題展開(kāi)分享。

接下來(lái)還有最后一部分戰(zhàn)略篇,也是狠狠期待了。

最后,不妨再來(lái)認(rèn)識(shí)一下六位作者。

Eugene Yan

他目前是亞馬遜高級(jí)應(yīng)用科學(xué)家,負(fù)責(zé)構(gòu)建服務(wù)全球數(shù)百萬(wàn)客戶的推薦系統(tǒng),并應(yīng)用大語(yǔ)言模型來(lái)更好地服務(wù)客戶。

此前,他曾在Lazada(被阿里巴巴收購(gòu))和一家健康科技初創(chuàng)公司領(lǐng)導(dǎo)機(jī)器學(xué)習(xí)團(tuán)隊(duì)。他在eugeneyan.com和ApplyingML.com上撰寫(xiě)并發(fā)表關(guān)于機(jī)器學(xué)習(xí)、推薦系統(tǒng)、大語(yǔ)言模型及工程方面的文章和演講。

Bryan Bischof

Bryan Bischof是Hex的AI負(fù)責(zé)人,領(lǐng)導(dǎo)工程師團(tuán)隊(duì)開(kāi)發(fā)了Magic——數(shù)據(jù)科學(xué)和分析助手。

他在數(shù)據(jù)領(lǐng)域有豐富的工作經(jīng)驗(yàn),曾創(chuàng)建了Blue Bottle Coffee、Weights and Biases的數(shù)據(jù)團(tuán)隊(duì),領(lǐng)導(dǎo)了Stitch Fix的多個(gè)項(xiàng)目,還曾與O’Reilly合寫(xiě)了“Building Production Recommendation Systems”一書(shū),并在羅格斯大學(xué)教授數(shù)據(jù)科學(xué)和分析課程。他擁有純數(shù)學(xué)博士學(xué)位。

Charles Frye

Charles Frye在加州伯克利獲得了神經(jīng)網(wǎng)絡(luò)優(yōu)化方面的博士學(xué)位。

他通過(guò)在Weights and Biases、Full Stack Deep Learning和Modal的教育和咨詢工作,教授了數(shù)千人從線性代數(shù)基礎(chǔ)到GPU奧秘以及構(gòu)建可行商業(yè)模式的整個(gè)AI應(yīng)用開(kāi)發(fā)過(guò)程。

Hamel Husain

Hamel Husain是一位擁有超過(guò)25年經(jīng)驗(yàn)的機(jī)器學(xué)習(xí)工程師。

他曾就職于Airbnb和GitHub等,參與了OpenAI用于代碼理解的早期大語(yǔ)言模型研究,還領(lǐng)導(dǎo)許多受歡迎的開(kāi)源機(jī)器學(xué)習(xí)工具。Hamel目前是一名幫助公司將LLM投入運(yùn)營(yíng)加速其AI產(chǎn)品開(kāi)發(fā)的獨(dú)立顧問(wèn)。

Jason Liu

Jason Liu是一位知名的機(jī)器學(xué)習(xí)顧問(wèn),在個(gè)性化算法、搜索優(yōu)化、合成數(shù)據(jù)生成和MLOps系統(tǒng)方面擁有技術(shù)專長(zhǎng)。

他曾在Stitchfix創(chuàng)建了一個(gè)處理每日3.5億次請(qǐng)求的推薦框架和可觀測(cè)性工具,還曾在Meta、紐約大學(xué)以及Limitless AI和Trunk Tools等初創(chuàng)公司擔(dān)任重要角色。

Shreya Shankar

Shreya Shankar是加州伯克利計(jì)算機(jī)科學(xué)博士生和機(jī)器學(xué)習(xí)工程師。

她曾是兩家初創(chuàng)公司的首席機(jī)器學(xué)習(xí)工程師,從零開(kāi)始構(gòu)建AI產(chǎn)品。她的工作重點(diǎn)是通過(guò)以人為中心的方法解決生產(chǎn)級(jí)機(jī)器學(xué)習(xí)系統(tǒng)中的數(shù)據(jù)挑戰(zhàn),研究成果發(fā)表在VLDB、SIGMOD、CIDR和CSCW等頂級(jí)數(shù)據(jù)管理和人機(jī)交互會(huì)議上。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
普通人也能當(dāng)“作詞家”:快速掌握ChatGPT提示詞技巧
一篇文章讓你成為prompt專家
軟件工程十大技術(shù)之一:AI輔助編碼技術(shù)
純干貨全面解讀AI框架RAG
百萬(wàn)token上下文窗口也殺不死向量數(shù)據(jù)庫(kù)?CPU笑了
模型上下文長(zhǎng)度越來(lái)越長(zhǎng),RAG會(huì)被取代嗎?
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 顺义区| 莱芜市| 星子县| 黄大仙区| 浠水县| 佳木斯市| 平凉市| 西峡县| 周口市| 财经| 邵东县| 佛教| 湘潭县| 三都| 永定县| 平和县| 交城县| 义马市| 吉林省| 普宁市| 阿克陶县| 新干县| 拉孜县| 鄱阳县| 休宁县| 信阳市| 十堰市| 梁平县| 和政县| 锦州市| 沾化县| 资源县| 五莲县| 苗栗市| 武强县| 前郭尔| 临漳县| 晋州市| 惠安县| 尉氏县| 唐河县|