當 DeepSeek-R1 在本地成功部署那一刻,興奮與激動如潮水般涌上心頭,迫不及待地開啟與它的熱烈對話,話題一個接一個,暢聊不停。出于探索的熱情,還按照自己的思路給它共享了不少知識,它也能依此精準切入,給出令人滿意的答案。可誰能想到,第二天再聊,它竟像失憶一般,昨天共享的數據全然沒了印象,一切又回到最初狀態。
在 AI 的奇妙世界里,其記憶機制別有一番特點。以 DeepSeek、GPT 為代表的大多數 AI 模型,默認無狀態,無持久化記憶。每次對話都是全新開場,不會記住上一次聊了啥。單次會話中雖能記些信息,可會話一結束,記憶就被清空。這主要是因為技術上它們基于 Transformer 架構,設計為無狀態來規避隱私和安全風險;同時,持久化記憶需大量資源,本地部署往往難以滿足,再加上隱私考量,對話歷史就不會被存儲。
如何讓我們的“投喂” 不會因為上述原因化為烏有才是我們需要關心的問題。在接下來的文章中,我將介紹如何有效地“投喂”數據給本地部署的 DeepSeek-R1,并通過實驗測試其效果。
關于如何投喂數據給本地部署的 DeepSeek-R1 請參考我之前的下面文章。
文章主題:如何投喂本地部署的 DeepSeek-R1
鏈接:
https://www.toutiao.com/article/7466724739818504744/
接下來,我想通過測試來展示,“投喂” 效果到底如何,是否可以讓 AI 擁有永恒記憶,并利用這些記憶持續為我所用。
為了測試效果,我選擇了一篇小學課文《一只小羊羔》作為示范。這篇文章講述了一個關于巴特救小羊羔的溫馨故事,情節簡單但富有教育意義。
文章內容如下:
為了測試效果,我這里使用兩個接入 DeepSeek-R1 平臺工具:ChatBox 和 Anything LLM 來展示。
ChatBox 是一款側重于提供便捷聊天交互體驗,可使用多種模型且注重隱私保護的開源桌面 AI 應用;而 Anything LLM 是一個強調靈活性和可擴展性,能將各種文檔轉為 LLM 上下文數據,支持多用戶、多模型及多種文檔類型的開源全棧 AI 應用程序。
首先,我使用 ChatBox 進行測試。在聊天框中,我將《一只小羊羔》的 PDF 文檔共享了出來:
然而,當我關閉對話并重新開啟新的對話后,發現它完全失憶了。同樣的問題再次被提出時,AI 已經沒有任何記憶。
這種情況在 Anything LLM 上未“投喂”數據之前也是同樣的結果。
重開新的聊天對話后:
接下來,我使用 Anything LLM 來為 DeepSeek-R1 “投喂”數據。這一次,我仍然選擇《一只小羊羔》的 PDF 文檔作為實驗材料。
然后我們重新開一個對話看效果:
通過 Anything LLM,借助 RAG(檢索增強生成)技術,我們發現,本地 AI 大模型終于擁有了記憶能力。這是因為 Anything LLM 運用嵌入引擎和向量數據庫,將“投喂”的數據妥善保存,并巧妙轉化為 DeepSeek-R1 易于理解和利用的格式,從而賦予了它強大的知識庫能力。
通過實驗可以發現,借助 Anything LLM 的 RAG 技術,“投喂” 數據后,AI 表現出了顯著的提升。這種技術不僅讓 AI 擁有了“記憶”,還能夠持續利用這些信息為用戶提供更精準的服務。
既然我們能實現讓 AI 擁有了“記憶”功能,那接下來就是持續收集新內容來提升其價值吧。每天源源不斷地將文本文件、PDF、網頁抓取內容等知識輸入,充實知識庫。隨著內容的持續更新,知識庫不斷完善,當被 AI 大模型提取運用,就能與用戶需求高度契合,提供更精準、更貼心的服務,最大化發揮 AI 的實用價值 。