你好,我是阮小貳。
這兩天,我查了很多資料,也看了一下之前的評論區,
雖然許多人都已經開始嘗試在使用DeepSeek,但也有很多人吐槽說很垃圾,并沒想象中那么牛。
其實問題根本不在工具,很多人的使用姿勢就搞錯了,用大炮打蚊子,白白浪費DeepSeek的強大功能。
接下來,我會用10個使用技巧教會大家如何與DeepSeek高質量對話,以及一些隱藏技巧。
學習完之后,你就會發現DeepSeek遠比你想象中的強大。
DeepSeek提供基礎模型(V3)、深度思考(R1)和聯網搜索三種模式,針對不同場景靈活選擇:
DeepSeek的V3模型堪比GPT-4o,二者的設計理念和應用場景非常相似。
V3采用了Moe架構,擁有671B的參數量,能夠在百科知識領域提供快速響應。
R1是DeepSeek的深度推理模型,和OpenAI的o1模型非常類似。
二者都在處理推理、深度思考以及復雜邏輯問題時,展現出了非凡的能力。
R1采用了660B的參數,并且在強化學習和后訓練方面表現出色。
R1更擅長邏輯推理和復雜問題的解答,在這一點上,R1已經超越了o1模型。
關于4o與o1的區別,下面有一張表,大家看完就知道該如何選用V3和R1模型了。
目前,DeepSeek的預訓練數據(你可以理解為模型已學習的知識),已經更新至2024年7月。
但對于之后的新聞或技術動態,DeepSeek的聯網搜索模式就顯得尤為重要,
它能夠根據網絡實時獲取最新信息,彌補知識庫的空白。
所以,2024年7月前的問題基本上不需要打開聯網功能。
而之后的問題(比如2025年諾貝爾獎得主是誰?春晚秧Bot),
DeepSeekZ目前并未學習,建議開啟聯網功能,效果更佳。
DeepSeek,無論是V3還是R1模型,都是不太吃提示詞的,
只需要做到【準確表達】即可。
通用提示詞模板 = 身份 + 目標
示例:
你是李白,請以李白的風格口吻寫一首七律.春節
適當情況下,也可以補充一些背景信息:
通用提示詞模板 = 身份 + 背景 + 目標
示例:
你是李白,目前正被流放夜郎,請以李白的風格口吻寫一首七律.春節
還可以是:
通用提示詞模板 = 身份 + 背景 + 目標 + 限制條件
示例:
你是李白,目前正被流放夜郎,請以李白的風格口吻寫一首七律.春節,嚴格遵循律詩的格律要求,包括平仄、押韻和對仗。其中,頷聯(第三、四句)和頸聯(第五、六句)必須對仗工整,詞性相對、結構相似,平仄相對。
不管哪個模板,其核心都是【準確表達】。
能夠做到準確表達,說人話,就已經完全夠用了。
所以,過去你們學的那些結構化提示詞,從現在起,就可以大膽地丟掉了。
最好的提示詞,就是沒有提示詞,說人話就可以,
在會動腦子的deepseek面前,不用玩心思,真誠才是必殺技。
越是直白、俗氣,就越能激發它的潛能。
示例:
解釋一下什么叫通貨膨脹,說人話
過去,我們經常吐槽AI生成的東西帶有明顯的'AI味'。
其根源就在于模型過分追求結構化輸出,
習慣性地運用'首先、其次、然后、總而言之'等規范性的銜接詞,使得內容顯得過于程式化和刻板。
而作為具有強烈感性特征的生物體,人類對這種理性至上的文字形式實在難以忍受,
尤其是當文字呈現出八股文式的呆板架構或學術文體的生硬風格時,更是令人昏昏欲睡。
那么這種情況,建議你加一句提示,比如:
1、我是一名小學生 / 請用小學生能聽懂的話解釋。
2、說人話
3、用中學生都能聽懂的語言
4、非專業人士都能聽懂
提問的時候加上上述這些提示,就可以極大地去除DeepSeek 的AI味了。
示例:
請用小學生能聽懂的話解釋,什么是區塊鏈?
怎么樣?
現在是不是一下子就理解什么是區塊鏈了?
以o1為代表的推理模型,基本上都是不能聯網的。
而聯網搜索是DeepSeek的一大亮點,它讓模型在回答時不僅僅依賴預訓練數據,還能實時從網絡上檢索最新的信息。
你可以問到2024年7月以后發生的事件,或者某些新興技術領域的問題,
DeepSeek都能通過聯網搜索為你提供更準確、及時的回答。
而DeepSeek,是少有的支持推理+聯網的模型。
除了聯網搜索,DeepSeek還支持上傳附件功能,這為用戶提供了更多個性化的體驗。
通過上傳附件,你可以將自己的私密資料、知識庫、甚至是一些需要深度推理的材料直接交給DeepSeek,
讓它基于這些專有的文件進行分析和推理。
DeepSeek的推理模型,不僅能聯網,還支持上傳附件(最多不超過50個,每個不超過100MB)。
推理+上傳附件,可以做更多本地化、私密化的東西,比如你自己的知識庫或者內部資料。
讓其基于自有知識庫進行推理和思考。
示例:
閱讀這篇材料,告訴我講了些什么東西?輸出言簡意賅。
運用持續追問的技巧,能夠幫你快速搞清楚一個復雜問題,大致步驟如下:
1. 初始提問:'如何做好短視頻腳本?'
2. 細化追問:'如何在前3秒吸引觀眾?'
3. 案例擴展:'舉一個美食類賬號的開頭案例'
例如,我先問DeepSeek:“如何做好短視頻腳本?”
對于如何吸引觀眾,我還是不懂,
那么我就可以繼續追問DeepSeek“如何在前3秒吸引觀眾?”。
最后進一步的案例擴展,以便于我更好的理解。
我讓DeepSeek再列舉出一個例子“舉一個美食類賬號的開頭案例”。
對于深度思考(R1)模型,DeepSeek做到了三個重要的開放特性,
讓R1不僅僅是一個“黑盒”模型,它的思維過程、訓練技術和模型參數都是透明開放的。
R1的思維鏈是完全開放的,用戶可以看到模型進行推理時的每一步邏輯。
這不僅是一個回答,而是一個完整的思考過程。
通過這種方式,用戶能獲得最終答案,還能夠理解AI是如何得出這個結論的。
DeepSeek采用了RL(強化學習)技術,通過極少的標注數據提高了推理能力。
所有的訓練技術,包括模型的后訓練過程和數據增強方法,都是公開的。
這讓廣大網友都能深入理解模型的訓練過程,并且可以根據需要進行調整和優化。
DeepSeek還將R1的部分模型進行開源。
雖然R1模型本身的參數高達660B,僅為GPT-4o的1/6(輸入$0.25/百萬token)通常只有大公司才能使用,
但DeepSeek也為社區提供了更小的開源模型,讓更多的開發者和研究者可以使用。
最小的模型只有1.5B參數,適合個人開發者進行實驗和開發。
這格局太頂了,幫助全球的開發者共同推動AI的發展。
- 別同時開“深度思考+聯網”,易卡頓。
- 復雜問題用R1,簡單問題用V3,省時高效。
好了,以上就是本期所有啦,
希望能對你使用DeepSeek有所幫助。
當然,也歡迎大家在評論區將你的技巧分享出來,一起探討、學習、交流。
基本上能看到這里的都是人中龍鳳!
如果本文章能給你一點啟發,隨手點個贊、在看、轉發三連吧,
如果想第一時間收到推送,也可以給我個星標?
謝謝你耐心看完我的文章~
另外,我創建了一個關于DeepSeek的交流群,有興趣的可以入。