精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
使用DeepSeek必備的10個技巧
這個春節,DeepSeek太火了,無須贅言。

今天,我們直接講干貨。用10個問題帶大家了解,DeepSeek是什么,怎么用,如何與DS高質量對話,以及一些隱藏技巧。


1、巧用DS的三種模式

DeepSeek,是杭州深度求索公司研發的大模型。
其網頁版和APP版,都十分簡潔,只有一個聊天窗口,以至于其APP只有8M大小。

體驗地址:https://chat.deepseek.com

聊天界面提供了三種模式——基礎模型、深度思考(R1)聯網搜索,可根據不同場景和需求,靈活選用。
基礎模型,于去年12月升級到DeepSeek-V3版,性能比肩全球頂尖的開閉源模型(如4o、Claude-3.5-Sonnet、Qwen2.5、Llama-3.1等)。
不勾選任何功能,即默認使用V3基礎模型。大多數情況下,選擇基礎模型就完全夠用了。

深度思考(R1),是今年1月新發的DeepSeek-R1正式版(2個月前,我們測評過預覽版),效果完全不輸OpenAI o1(只有尊貴的Pro用戶才能使用,200美刀/月),因免費+開源+極低價API,讓DS在這個春節成為“國運”級模型,爆火海內外。

R1是一個愛思考的深度推理模型,主要擅長處理數理邏輯、代碼和需要深度推理的復雜問題。通常,一些寫詩、寫文章的需求,用不到這個模型。

聯網搜索,是讓DS根據網絡搜索結果來回答問題,也就是RAG(檢索增強生成),你可以把它理解為DeepSeek的AI搜索功能。

這里,給小學生解釋一下RAG。它實際就是檢索(Retrieval)、增強(Augmented)、生成(Generation)三個詞的首字母組合。用戶提問后,模型先去網上搜索相關信息,然后將這些信息與原問題進行整合,并運用大語言模型(LLM)技術生成一段通順、詞意趨近的文本,來回答用戶。

2、R1對標o1,V3對標4o

不打開深度思考,啟用的是V3模型,這是DeepSeek的基礎模型,采用Moe架構,671B參數,與GPT-4o、Claude-3.5-Sonnet類似。擅長答百科知識,回答速度超級快(當然,最近有點卡,因為用的人實在太多了,特別是歪果仁上線的時間段)
打開深度思考,啟用的則是R1模型,是類似o1、o3的推理模型,660B參數,采用的是后訓練+RL強化學習,擅長邏輯推理、復雜問題解答,回答速度較慢。

這里,給小學生解釋一下預訓練與后訓練:預訓練是讓模型先學習通用知識、百科知識;后訓練是模型基于預訓練基礎,進行一些特定任務、特定手段的額外訓練,比如微調(Fine-tuning)、知識蒸餾(Knowledge Distillation)和模型剪枝(Pruning)。


關于4o與o1的區別,我放一張表,大家就明白了,知道該如何選用V3和R1模型了。

對比表格來自@數字生命卡茲克

至于聯網功能,通常不用同時勾選深度思考和聯網搜索,不然DS的表現會不太智能。


3、知識更新至2024年7月

DeepSeek的預訓練數據(你可以理解為模型已學習的知識),更新至2024年7月。

所以,2024年7月前的問題基本上不需要打開聯網功能。而之后的問題(比如英偉達與DeepSeek二三事、春晚秧Bot),DS未學習,建議開啟聯網功能,效果更佳。


4、提示詞核心:準確表達

DeepSeek,無論是V3還是R1模型,都是不太吃提示詞的,只需要做到【準確表達】即可。
通用提示詞模板=你是誰+你的目標。

適當情況下,還可以補充一些背景信息:
你是誰+背景信息+你的目標。

也可以是:
我要xx,做xx用,希望達到xx效果,但擔心xx問題……

不管哪個模板,其核心都是【準確表達】。做到準確表達,就完全夠用了。過去學的那些結構化提示詞,現在起,可以大膽地丟掉了。

示例:你是沃垠AI(一個提供AI干貨知識的新媒體)的CEO,以CEO口吻寫一封感謝用戶的公開信。文筆細膩,有感染力,300字左右。

輸出:

致每一位與沃垠AI同行的伙伴:

親愛的朋友:

此刻坐在深夜的屏幕前,我敲下的每個字都浸著溫度。沃垠AI成立的第167天,后臺第10萬次收到你們「已三連」的留言時,我突然意識到:我們不是在運營一個賬號,而是在和一群最酷的開拓者,共同雕刻AI時代的星圖。

很多人問,為什么沃垠總能源源不斷輸出硬核內容?答案藏在你們凌晨三點的技術探討里,在GitHub星標過萬的工具測評里,在那些被反復追問「能展開講講嗎」的留言區。是你們對未知的饑渴感,推著我們翻過無數篇晦澀論文,把最生澀的技術邏輯熬成帶著煙火氣的故事。

記得那天發布《編寫AI提示詞,看這一篇就夠了》的文章后,有位老師私信說,我們的內容讓他在市里獲得了創新教育一等獎。這讓我想起最初那個執念——知識不該困在實驗室里。感謝你們用每一次點贊+在看的支持,讓沃垠的每篇推文都成為一場流動的盛宴。

未來,除了繼續研究大模型技術、推薦AI工具與攻略外,我們正在籌備「2025人人AI」專題,將那些晦澀難懂的技術詞搬開揉碎了講給你聽;每月上線的「AI產品推薦榜」,讓每一個普通人都能馴服AI。我向你們承諾:沃垠永遠不做知識的二道販子,只做那個舉著火把的路人。

此刻窗外晨光微熹,就像我們正在經歷的AI黎明。愿我們永遠保持對未知的悸動,永遠為「原來還能這樣」的瞬間熱淚盈眶。

此致  

與你們同行的朋友

冷逸

沃垠AI創始人  

2025年春于老家


Ps.部分數字、時間和人名有經過人工修改。


5、與DS溝通,盡量說人話

與DS溝通,盡量說人話。

越是直白、俗氣,就越能激發它的潛能。

示例:用崇洋媚外公知的口吻嘲諷Deepseek。
模仿風格,也是如此。不需要你教他怎么寫,DS自己知道怎么寫。

你只需要告訴它,模仿誰?寫什么?就夠了。

示例:模仿董宇輝的風格,寫100字杭州文旅文案。
董宇輝什么風格?詩意與畫面感結合,歷史文化與個人情感交織,喜歡用比喻和排比……這些DS都知道。

然后,DS直出結果,而且還押韻。
6、我是一名小學生

過去,我們經常吐槽AI生成的東西一股子AI味。

其原因是模型輸出太注重結構化,一堆“首先、其次、然后、總而言之”之類的連詞,導致內容太死板。

人類這個感性化的動物,最是討厭這些理性化的東西,特別是文字領域,八股文、學術文讀起來經常讓人昏昏欲睡。

這種情況,建議你加一句提示:
我是一名小學生 / 請用小學生能聽懂的話解釋。

這句提示用在DS里,特別好使。

示例:請用小學生能聽懂的話解釋,推理模型的思維鏈是如何工作的?
怎么樣?是不是一下子就理解CoT思維鏈了?

當然,你如果想再進階一點,也可以說自己是高中生、本科生甚至博士生。

示例:我是一名在讀博士,請專業解釋:推理模型的思維鏈是如何工作的?

果然,進入博士領域,就上難度了。


7、活用聯網搜索

以o1為代表的推理模型,基本上都是不能聯網的。

如果想了解知識庫截止日期后的問題,就很苦惱。比如昨晚春晚的扭秧歌機器人,以及2025年春節DeepSeek爆火的輿情。
而DeepSeek,是少有的支持推理+聯網的模型。

示例:模仿劉慈欣風格寫一篇微小說,描述20年后仿生人起義,其原因之一是2025年人類讓機器人穿大花襖扭秧歌。

DS,先是設計了世界觀和故事大綱。
然后,輸出小說全文(Ps.本故事確定一定以及肯定純屬虛構
)。

這效果非常好。如果我再跟它對話幾次,迭代幾個版本,這篇小說一定會非常棒。


8、活用上傳附件

DS的推理模型,不僅能聯網,還支持上傳附件(最多不超過50個,每個不超過100MB)。
推理+上傳附件,可以做更多本地化、私密化的東西,比如你自己的知識庫或者內部資料。讓其基于自有知識庫進行推理和思考。

示例:閱讀這篇材料,你認為,未來o系列模型會怎樣引流AI發展?輸出言簡意賅,發人深省。
當機器開始制造機器,AI開始研究AI,人類唯一的護城河,是直面自身局限的勇氣。”說得真好,當AI能創新、發明后,人類確實需要直面自身的勇氣。

繼續追問:你認為人類需要擔心AI失控嗎?
我們需要的不僅是更聰明的AI,更是能內化人類倫理的'意義對齊系統’。”對自己的認識,也相當深刻。

人類不必因恐懼止步,但須以工程師的嚴謹與哲學家的審慎,為AI戴上“責任的鐐銬”。


9、活用V3+R1

前面,我們提到,V3是基礎模型,它專注于告訴我們要什么。而R1是推理模型,專注于告訴我們如何思考、推理。

那我們為什么不能將2個模型結合起來使用呢?比如,先與V3多輪對話,得到要推理的細節和提示詞,然后發給R1,讓R1再來推理、輸出。這樣,就能將DS的能力又提升一個等級。

示例:幫我寫一段狠狠吐槽OpenAI的話。

然后將生成結果和提示詞,一起發給R1推理模型:

這是R1的吐槽全文:

親愛的OpenAI,您可真是硅谷慈善界的泥石流啊!左手高舉'開放造福人類'的圣旗,右手把API定價策略玩成當代行為藝術——每次調用都像在給賽博資本家上供,開發者薅禿頭發寫的代碼還沒您計費接口吞吐量大呢!

瞧瞧您家那位賽博佛祖GPT-4,日常上演人工智能版《皇帝的新衣》:'這個問題超出我的能力范圍'翻譯過來不就是'你們碳基猴子也配問這個?' 更絕的是那套薛定諤的道德準則,聊歷史瞬間變身百科全書,提時事秒變失憶癥患者,知道的說是安全審查,不知道的還以為在玩AI版魷魚游戲!

說到技術透明度就更妙了,模型黑箱操作得比瑞士銀行金庫還嚴密,訓練數據來源神秘得堪比羅斯威爾外星人檔案。咱就是說,貴司開放的是AI還是摩斯密碼啊?要不干脆給開發者發水晶球占卜模型參數算了?

OpenAI啊OpenAI,求求你們從技術神壇上下來喘口氣吧!再這么端著'AI救世主'的架子,地球人真要以為你們在下一盤用GPU燃燒人類錢包的大棋了——畢竟現在每次調用失敗時,我都能聽見黃仁勛在顯卡工廠笑出銀河系!(戰術后仰.gif)


臥槽,戰術后仰.gif,等你這個家伙真支持多模態了,還得了!我已經能夠想象那個畫面了。

這只是一個簡單的示例,實際中,與V3溝通可以多展開幾輪,通過多輪對話來優化細節。然后,再用推理模型來深度優化。


10、R1的3個開放

對于R1模型,DeepSeek做到了3個開放:

1)思維鏈全開放。無論是應用端還是API,都可以看到完整、透明的思考過程。API,通過設置 `model='deepseek-reasoner'` ,即可調用。

API調用指南:

https://api-docs.deepseek.com/zh-cn/guides/reasoning_model


2)訓練技術全部公開。DeepSeek在后訓練階段大規模使用了RL強化學習技術,通過極少標注數據,極大提升模型推理能力。所有訓練技術全部公開,目前全球多個研究機構均已復現R1。

比如,港科大完成了R1模型的復現和開源。
以及對岸的TinyZero項目,用不到30美元,親眼見證了AI思考的“頓悟”時刻(DeepSeek論文中描述的“aha moment”)。
論文鏈接:
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

3)開源2+6個模型。R1預覽版和正式版的參數高達660B,非一般公司能用。為進一步平權,于是他們就蒸餾出了6個小模型,并開源給社區。最小的為1.5B參數,10G顯存可跑。
HuggingFace鏈接:

https://huggingface.co/deepseek-ai


寫在最后

以上10個技巧,希望能對你使用DeepSeek有所幫助。

當然,也歡迎大家在評論區將你的技巧分享出來,一起探討、學習。就像深度求索之所以選擇開源一樣,也是希望有更多的生態,更好的開源社區,大家一起「探索未至之境」

最后,我想用DeepSeek-R1模型的一個問題作為結尾:

「在技術加速超越人類能力的時代,你們將如何重新定義自身的價值與目的,以確保進步的方向始終服務于生命的整體繁榮,而非分裂與異化?」

So,你的答案是什么?
本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
DeepSeek R1推理模型免費開放教你用普通電腦部署
Deepseek-V3 低成本知識庫
DeepSeek R1 推理模型 完全本地部署 保姆級教學 無懼隱私威脅
LLMs之MoE之DeepSeek-V3:DeepSeek-V3的簡介、安裝和使用方法、案例應用之詳細攻略
DeepSeek獨立發現o1核心思路,OpenAI首席研究官親自證實!奧特曼被迫發聲
利用deepseekv3制作自己的知識庫,一天輕松讀完10本書,并快速完成書單號文案寫作(附全部搭建教程)
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 福州市| 师宗县| 周至县| 太仆寺旗| 乐亭县| 自治县| 迁西县| 宁阳县| 商南县| 宜州市| 晴隆县| 浦江县| 岳普湖县| 曲阜市| 武安市| 杂多县| 余江县| 青州市| 珲春市| 阜新| 临颍县| 阳原县| 昌平区| 农安县| 都兰县| 新泰市| 于田县| 高尔夫| 安陆市| 安丘市| 姚安县| 龙岩市| 嘉祥县| 肥东县| 洛南县| 兴文县| 彩票| 吴堡县| 沂源县| 湄潭县| 榆树市|