可能有的家友對什么是 DeepSeek?它有什么用?仍感到一頭霧水。
就讓我們回歸基礎,從大語言模型的基礎流程、能力邊界與適用場景看起。
對了,這次給大家分享的 PDF 下載,是原汁原味的原版哦,網上有太多賣課者魔改的內置其廣告版本。
第一份秘籍《DeepSeek 與 AIGC 應用》,就是來為沒有專業的 AI 或 IT 技術背景的我們,解答 DeepSeek 是什么,有什么用的問題。
我們常聽到的 GPT 一詞,其實就是生成式預訓練變換器(Generative Pre-trained Transformer)的簡寫。
其基本工作流程是:
收到提示詞
將輸入拆分為 token
利用 Transformer 架構處理 token
基于上下文預測下一個 token
根據概率分數選擇 token
自回歸:重復步驟 4 和 5 ,直到形成完整的句子
看到上面的工作流程后,我們面對大模型“吐”出的結果時,也就不會感到奇怪了。
其優勢在于,具有語言理解和生成能力、世界知識能力,以及一定的推理能力。
相對應而言,其劣勢便在于 AI 幻覺、有限的知識庫及上下文窗口限制。
了解完原理,我們也就能讓這些聊天機器人更好地為我所用。
我們在使用這些 AI 大模型工具的時候,需要注意其能力邊界的限制。
比如,GPT-3.5 與 GPT-4 的上下文長度只有幾千個字。
當需要連續處理長篇幅的文本時,我們就需要使用分段對話、定期總結、使用關鍵詞提醒及精簡輸入的技巧,時刻關注大模型有沒有遺漏自己所關注的上下文。
在文本分析領域,它更擅長文本統計、摘要生成、分類與總結,而面對知識更新、語境歧義、新穎和未知類別時,表現可能就沒那么理想。
同樣,它的文本潤色能力,也體現在錯別字識別與修改、語法錯誤檢查與修正、標點符號調整、詞匯選擇優化、保持寫作風格等方面。
在面對新詞匯與表達、語境誤判、不斷更新的語言規則時,大模型也只能表示:“這我都沒訓練過啊!”
了解完一些基礎之后,我們對于大模型能干什么,會有更加深入的理解。
目前面向普通用戶開放商用的 AIGC 工具,主要有以下幾個方向:
聊天對話機器人
圖像生成工具
音頻工具
視頻生成工具
搜索工具
就以目前火熱的聊天機器人來看,DeepSeek-R1 的主要優勢還在于強大的推理能力,但其并不具備多模態的能力,無法直接處理圖像、音頻等信息。
而豆包則擁有更出眾的多模態能力,其語音情感交互能力更適合日常休閑對話。
比如當我們想要制作 PPT 時,就可以使用 DeepSeek R1 完成大綱設計,最后再來通過 Kimi 生成。
由于 AI 行業日新月異的發展,上面的列表隨時都可能發生變化,我們也需要根據自己的需求和目標,持續更新自己的 AI 工具列表。
來自北大的第二篇秘籍《DeepSeek 提示詞工程和落地場景》,則更專注于 DeepSeek R1 使用過程中的提示詞技巧。
作為一款 CoT 思維鏈(Chain-of-Thought)模型,我們可能需要放棄傳統的提示詞習慣,可以直接“把 AI 當人看”:
我要(做)XX,要給 XX 用,希望達到 XX 效果,但擔心 XX 問題
此外,我們還可以學會“反向 PUA” DeepSeek,讓它通過自己的思考邏輯,輸出更好的結果。
這份文檔中還給出了市場營銷、公文寫作、編程開發、數據分析、會議紀要、學術研究等多領域的的用法示例,等待大家去發現。