大家好!我是艦長?? 艦長嘗試在Coze上使用Deepseek模型,用了Deepseek模型的智能體能力可以更強,Coze1月中旬就已經推出Deepseek模型,需要登入專業版使用!
但同樣也是很不穩定,艦長已經實測過。
艦長,找到另一個方法,目可以達到自帶思考過程不會直接返回結果效果,也就是Deepseek_R1的深度思考能力。
接下來艦長將帶大家一步一步制作出這款Deepseek智能體,首先已知Coze官方提供的Deepseek模型不能正常使用的情況下,我們需要另找方法去調用Deepseek模型。
Deepseek模型是已經開源,是可以進行本地部署的,為什么讓大家不用在本地普通電腦上部署Deepseek?艦長這里有一張表,大家可以參考一下:
部署Deepseek模型最好是選擇32B以上的模型,也就是你的電腦配置最少需要4080以上,本地部署的成本可想而知。
那只能通過另一種方法——云部署采取調用API的方式,使用Deepseek-R1模型,艦長這里找到一個更適合做云部署的方法:硅基流動(SILICONFLOU)這個網站目前是有多款Deepseek模型可以使用,具體的大家可以登入網址查看:
接下來,進入https://cloud.siliconflow.cn/i/PJIaLykR
點擊右上角的按鈕進行登入和注冊
進去之后,就是模型廣場,可以看到是有很多Deepseek模型,可以直接體驗。
點擊左側欄的API秘鑰→進行新建API秘鑰
打開Coze——找到工作空間中的新建插件
插件信息創建
插件名稱:Deepseek
插件描述:調用Deepseek
插件工具創建:在Coze IDE中創建
IDE運行時:選擇Python3
進去后點擊在 IDE中創建
點擊添加工具
輸入工具名稱和介紹,如果想直接使用的名稱一致喔:deepseek_v3)
復制艦長提供的代碼粘貼到代碼中
第2行的名稱和你的工具名稱要一致,其余不動即可。
代碼:
from runtime import Args
from typings.deepseek_v3.deepseek_v3 import Input, Output
import http.client
import json
def handler(args: Args[Input]) -> Output:
# 從輸入參數中獲取用戶輸入的內容和 API 密鑰
user_input = args.input.user_input
api_key = args.input.api_key # 假設用戶輸入的 api_key 通過此字段傳入
if not api_key:
return {'message': 'API Key is missing. Please provide a valid API Key.'}
# API 請求的 URL 和路徑
conn = http.client.HTTPSConnection('api.siliconflow.cn')
payload = json.dumps({
'model': 'deepseek-ai/DeepSeek-R1-Distill-Llama-70B', # 使用 DeepSeek-R1 模型
'messages': [
{
'role': 'user',
'content': user_input
}
],
'stream': False,
'max_tokens': 16384,
'stop': ['null'],
'temperature': 0.7,
'top_p': 0.7,
'top_k': 50,
'frequency_penalty': 0.5,
'n': 1,
'response_format': {'type': 'text'},
})
headers = {
'Authorization': f'Bearer {api_key}', # 使用用戶提供的 API Key
'Content-Type': 'application/json'
}
# 發送 POST 請求
conn.request('POST', '/v1/chat/completions', body=payload, headers=headers)
response = conn.getresponse()
# 檢查請求是否成功
if response.status == 200:
# 解析響應數據
response_data = json.loads(response.read().decode('utf-8'))
# 提取 content 和 reasoning_content
content = response_data['choices'][0]['message'].get('content', '')
reasoning_content = response_data['choices'][0]['message'].get('reasoning_content', '')
# 返回 API 的響應內容,包括 reasoning_content
return {
'reasoning_content': reasoning_content,
'message': content
}
else:
# 如果請求失敗,返回錯誤信息
return {'message': f'API request failed with status code {response.status}'}
設置好代碼后設置元數據,別忘記保存
輸入參數:user_input/api_key
輸出參數:reasoning_content/message
這樣插件就配置完畢,接下來進行測試,測試完成后就可以發布使用了。
測試代碼:
{
'user_input': '抖音爆款標題怎么寫',
'api_key': '這里填寫你的api'
}
api_key:需要改為你的api
測試完成后點擊發布即可
插件制作完畢現在需要搭建Coze工作流進行智能體的配置:
創建一個新的工作流,工作流的搭建很簡單:
開始節點
插件節點:
1.需要將自己創建的插件引用到編排中
點擊添加插件,在資源庫工具中找到自己發布的插件
2.配置輸入參數
api_key:填寫你的api秘鑰
user_input:引用開始節點的input
結束節點:
分別引用前置插件節點的兩個輸出參數
搭建完成后,點擊試運行并發布即可,為了保證輸出的穩定性,因為結束節點艦長這里選擇的是返回變量的方式。我們需要在制作一個Coze卡片并綁定到工作流上。
直接使用AI創建即可
創建好后直接發布,完成后就是最終智能體的搭建了!
創建一個智能體,并將工作流添加進來:
綁定卡片
選擇制作好的卡片,進行數據綁定
因為reasoning_content返回的結果為思考過程,所以卡片綁定這個參數即可。
本次的Deepseek模型部署、插件制作、Coze智能體的搭建教學就到此結束.