· 大家好,我是 同學小張,日常分享AI知識和實戰(zhàn)案例
· 歡迎 點贊 + 關(guān)注 ??,持續(xù)學習,持續(xù)干貨輸出。
· +v: jasper_8017 一起交流??,一起進步??,更有專業(yè)資料領(lǐng)??!
微信私信免費領(lǐng)取AI、C++等相關(guān)資料,持續(xù)收集更新中!包括但不限于:
1. 清華大學104頁《DeepSeek:從入門到精通》.pdf
2. DeepSeek指導(dǎo)手冊(24頁).pdf
3. 清華大學35頁《DeepSeek如何賦能職場應(yīng)用.pdf》
4.《如何向 ChatGPT 提問以獲得高質(zhì)量答案:提示技巧工程完全指南》
5. 《OpenAI:GPT 最佳實踐(大白話編譯解讀版)》
6. 人工智能精選電子書
前幾天我在自己的Mac筆記本上部署了deepseek大模型,并配置了UI對話框,具體步驟見下文:
Deepseek本地部署教程,帶UI(普通個人筆記本,無GPU,純CPU也可使用)
同學小張,公眾號:同學小張Deepseek本地部署教程,帶UI(普通個人筆記本,無GPU,純CPU也可使用)
這就需要通過代碼調(diào)用本地模型的API了。那么本地模型如何調(diào)用其API呢?
其實還是很簡單的。因為本地部署用的是Ollama,所以調(diào)用大模型API使用的也是Ollama的API接口。
以對話補全API為例,Ollama接口為:
POST /api/generate
其參數(shù)如下:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt": "為什么草是綠的?"
}'
http://localhost:11434
是 Ollama 在本地運行時的服務(wù)地址。
完整接口參考:https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/1.%20Ollama%20API%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.md
知道了接口的基本結(jié)構(gòu),下面我們看下如何用Python來調(diào)用。
在開始使用 Python 與 Ollama API 交互之前,請確保您的開發(fā)環(huán)境滿足以下條件:
pip install ollama
from ollama import chat
from ollama import ChatResponse
response: ChatResponse = chat(model='deepseek-r1:7b', messages=[
{
'role': 'user',
'content': '為什么天空是藍色的?',
},
])
print(response['message']['content'])
print(response.message.content)
可以通過設(shè)置 stream=True
啟用響應(yīng)流,使函數(shù)調(diào)用返回一個 Python 生成器,其中每個部分都是流中的一個對象。
from ollama import chat
stream = chat(
model='deepseek-r1:7b',
messages=[{'role': 'user', 'content': '為什么天空是藍色的?'}],
stream=True,
)
for chunk in stream:
print(chunk['message']['content'], end='', flush=True)
完整python接口調(diào)用示例參考:https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/2.%20%E5%9C%A8%20Python%20%E4%B8%AD%E4%BD%BF%E7%94%A8%20Ollama%20API.md
如果覺得本文對你有幫助,麻煩點個贊和關(guān)注唄 ~~~