精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
本地部署deepseek大模型后,如何通過API調(diào)用?

  • · 大家好,我是 同學小張,日常分享AI知識和實戰(zhàn)案例

  • · 歡迎 點贊 + 關(guān)注 ??,持續(xù)學習,持續(xù)干貨輸出。

  • · +v: jasper_8017 一起交流??,一起進步??,更有專業(yè)資料領(lǐng)??!

  • 微信私信免費領(lǐng)取AI、C++等相關(guān)資料,持續(xù)收集更新中!包括但不限于:

  • 1. 清華大學104頁《DeepSeek:從入門到精通》.pdf 

  • 2. DeepSeek指導(dǎo)手冊(24頁).pdf

  • 3. 清華大學35頁《DeepSeek如何賦能職場應(yīng)用.pdf》

  • 4.《如何向 ChatGPT 提問以獲得高質(zhì)量答案:提示技巧工程完全指南》

  • 5. 《OpenAI:GPT 最佳實踐(大白話編譯解讀版)》

  • 6. 人工智能精選電子書


0. 背景

前幾天我在自己的Mac筆記本上部署了deepseek大模型,并配置了UI對話框,具體步驟見下文:

Deepseek本地部署教程,帶UI(普通個人筆記本,無GPU,純CPU也可使用)

同學小張,公眾號:同學小張Deepseek本地部署教程,帶UI(普通個人筆記本,無GPU,純CPU也可使用)


這只是實現(xiàn)了利用本地模型進行對話的功能。如果想要開發(fā)一些Agent或其它能力呢?

這就需要通過代碼調(diào)用本地模型的API了。那么本地模型如何調(diào)用其API呢?

1. API 調(diào)用

其實還是很簡單的。因為本地部署用的是Ollama,所以調(diào)用大模型API使用的也是Ollama的API接口。

1.1 API 參數(shù)介紹

以對話補全API為例,Ollama接口為:

POST /api/generate

其參數(shù)如下:

  • · 參數(shù)
    • · model: (必需)模型名稱
    • · prompt: 要生成響應(yīng)的提示
    • · suffix: 模型響應(yīng)后的文本
    • · images: (可選)一個base64編碼的圖像列表(用于多模態(tài)模型,如 llava )
  • · 高級參數(shù)(可選):
    • · format: 返回響應(yīng)的格式。目前唯一接受的值是 json
    • · options: 其他模型參數(shù),如 temperature、seed 等
    • · system: 系統(tǒng)消息
    • · template: 要使用的提示模板
    • · context: 從先前對 /generate 的請求中返回的上下文參數(shù),可以用于保持簡短的對話記憶
    • · stream: 如果設(shè)置為 false ,響應(yīng)將作為單個響應(yīng)對象返回,而不是一系列對象流
    • · raw: 如果設(shè)置為 true ,將不會對提示進行任何格式化。如果您在請求API時指定了完整的模板提示,可以選擇使用 raw 參數(shù)
    • · keep_alive: 控制模型在請求后保留在內(nèi)存中的時間(默認:5m)

1.2 示例請求(流式)

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "為什么草是綠的?"
}'

http://localhost:11434 是 Ollama 在本地運行時的服務(wù)地址。

完整接口參考:https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/1.%20Ollama%20API%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.md

2. Python 調(diào)用 API

知道了接口的基本結(jié)構(gòu),下面我們看下如何用Python來調(diào)用。

2.1 環(huán)境準備

在開始使用 Python 與 Ollama API 交互之前,請確保您的開發(fā)環(huán)境滿足以下條件:

  • · Python: 安裝 Python 3.8 或更高版本。
  • · pip: 確保已安裝 pip,Python 的包管理工具。
  • · ollama 庫: 用于更方便地與 Ollama API 交互。安裝命令如下:
pip install ollama

2.2 使用示例

2.2.1 非流式調(diào)用

from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(model='deepseek-r1:7b', messages=[
  {
    'role''user',
    'content''為什么天空是藍色的?',
  },
])
print(response['message']['content'])

print(response.message.content)

2.2.2 流式響應(yīng)

可以通過設(shè)置 stream=True 啟用響應(yīng)流,使函數(shù)調(diào)用返回一個 Python 生成器,其中每個部分都是流中的一個對象。

from ollama import chat

stream = chat(
    model='deepseek-r1:7b',
    messages=[{'role''user''content''為什么天空是藍色的?'}],
    stream=True,
)

for chunk in stream:
  print(chunk['message']['content'], end='', flush=True)

2.3 運行結(jié)果展示

完整python接口調(diào)用示例參考:https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/2.%20%E5%9C%A8%20Python%20%E4%B8%AD%E4%BD%BF%E7%94%A8%20Ollama%20API.md

如果覺得本文對你有幫助,麻煩點個贊和關(guān)注唄 ~~~


本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
DeepSeek 全面科普,將最強AI裝進你的電腦
老碼頭聊DeepSeek(二) DeepSeek本地部署后的進階應(yīng)用
Llama3本地部署及API接口本地調(diào)試,15分鐘搞定最新Meta AI開源大模型本地Windows電腦部署
全方位擁抱 DeepSeek,本地部署、AI編程、輔助寫作、網(wǎng)頁/PDF全文翻譯
GraphRAG Ollama 本地部署全攻略:避坑實戰(zhàn)指南
用ollama的免費API零代碼開發(fā)第一個AI應(yīng)用
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服

主站蜘蛛池模板: 阿合奇县| 淮阳县| 资阳市| 隆尧县| 昌宁县| 永定县| 漯河市| 五华县| 铜陵市| 普安县| 金坛市| 宜良县| 金华市| 沙田区| 洛川县| 塔城市| 乌兰浩特市| 法库县| 万山特区| 和林格尔县| 瑞丽市| 漯河市| 团风县| 同心县| 新丰县| 舞钢市| 高阳县| 阜南县| 桃源县| 宣汉县| 栾川县| 宽甸| 开封市| 奉节县| 阿瓦提县| 太和县| 新民市| 岑溪市| 彰化市| 哈密市| 乃东县|