精品伊人久久大香线蕉,开心久久婷婷综合中文字幕,杏田冲梨,人妻无码aⅴ不卡中文字幕

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
VScode Cline入門到精通(二):解鎖Cline免費模型的6種方法

今天是我們CLine系列視頻的第集,主要是講解大家特別關心的Cline 的免費模型,以及如何配置和使用它們,主要介紹6種我們經常使用的方法。

Cline作為一款強大的AI工具,其魅力在于能夠連接多種AI模型,為用戶提供多樣化的智能體驗。

然而,面對眾多模型和潛在的API費用,許多用戶都希望能夠充分利用 免費模型 來滿足日常需求。

本文將深入探討如何在 Cline 中配置和使用免費模型,幫助你最大限度地發揮 Cline 的潛力,而無需擔心額外的費用。

前言

在 Cline 中,免費模型 主要分為3種情況:

  1. 試用模型:新模型一般都會給大家試用一段時間或者一定的額度。這個需要大家多多關注最新的消息和咨詢。
  2. 試用期模型:一些新的工具會有試用期,如Cursor試用期。
  3. 開源模型:一些開源的模型,如LLama2、QWen等。
  4. 聚合平臺:聚合平臺為了吸引大家使用,他們一般會提供一些免費額度或者低速模型

我們今天講的方法,包含上面的全部4種類型

第一種方法:OpenRouter 的免費模型

我們先來看看CLine的模型提供商列表,這里屬于聚合平臺的有OpenRouter、GCP Vertex(谷歌云平臺)、AWS Bedrock(亞馬遜云平臺),它們都是各種模型代理的平臺。

我們以OpenRouter 來講解如何配置使用免費模型。

配置方法

  1. 注冊 OpenRouter 賬號并獲取 API 密鑰,可以直接點擊上面的Get OpenRouter API Key。
  2. 在Model中輸入free,在下拉列表中選擇尾部帶free的模型。
  3. 然后驗證一下是否可用,meta-llama/llama-3.1-70b-instruct:free這個是我驗證了可以使用的模型。

第二種方法:Gemini 的免費模型

最近Gemini 官方宣布,Gemini 的免費額度已經更新。在低頻次的使用情況下,這是一個不錯的選擇。

配置方法

  1. 注冊 Gemini 賬號并獲取 API 密鑰。直接郵箱注冊就行,不要其它驗證。
  2. 在Model中選擇最新的就可以使用。

第三種方法:Deepseek 的免費模型

Deepseek初次注冊會贈送10元,百萬tokens的免費額度。國產大模型的標桿模型,支持中文。

配置方法:

  1. 注冊 Deepseek 賬號并獲取 API 密鑰。
  2. Model 中選擇deepseek-chat就可以了。

這是我目前使用最多了一個方法

第四種方法:使用GitHub的開源模型

Github提供了許多開源模型(
https://github.com/marketplace/models),包括 Llama2、Qwen等。并且是全免費的。通過api key進行調用。

配置方法:

  1. 注冊GitHub賬號,然后通過github的api key進行調用。
  2. 安裝Litellm,對Github的api進行本地的封裝和轉發。
  1. 在終端啟動litellm,如圖。
  1. 在Cline中選擇適配OpenAI接口,然后輸入你的本機地址。
  1. Model選擇配置的。key隨意就可以了。

第五種方法:使用Huggingface的開源模型

Huggingface同樣提供了許多開源模型,包括 Qwen等。并且是全免費的。通過api key進行調用。

配置方法和Github類似:

  1. 注冊Huggingface賬號,然后通過Huggingface的api key進行調用。
  2. 選擇模型,按圖上的標注選。
  1. 安裝Litellm,對Huggingface的api進行本地的封裝和轉發。
  2. 在Cline中選擇適配OpenAI接口,然后輸入你的本機地址。
  1. Model選擇配置的。key隨意就可以了。

第六種方法:使用Ollama本地運行的開源模型

Ollama 是一個本地運行 LLM 的工具,它允許你使用本地模型,而無需擔心網絡連接問題。不過對電腦的性能要求高,需要有GPU的支持。

1. 下載并安裝 Ollama

訪問 Ollama 官網https://ollama.com/下載對應操作系統的版本并安裝。按提示進行操作就可以了。

2. 下載模型:

  • 使用 Ollama,可以通過命令行 ollama run <模型名稱> 下載模型,例如 ollama run llama2,注意選擇的模型大小。

3. 在 Cline 中配置本地模型服務:

  • Ollama: 啟動 Ollama 后,它會在 http://localhost:11434 監聽。在 Cline 的設置中,選擇 Ollama 作為提供商,并配置連接地址為 http://localhost:11434。
  • 然后選擇需要的模型就可以了,已經安裝的都會自動顯示在下面。

使用免費模型的注意事項

本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
247.2k star! 超強大的私有化ChatGPT,支持圖像識別/文生圖/語音輸入/文本朗讀,個人電腦可運行!
本地部署完全離線版并上傳PDF知識庫的對話大模型
免費開源,無需 GPU,本地化部署大語言模型的對話系統
ThinkRAG開源!筆記本電腦可運行的本地知識庫大模型檢索增強生成系統
Dify:完善生態、支持Ollama與本地知識庫、拖放式UI 構建Agent!
【大模型】Ollama+open-webuiAnything LLM部署本地大模型構建RAG個人知識庫教程(Mac)
更多類似文章 >>
生活服務
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯系客服!

聯系客服

主站蜘蛛池模板: 丹寨县| 九江县| 鲁甸县| 邵阳市| 赤城县| 麻城市| 洪洞县| 湟源县| 蒙阴县| 宜川县| 越西县| 子长县| 囊谦县| 黑水县| 营山县| 红安县| 武安市| 开远市| 夏河县| 全南县| 丰原市| 光山县| 九台市| 饶平县| 兰考县| 新宾| 永安市| 绥阳县| 康平县| 万宁市| 马龙县| 信阳市| 德保县| 宽甸| 彭阳县| 霍林郭勒市| 项城市| 正蓝旗| 沁阳市| 武清区| 忻州市|