今天是我們CLine系列視頻的第二集,主要是講解大家特別關心的Cline 的免費模型,以及如何配置和使用它們,主要介紹6種我們經常使用的方法。
Cline作為一款強大的AI工具,其魅力在于能夠連接多種AI模型,為用戶提供多樣化的智能體驗。
然而,面對眾多模型和潛在的API費用,許多用戶都希望能夠充分利用 免費模型 來滿足日常需求。
本文將深入探討如何在 Cline 中配置和使用免費模型,幫助你最大限度地發揮 Cline 的潛力,而無需擔心額外的費用。
前言
在 Cline 中,免費模型 主要分為3種情況:
- 試用模型:新模型一般都會給大家試用一段時間或者一定的額度。這個需要大家多多關注最新的消息和咨詢。
- 試用期模型:一些新的工具會有試用期,如Cursor試用期。
- 開源模型:一些開源的模型,如LLama2、QWen等。
- 聚合平臺:聚合平臺為了吸引大家使用,他們一般會提供一些免費額度或者低速模型。
我們今天講的方法,包含上面的全部4種類型。
第一種方法:OpenRouter 的免費模型
我們先來看看CLine的模型提供商列表,這里屬于聚合平臺的有OpenRouter、GCP Vertex(谷歌云平臺)、AWS Bedrock(亞馬遜云平臺),它們都是各種模型代理的平臺。
我們以OpenRouter 來講解如何配置使用免費模型。
配置方法:
- 注冊 OpenRouter 賬號并獲取 API 密鑰,可以直接點擊上面的Get OpenRouter API Key。
- 在Model中輸入free,在下拉列表中選擇尾部帶free的模型。
- 然后驗證一下是否可用,meta-llama/llama-3.1-70b-instruct:free這個是我驗證了可以使用的模型。
第二種方法:Gemini 的免費模型
最近Gemini 官方宣布,Gemini 的免費額度已經更新。在低頻次的使用情況下,這是一個不錯的選擇。
配置方法:
- 注冊 Gemini 賬號并獲取 API 密鑰。直接郵箱注冊就行,不要其它驗證。
- 在Model中選擇最新的就可以使用。
第三種方法:Deepseek 的免費模型
Deepseek初次注冊會贈送10元,百萬tokens的免費額度。國產大模型的標桿模型,支持中文。
配置方法:
- 注冊 Deepseek 賬號并獲取 API 密鑰。
- Model 中選擇deepseek-chat就可以了。
這是我目前使用最多了一個方法。
第四種方法:使用GitHub的開源模型
Github提供了許多開源模型(
https://github.com/marketplace/models),包括 Llama2、Qwen等。并且是全免費的。通過api key進行調用。
配置方法:
- 注冊GitHub賬號,然后通過github的api key進行調用。
- 安裝Litellm,對Github的api進行本地的封裝和轉發。
- 在終端啟動litellm,如圖。
- 在Cline中選擇適配OpenAI接口,然后輸入你的本機地址。
- Model選擇配置的。key隨意就可以了。
第五種方法:使用Huggingface的開源模型
Huggingface同樣提供了許多開源模型,包括 Qwen等。并且是全免費的。通過api key進行調用。
配置方法和Github類似:
- 注冊Huggingface賬號,然后通過Huggingface的api key進行調用。
- 選擇模型,按圖上的標注選。
- 安裝Litellm,對Huggingface的api進行本地的封裝和轉發。
- 在Cline中選擇適配OpenAI接口,然后輸入你的本機地址。
- Model選擇配置的。key隨意就可以了。
第六種方法:使用Ollama本地運行的開源模型
Ollama 是一個本地運行 LLM 的工具,它允許你使用本地模型,而無需擔心網絡連接問題。不過對電腦的性能要求高,需要有GPU的支持。
1. 下載并安裝 Ollama
訪問 Ollama 官網https://ollama.com/下載對應操作系統的版本并安裝。按提示進行操作就可以了。
2. 下載模型:
- 使用 Ollama,可以通過命令行 ollama run <模型名稱> 下載模型,例如 ollama run llama2,注意選擇的模型大小。
3. 在 Cline 中配置本地模型服務:
- Ollama: 啟動 Ollama 后,它會在 http://localhost:11434 監聽。在 Cline 的設置中,選擇 Ollama 作為提供商,并配置連接地址為 http://localhost:11434。
- 然后選擇需要的模型就可以了,已經安裝的都會自動顯示在下面。
使用免費模型的注意事項
本站僅提供存儲服務,所有內容均由用戶發布,如發現有害或侵權內容,請
點擊舉報。