目錄
一、Ollama是什么?
二、如何在Mac上安裝Ollama
1. 準備工作
2. 下載并安裝Ollama
3. 運行Ollama
4. 安裝和配置大型語言模型
5. 使用Ollama
三、安裝open-webui
1. 準備工作
2. Open WebUI ?的主要特點
3. Docker安裝OpenWebUI,拉去太慢可以使用手動安裝
4. 配置本地大模型LLaMA2-7B
5. 驗證配置
四、使用Ollama + AnythingLLM構建類ChatGPT本地問答機器人系
學習目標
1. 下載AnythingLLM
2. 安裝AnythingLLM
3. 配置AnythingLLM
3.1 選擇LLM、嵌入模型和向量數據庫
3.2 設置環境變量(如果需要)
3.3 權限管理(如果需要)
4. 構建知識庫
5. 開始使用
6. 自定義集成(如果需要)
7. 監控和反饋
8. 注意事項
9. 額外信息
參考文章
Ollama是一個功能強大的開源框架,旨在簡化在Docker容器中部署和管理大型語言模型(LLM)的過程。以下是關于Ollama的詳細介紹:
綜上所述,Ollama是一個為在本地運行大型語言模型而設計的強大、易用、功能齊全的開源框架。它通過優化設置和配置,簡化了在Docker容器中部署和管理LLM的過程,使得用戶能夠快速、方便地在本地運行大型語言模型。
在Mac上安裝Ollama的步驟如下,結合了參考文章中的信息,并進行了適當的總結和歸納:
ollama pull llama3
命令來拉取并安裝Llama 3模型(請注意,這只是一個示例命令,具體命令可能因Ollama的版本和您的需求而有所不同)。ollama pull llama3
命令來安裝Llama 3模型。啟動服務:在成功安裝和配置模型后,您可以使用Ollama提供的命令或API來啟動和運行模型服務。
訪問和使用:通過Ollama提供的Web界面或API接口,您可以訪問和使用已部署的大型語言模型進行各種任務,如文本生成、問答等。
API調用
curl http://localhost:11434/api/generate -d '{
“model”: “llama2:7B”,
“prompt”:“Why is the sky blue”
}’
回答問題時CPU100%,MAC M1 8G內存
請注意,以上步驟和命令可能因Ollama的版本和您的具體需求而有所不同。建議您參考Ollama的官方文檔和社區資源,以獲取最準確和最新的安裝和使用指南。
GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)
??輕松設置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)無縫安裝,提供無憂體驗,同時支持標記映像和標記映像。:ollama``:cuda
??Ollama/OpenAI API 集成:輕松集成兼容 OpenAI 的 API,與 Ollama 模型進行多功能對話。自定義 OpenAI API URL 以鏈接LMStudio、GroqCloud、Mistral、OpenRouter 等。
??Pipelines、Open WebUI 插件支持:使用Pipelines 插件框架將自定義邏輯和 Python 庫無縫集成到 Open WebUI 中。啟動您的 Pipelines 實例,將 OpenAI URL 設置為 Pipelines URL,探索無限可能。示例包括函數調用、控制訪問的用戶速率限制、使用 Langfuse 等工具進行使用情況監控、使用LibreTranslate提供多語言支持的實時翻譯、有害消息過濾等等。
??響應式設計:在臺式電腦、筆記本電腦和移動設備上享受無縫體驗。
??**適用于移動設備的漸進式 Web 應用程序 (PWA):**使用我們的 PWA 在您的移動設備上享受類似本機應用程序的體驗,提供對 localhost 的離線訪問和無縫的用戶界面。
??完整的 Markdown 和 LaTeX 支持:通過全面的 Markdown 和 LaTeX 功能提升您的 LLM 體驗,以實現豐富的交互。
??模型生成器:通過 Web UI 輕松創建 Ollama 模型。通過Open WebUI 社區集成,輕松創建和添加自定義角色/代理、自定義聊天元素和導入模型。
??本地 RAG 集成:通過突破性的檢索增強生成 (RAG) 支持,深入了解聊天交互的未來。此功能將文檔交互無縫集成到您的聊天體驗中。您可以將文檔直接加載到聊天中或將文件添加到文檔庫中,在查詢之前使用命令輕松訪問它們。#
??RAG 的 Web 搜索:使用 、 、 、 和 等提供程序執行 Web 搜索,并將結果直接注入到聊天體驗中。SearXNG``Google PSE``Brave Search``serpstack``serper
??Web 瀏覽功能:使用后跟 URL 的命令將網站無縫集成到您的聊天體驗中。此功能允許您將 Web 內容直接合并到您的對話中,從而增強交互的豐富性和深度。#
??圖像生成集成:使用 AUTOMATIC1111 API 或 ComfyUI(本地)和 OpenAI 的 DALL-E(外部)等選項無縫整合圖像生成功能,通過動態視覺內容豐富您的聊天體驗。
許多模型對話:毫不費力地同時與各種模型互動,利用它們的獨特優勢來獲得最佳響應。通過并行利用各種模型來增強您的體驗。
??**基于角色的訪問控制 (RBAC):**確保使用受限權限進行安全訪問;只有經過授權的個人才能訪問您的 Ollama,并且為管理員保留獨家模型創建/拉取權限。
???多語言支持:通過我們的國際化 (i18n) 支持,以您的首選語言體驗 Open WebUI。加入我們,擴展我們支持的語言!我們正在積極尋找貢獻者!
??持續更新:我們致力于通過定期更新、修復和新功能來改進 Open WebUI。
想了解更多關于Open WebUI的功能嗎?查看我們的Open WebUI 文檔,了解全面概述!
拉取Open-WebUI鏡像:使用Docker命令從GitHub Container Registry拉取Open-WebUI的鏡像。例如,你可以運行以下命令來拉取最新的Open-WebUI鏡像:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
下載太慢,需要配置docker國內鏡像倉庫,參考這篇文章:
MacOS上配置docker國內鏡像倉庫地址_mac docker配置鏡像源-CSDN博客
如果163也很慢,建議配置阿里云鏡像地址,需要登陸阿里云不過配置發現更慢!手動下載了
最后只能用魔法解決了
登陸地址http://localhost:3000/ 注冊賬號登陸
當在MAC上安裝AnythingLLM時,以下是更詳細的步驟,結合了參考文章中的信息:
OLLAMA_MODELS
。配置完成后,就可以在AnythingLLM中進行基于檢索增強生成(RAG)的聊天或問答了。
可以創建自己的工作區(workspace),設置不同的配置,并開始與LLM進行交互。
ollama+open-webui,本地部署自己的大模型_ollama的webui如何部署-CSDN博客
Macbook m1安裝docker詳細教程_mac m1安裝docker-CSDN博客
MacOS上配置docker國內鏡像倉庫地址_mac docker配置鏡像源-CSDN博客
第九期: 使用Ollama + AnythingLLM構建類ChatGPT本地問答機器人系統 - 知乎 (zhihu.com)