上一期我們更新了如何本地安裝Ollama與本地下載開源語言大模型,但是在終端對話卻很繁瑣,不要緊,我們部署Ollama WebUI則可以實現(xiàn)本地瀏覽器與開源語言大模型對話。
安裝Node.js
我們在部署Ollama WebUI需要先安裝Node.js,直接打開Node.js官網(wǎng)下載安裝。
安裝成功后用指令node -v查詢是否安裝成功以及版本號。
部署Ollama WebUI
安裝成功Node.js和Git后直接拉取Ollama WebUI代碼。
git clone https://github.com/ollama-webui/ollama-webui-lite ollama-webui
拉取成功后進入使用指令cd ollama-webui進入目錄,設(shè)置加速鏡像。
npm config set registry http://mirrors.cloud.tencent.com/npm/
用指令npm install安裝依賴,安裝成功Ollama WebUI就部署成功咯~
啟用Ollama WebUI
我們用指令npm run dev啟用Ollama WebUI,可以看到訪問地址,復(fù)制地址在瀏覽器打開。
可以選擇本地安裝的開源語言大模型進行對話咯~
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請
點擊舉報。