一夜之間,中國AI大模型DeepSeek-R1橫掃硅谷,迅速引爆全球科技圈,英偉達AI科學家Jim Fan發文感嘆:“一家非美國公司,正在讓OpenAI的初衷得以延續——真正開放、為所有人賦能的前沿研究”。是的,DeepSeek-R1不僅性能媲美OpenAI O1,更做到了完全開源。
DeepSeek-R1模型的發布,讓我們可以更好地使用開源大語言模型運行推理任務。現在,R1模型可以通過DeepSeek API獲得,也就是說我們可以將其集成到我們的工作流程中。更好的消息是,Ollama在他們的庫中添加了幾個版本的R1模型,現在我們可以在本地使用Ollama運行R1模型。
1. 按照以下說明操作 https://github.com/ollama/ollama 安裝ollama程序。
# if the ollama program is not running, start it with the following command
ollama serve
% ollama pull deepseek-r1:1.5b
% ollama pull nomic-embed-text
?? 安裝 LeetTools
% conda create -y -n leettools python=3.11
% conda activate leettools
% pip install leettools
# where we store all the data and logs
% export LEET_HOME=${HOME}/leettools
% mkdir -p ${LEET_HOME}
% cat > .env.ollama <<EOF
# need tot change LEET_HOME to the correct path
LEET_HOME=</Users/myhome/leettools>
EDS_DEFAULT_LLM_BASE_URL=http://localhost:11434/v1
EDS_LLM_API_KEY=dummy-key
EDS_DEFAULT_INFERENCE_MODEL=deepseek-r1:1.5b
EDS_DEFAULT_EMBEDDING_MODEL=nomic-embed-text
EDS_EMBEDDING_MODEL_DIMENSION=768
EOF
通過一個命令行,我們可以使用URL中的PDF文件構建知識庫。如果需要,你還可以添加更多URL。
# this is a great LLM introduction book with 231 pages
leet kb add-url -e .env.ollama -k llmbook -l info \
-r https://arxiv.org/pdf/2501.09223
以下命令將使用LLM構建指南中的內容,使用R1模型回答問題。
leet flow -t answer -e .env.ollama -k llmbook -p retriever_type=local -l info \
-p output_language=cn -q 'How does the FineTune process Work?'
?? 資源使用情況
% ollama ps
NAME ID SIZE PROCESSOR UNTIL
deepseek-r1:1.5b a42b25d8c10a 1.6 GB 100% CPU 4 minutes from now
nomic-embed-text:latest 0a109f422b47 370 MB 100% CPU 4 minutes from now