春節最火的肯定是DeepSeek,這波的人工智能使國人使用AI太方便了。以前簡單的用Kimi、豆包、通義、訊飛、文小言、邊界等,體會了人工智能語言大模型的便利,而這次的DeepSeek的R1模型,真是驚艷到我了。
33秒給了一篇很好的發言稿:
(未展示完,大家可以試一下)
DeepSeek絕對是經過深度思考生成的,比Kimi等要好很多,而且不僅僅是回答問題和生成語言,更重要的是,它能本地部署和構建自己的個人知識庫,這個肯定是每個人都需要的。
個人知識庫有什么用?
下面就說一說春節假期使用的DeepSeek和本地部署、建立個人知識庫,讓讀友避過許多不必要的坑:
一、簡單的使用DeepSeek
進入網址https://deepseek.com就能提問和下載手機APP。注冊一下也行簡單。尤其是手機app,非常方便,傻瓜式使用。
二、本地部署:使用ollama
這個下載和安裝需要時間長,但部署后不用聯網,而且是純免費的,沒有API的費用。界面是過去dos界面,像敲命令行,沒有∪I界面,需要時可另外下載。
我們可以通過硅基流動+Cherry studio來使用API部署:
(感謝以上網友的分享)
這個就是比較復雜一點,也根據ollama下載的大小,決定deepseek的功能,一般下載1.5b版(1.1G),同時對電腦的配置要求高,對顯卡要求特別高,運行速度較慢,反正我的電腦不行,用個人知識庫分析時慢的要死。
使用anythingLLM時,必須先打開ollama,處理中文文本時,要在Embedder加入nomic-embed-text插件。
總結:
需求較少的書友使用第一種,網頁版和手機APP,已經滿足很多需求了,這是全免費的,而且帶深度思考能力,使用時勾選深度思考R1,暫時不要用聯網搜索,因為deepseek的服務器被黑,一時連不上網。
電腦配置不高的書友使用第三種,硅基流動+Cherry ,速度很快,尤其是在使用個人知識庫時,但要消耗API 的使用費用,目前不會繳費,有10 元的贈送,能用很久。
電腦配置高一點的書友使用二種本地部署后,用第四種方法,ollama+AnythingLLM,這個要占用C盤和下載大模型,運算速度會根據電腦配置,全免費、數據很安全。
如有什么疑問和討論,可加微信探討: