本地运行deepseek r1模型


安装运行Ollama

https://ollama.com,下载运行OllamaSetup.exe

修改Ollama模型下载路径

右键此电脑,属性,高级系统设置,环境变量,系统变量,新建,格式:变量名=变量值:

1
OLLAMA_MODELS=D:\ollama

允许网页访问

系统变量添加两个:

1
2
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*

下载deepseek r1模型

进入ollama安装路径,默认是C:\Users\你的用户名\AppData\Local\Programs\Ollama,你的用户名要看每台电脑不同,右键文件夹空白位置,在终端中打开,输入

1
ollama.exe pull deepseek-r1:8b

开始下载deepseek,一共4.9GB

根据内存大小和显卡型号,需要下载其他模型参考https://ollama.com/library/deepseek-r1

经常前面1/2能跑满宽带,后面只有100-500KB/s的速度,ctrl+c中断后再运行一次命令可以满速,可以正常下载结束

运行

命令行界面

一键运行,可以新建个ollama.bat,里面填写

1
C:\Users\你的用户名\AppData\Local\Programs\Ollama\ollama.exe run deepseek-r1:8b

可以在命令行里输入你的问题,如果要在网页操作,运行bat右下角有ollama的图标后,命令行窗口可以关闭

网页界面

浏览器插件page assist

https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo

安装后选择模型就可以

cherry-studio

https://github.com/CherryHQ/cherry-studio

有便携版不用安装

chatbox

https://web.chatboxai.app/

不用登陆,选择模型就可以

其他

尝试open-webui,使用pip install open-webui后,出现wheel错误,以前解决过一次,用同样的方法没法解决,放弃了