本地运行deepseek r1模型
安装运行Ollama
在https://ollama.com,下载运行OllamaSetup.exe
修改Ollama模型下载路径
右键此电脑,属性,高级系统设置,环境变量,系统变量,新建,格式:变量名=变量值:
1 | OLLAMA_MODELS=D:\ollama |
允许网页访问
系统变量添加两个:
1 | OLLAMA_HOST=0.0.0.0 |
下载deepseek r1模型
进入ollama安装路径,默认是C:\Users\你的用户名\AppData\Local\Programs\Ollama,你的用户名要看每台电脑不同,右键文件夹空白位置,在终端中打开,输入
1 | ollama.exe pull deepseek-r1:8b |
开始下载deepseek,一共4.9GB
根据内存大小和显卡型号,需要下载其他模型参考https://ollama.com/library/deepseek-r1
经常前面1/2能跑满宽带,后面只有100-500KB/s的速度,ctrl+c中断后再运行一次命令可以满速,可以正常下载结束
运行
命令行界面
一键运行,可以新建个ollama.bat,里面填写
1 | C:\Users\你的用户名\AppData\Local\Programs\Ollama\ollama.exe run deepseek-r1:8b |
可以在命令行里输入你的问题,如果要在网页操作,运行bat右下角有ollama的图标后,命令行窗口可以关闭
网页界面
浏览器插件page assist
https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo
安装后选择模型就可以
cherry-studio
https://github.com/CherryHQ/cherry-studio
有便携版不用安装
chatbox
不用登陆,选择模型就可以
其他
尝试open-webui,使用pip install open-webui后,出现wheel错误,以前解决过一次,用同样的方法没法解决,放弃了