type
status
date
slug
summary
tags
category
icon
password
有一台上古小主机,想把DeepSeek部署到本地,然后通过CherryStudio远程访问。
安装Ollama
- 下载ollama安装包,并解压到本地。
https://ollama.com/download
- 安装ollama。
windows 下双击下载的
olamaSetup.exe
安装包安装。其他平台请参照安装文档进行安装。 在这里需要注意的是,Windows下默认会安装到C盘的users目录下,如果安装到其他目录,可以采用 OllamaSetup.exe /DIR="d:\some\location"
这种方式来更换安装路径。 同样的,模型默认也会下载到用户目录下,如果需要修改模型下载路径,可以在系统参数中添加一项OLLAMA_MODELS
来配置模型存放地址。- 启动ollama。 安装成功后,ollama会自动启动,可以通过
ollama list
命令来查看当前安装的模型。
一开始安装模型都是空的,所以需要下载模型。
ollama run deepseek-r1:7b
模型下载需要一段时间,所以需要耐心等待。成功后直接进入交互界面,可以进行交互。
- 配置ollama远程访问。
ollama默认是本地访问,如果需要远程访问,需要在环境变量中添加本地参数
OLLAMA_HOST
来配置远程访问地址。 需要注意的是配置了环境变量,需要重启下电脑,否则不生效。电脑重启后,应该就可以远程访问了。
测试方式:浏览器访问
http://你的远程主机:11434
,应该可以看到一个Ollama is running的页面。
配置cherry studio远程访问
cherry studio 是一款为创造者而生的 AI 助手,里面可以配置众多AI服务商的API,来访问AI模型。
打开cherry studio软件后,点击左下角的
设置
图标,选择模型服务
,里面有Ollama
选项(其实在这里我感觉用OpenAI选项应该也是可以的),在API地址
中,填写http://127.0.0.1:11434/v1/
,需要注意的是,你需要把127.0.0.1替换为你的ollama服务器的IP地址。
然后再返回cherry studio的主页,点击聊天图标,应该就可以直接用了。

📎 参考文章
- 作者:samawong
- 链接:https://ku.miandrui.com/article/deepseek_with_ollama
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。