# 集成由 Ollama 部署的本地模型

Ollama (opens new window) 是一款跨平台(MacOS、Windows、Linux)推理框架客户端,旨在便捷部署如 Llama 2、Mistral、Llava 等大语言模型(LLM)。Ollama 支持一键安装和本地运行 LLM,所有数据均保留在本地设备上,从而大幅提升数据隐私与安全性。
# 快速集成
# 下载并启动 Ollama
下载 Ollama
访问 https://ollama.com/download (opens new window) ,根据你的操作系统下载 Ollama 客户端。
运行 Ollama 并进行对话
ollama run deepseek-r1此操作将启动 Ollama,下载并运行 deepseek-r1 模型,启动成功后,Ollama 会在本地 11434 端口启动 API 服务,可通过
http://localhost:11434访问,浏览器将显示文本:Ollama is running。如需使用其他模型,请访问 Ollama 模型库 (opens new window) 获取更多信息。
在 SSRAG 中集成 Ollama
进入
项目管理 > 模型设置,点击Ollama图标,系统将弹出设置窗口,在窗口中填写以下信息:
基础 URL:
http://<your-ollama-endpoint-domain>:11434填写 Ollama 服务可访问的基础 URL。如果填写公网地址后仍然报错,请参考常见问题,并通过修改环境变量使 Ollama 服务可被所有 IP 访问。
如果 SSRAG 通过 Docker 部署,建议填写本地局域网 IP 地址,例如
http://192.168.1.100:11434或http://host.docker.internal:11434进行访问。如果是本地源码部署,则填写
http://localhost:11434。
点击“保存”后,若无报错即可在应用中使用该模型。
嵌入(Embedding)模型的集成方式与 LLM 类似,只需将模型类型切换为“文本嵌入”即可。
使用 Ollama 模型
进入需要配置的应用的「应用配置」页面,在 AI 设置 中选择 Ollama 对应的模型,保存后即可使用。

# FAQ
# ⚠️ 如果你使用 Docker 部署 SSRAG 和 Ollama,可能会遇到如下报错:
httpconnectionpool(host=127.0.0.1, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
httpconnectionpool(host=localhost, port=11434): max retries exceeded with url:/cpi/chat (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7f8562812c20>: fail to establish a new connection:[Errno 111] Connection refused'))
出现该错误的原因是 Ollama 服务无法被 Docker 容器访问。localhost 通常指的是容器自身,而不是主机或其他容器。
你需要将 Ollama 服务暴露到网络上,才能解决此问题。
# 在 Mac 上设置环境变量
如果 Ollama 作为 macOS 应用运行,环境变量应通过 launchctl 设置:
对于每个环境变量,使用
launchctl setenv命令进行设置。launchctl setenv OLLAMA_HOST "0.0.0.0"重启 Ollama 应用程序。
如果上述方法无效,可以尝试以下方式:
问题实际上出在 Docker 本身。要让容器访问宿主机,需要连接到
host.docker.internal。因此,将服务中的localhost替换为host.docker.internal即可正常访问。http://host.docker.internal:11434
# 在 Linux 上设置环境变量
如果 Ollama 作为 systemd 服务运行,环境变量应通过 systemctl 进行设置:
通过执行
systemctl edit ollama.service编辑 systemd 服务,这将打开一个编辑器。在
[Service]部分下,为每个环境变量添加一行Environment。[Service] Environment="OLLAMA_HOST=0.0.0.0"保存并退出编辑器。
重新加载
systemd并重启 Ollama:systemctl daemon-reload systemctl restart ollama
# 在 Windows 上设置环境变量
在 Windows 系统中,Ollama 会继承你的用户和系统环境变量。
- 首先,在任务栏中右键点击 Ollama 图标并选择退出,关闭 Ollama 程序。
- 打开控制面板,进入系统环境变量设置界面。
- 为你的用户账户编辑或新建环境变量,例如
OLLAMA_HOST、OLLAMA_MODELS等。 - 点击“确定”或“应用”保存设置。
- 重新打开一个新的终端窗口,运行
ollama。
# 如何将 Ollama 暴露到网络上?
Ollama 默认绑定在 127.0.0.1 的 11434 端口。你可以通过设置 OLLAMA_HOST 环境变量来更改绑定地址,从而实现网络访问。