本地部署通过ip访问
这是 Ollama 在 macOS 的一个常见问题: 默认只监听 127.0.0.1 (localhost),所以:
- ✅
http://localhost:11434可以访问 - ❌
http://192.168.31.25:11434无法访问
因为服务没有绑定到 0.0.0.0。
你需要让 Ollama 监听局域网地址。
一、正确解决方案(Mac 推荐)
给 Ollama 设置环境变量:
export OLLAMA_HOST=0.0.0.0
然后重启 Ollama:
killall Ollama
open -a Ollama
再访问:
http://192.168.31.25:11434
应该就可以了。
二、永久配置(推荐)
mac 客户端通常用 launchctl 管理。
执行:
launchctl setenv OLLAMA_HOST 0.0.0.0
然后重启:
killall Ollama
open -a Ollama
三、验证是否监听成功
执行:
lsof -i :11434
如果看到:
ollama xxxx TCP *:11434 (LISTEN)
说明监听 所有网卡。
如果是:
127.0.0.1:11434
说明仍然只监听本地。
四、测试 API
在另一台设备访问:
http://192.168.31.25:11434/api/tags
应该返回:
{
"models": [...]
}
五、如果仍然访问不了(Mac常见)
检查 macOS 防火墙:
系统设置 → 网络 → 防火墙 → 关闭 或允许 Ollama。
六、AI开发常见用法
很多开发者会这样用:
AI工具
↓
http://192.168.31.25:11434
↓
Ollama
例如:
- Continue
- Open WebUI
- 本地 AI Agent
七、一个很多人不知道的 Mac 版坑(非常重要)
Mac 的 Ollama GUI 有时不会读取 shell 的 env,如果上面方法不生效,可以直接用:
OLLAMA_HOST=0.0.0.0 ollama serve
手动启动服务。
💡 建议你再确认两件事:
1️⃣ 你的 IP 是否正确
ifconfig | grep inet
2️⃣ Ollama 是否监听 0.0.0.0
lsof -i :11434