Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >ollama无法使用本地IP访问11434端口,但是localhost和127.0.0.1可以访问,请问如何解决?

ollama无法使用本地IP访问11434端口,但是localhost和127.0.0.1可以访问,请问如何解决?

提问于 2024-07-16 07:27:05
回答 3关注 1查看 28.2K

如题 当我使用ollama服务本地localhost或127.0.0.1可以访问11434端口 如下图:

127.0.0.1:11434访问:

可以成功访问
可以成功访问

localhost:11434访问:

成功访问
成功访问

本地IP访问:

访问失败
访问失败
代码语言:txt
AI代码解释
复制
下边是ifconfig的返回值:
ens160: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.195.131  netmask 255.255.255.0  broadcast 192.168.195.255
        inet6 fe80::20c:29ff:fe43:7f3a  prefixlen 64  scopeid 0x20<link>
        ether 00:0c:29:43:7f:3a  txqueuelen 1000  (Ethernet)
        RX packets 3497  bytes 1405496 (1.3 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 2294  bytes 290251 (283.4 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10<host>
        loop  txqueuelen 1000  (Local Loopback)
        RX packets 1104  bytes 128515 (125.5 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1104  bytes 128515 (125.5 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

virbr0: flags=4099<UP,BROADCAST,MULTICAST>  mtu 1500
        inet 192.168.122.1  netmask 255.255.255.0  broadcast 192.168.122.255
        ether 52:54:00:42:ae:2b  txqueuelen 1000  (Ethernet)
        RX packets 0  bytes 0 (0.0 B)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

Server信息

代码语言:txt
AI代码解释
复制
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name    
tcp        0      0 127.0.0.1:11434         0.0.0.0:*               LISTEN      4509/ollama         
tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN      1/systemd           
tcp        0      0 192.168.122.1:53        0.0.0.0:*               LISTEN      2045/dnsmasq        
tcp        0      0 0.0.0.0:22              0.0.0.0:*               LISTEN      1039/sshd           
tcp        0      0 127.0.0.1:631           0.0.0.0:*               LISTEN      1034/cupsd          
tcp6       0      0 :::111                  :::*                    LISTEN      1/systemd           
tcp6       0      0 :::22                   :::*                    LISTEN      1039/sshd           
tcp6       0      0 ::1:631                 :::*                    LISTEN      1034/cupsd          

接口

代码语言:txt
AI代码解释
复制
[root@192 socat-1.8.0.0]# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens160: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    link/ether 00:0c:29:43:7f:3a brd ff:ff:ff:ff:ff:ff
    altname enp3s0
    inet 192.168.195.131/24 brd 192.168.195.255 scope global dynamic noprefixroute ens160
       valid_lft 1307sec preferred_lft 1307sec
    inet6 fe80::20c:29ff:fe43:7f3a/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
3: virbr0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default qlen 1000
    link/ether 52:54:00:42:ae:2b brd ff:ff:ff:ff:ff:ff
    inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0
       valid_lft forever preferred_lft forever

11434端口

代码语言:txt
AI代码解释
复制
[root@192 /]# sudo netstat -tuln | grep 11434
tcp        0      0 127.0.0.1:11434         0.0.0.0:*               LISTEN 

根据ollama手册给出的解决方法在/etc/systemd/system/ollama.service 增加环境变量Environment=”OLLAMA_HOST=0.0.0.0:11434″已经尝试过无效的。

已经重装过系统,并且在centos8和银河麒麟v10上都尝试过了都会出现这个问题,找了很多解决方法都没有解决,请问该如何去解决这个问题?

用户7714902

发布于 2024-08-15 07:37:09

你的问题解决了吗,这个问题查了很多资料,按照解决方法均失败。

OLLAMA_HOST=0.0.0.0:11434 ollama serve,

默认模型在root/.ollama,你可以链接到你以后的模型地址在启动服务

我模型在/home/damols/demols

ln -sf /home/damols/demols /root/.ollama

启动按照该上面启动即可OLLAMA_HOST=0.0.0.0:11434 ollama serve

查看全部 3 条回答
相关文章
解决php使用localhost无法连接mysql但是127.0.0.1可以
mysqli.default_socket = /var/local/lamp/mysql-5.7/mysql.sock
93年的老男孩
2019/12/18
2.7K0
访问本地 localhost能访问,ip地址无法访问
本地ip无法访问.png 可以在命令窗口下输入 netstat -ano ,查一下9527端口在哪个ip上侦听 例如 netstat -ano "9527" 获取.png
河湾欢儿
2019/03/15
11.7K1
访问本地 localhost能访问,ip地址无法访问
[日常] 解决mysql localhost可以连接但是127.0.0.1不能连接
在测试mysql的过程中遇到使用localhost可以连接但是127.0.0.1不能连接,原因是localhost使用的本地socket连接,127.0.0.1使用使用的tcp连接
唯一Chat
2019/12/10
5.5K0
本地IP可以访问 外网IP 不能访问网站
https://jingyan.baidu.com/article/624e74590da64d34e8ba5aa0.html
用户6158975
2019/09/04
11.4K0
解决webpack无法通过IP地址访问localhost的问题
只能用http://localhost:8080访问项目,不能用http://本机IP:8080访问
李维亮
2021/07/09
3.5K0
vue把localhost改成ip地址无法访问—解决方法
打开package.json文件,找到下面的代码 "scripts": { "dev": "webpack-dev-server --inline --progress --config build/webpack.dev.conf.js", "start": "npm run dev", "build": "node build/build.js" }, 改成 "scripts": { "dev": "webpack-dev-server --inline --prog
庞小明
2019/05/25
2.6K0
网页访问Localhost本地端口的赶快升级啦
我们的Web系统需要与硬件设备交互,比如读卡器等。我们在本地跑了一个web程序监听localhost本地端口,然后网站通过http://localhost:port 这种方式交互,上星期突然有人访问不到本地服务器,以为本地程序没有开启。再三确认后发现是客户装的是Chrome Dev版本,自动升级到了Chrome 92,提示CORS跨域请求被禁止。。我可是访问的本地localhost。。
KurtNiu
2021/06/21
2.3K0
网页访问Localhost本地端口的赶快升级啦
大模型llm:Ollama部署llama3学习入门llm
Llama 3 是一个自回归语言模型(an auto-regressive language),它使用优化的 transformer 架构。调整后的版本使用监督微调 (SFT) 和带有人类反馈的强化学习 (RLHF),以符合人类对有用性和安全性的偏好。
黄规速
2024/05/24
5.8K0
大模型llm:Ollama部署llama3学习入门llm
开发网页时,127.0.0.1或者localhost能访问,而本机地址不能访问的解决
第一 ping试试 127.0.0.1 和 本机地址 若127.0.0.1可以 说明可以自己ping自己  若本机地址可以 说明host正常 第二 检查服务器部署 再部署一个新的 若新的正常 说明你项目自己问题或者项目部署时出错 若新的不正常 说明服务器安装之类各种出错或者开发环境有配置问题 第三 保证有两个服务器 tomcat,weblogic之类的 假定问题出现在weblogic 那用tomcat试试127.0.0.1和本地地址 若正常 说明开发环境正常 若不正常 就是服务器的各种问题了 第四 重装一次
ydymz
2018/09/10
4.3K0
外网IP可以访问,域名访问
连接到 www.txzkrj.icu 时发生错误。PR_CONNECT_RESET_ERROR
用户1727632
2020/11/26
17.2K0
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
1.Ollama 是一个基于 Go 语言开发的本地大模型运行框架!它可以帮助用户在本地快速运行大模型,通过简单的安装指令,可以用一条命令就在本地运行开源大型语言模型。
快乐的小白
2024/04/16
3K4
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
MoneyPrinterPlus全面支持本地Ollama大模型
MoneyPrinterPlus现在支持批量混剪,一键AI生成视频,一键批量发布短视频这些功能了。
程序那些事
2024/07/15
1770
MoneyPrinterPlus全面支持本地Ollama大模型
MoneyPrinterPlus全面支持本地Ollama大模型
之前支持的大模型是常用的云厂商,比如OpenAI,Azure,Kimi,Qianfan,Baichuan,Tongyi Qwen, DeepSeek这些。
程序那些事
2024/07/16
1740
MoneyPrinterPlus全面支持本地Ollama大模型
Vue——Vue项目本地服务器设置既能localhost访问又能手机IP访问
在初始化完一个vue项目(基于vue-cli 和webpack)之后,我们可以通过 npm run dev来让这个项目跑起来。
双面人
2020/04/21
4.1K0
本地频繁访问 http://127.0.0.1:5021 接口问题
方案1:启动你本地的迅雷软件,上面的请求连接就会正常返回:result 200了。
zinyan.com
2023/07/13
3770
本地频繁访问 http://127.0.0.1:5021 接口问题
nginx https域名无法访问,iP方式可以访问问题
nginx https域名无法访问,iP方式可以访问问题,域名备案过,ssl dv认证,此问题突然出现,前面可以域名https访问很快
用户1926532
2019/06/15
13.9K9
安装RabbitMQ无法访问localhost:15672的管理界面解决
默认情况下,RabbitMQ安装完成后,在开始菜单右键选择【RabbitMQ Service - start】,然后以管理员身份运行。或者你也可以在服务列表中启动Rabbit
用户4464623
2020/09/10
5.5K0
安装RabbitMQ无法访问localhost:15672的管理界面解决
tomcat能正常启动,但是不能访问http://localhost:8080
最近遇到一个问题,下载了一个tomcat7.0.23版本的软件(不是官网下载的),环境变量设置正确但是都是不能访问http:localhost:8080.下面是我解决方法:
全栈程序员站长
2022/06/29
2.6K0
docker端口映射无法访问的解决
systemctl status docker,显示正常,可以pull,push,build
全栈程序员站长
2022/11/02
4.4K0
如何本地运行Llama 2大语言模型并实现无公网IP远程访问
Llama 2是一款开源的大语言模型,其中训练的数据目前已经达到7B级别,在上下文长度为4K下的单轮与多轮对话中表现出色,部署运行Llama 2同时需要借助一个框架Ollama.
大海里的番茄
2024/05/26
7670
如何本地运行Llama 2大语言模型并实现无公网IP远程访问

相似问题

localhost可以访问,IP不能访问?

3979

nginx https域名无法访问,iP方式可以访问问题。请问怎么解决?

0301

localhost可以访问9200端口,外网无法访问9200端口,安全组是启用的?

21.8K

上传到服务器图片,但是无法通过url访问。修改文件权限后可以访问。请问怎么解决?

316.1K

我用PHPSTUDY,localhost可以访问,公网ip无法访问出现forbidden?

0486
相关问答用户
擅长3个领域
萃橙科技 | 合伙人擅长4个领域
高级数据分析师擅长5个领域
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档