Ollama有安全漏洞! 国家网络安全通报中心紧急通报

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
Ollama有安全漏洞! 国家网络安全通报中心紧急通报
7931点击    2025-03-06 00:50

国家网络安全通报中心昨天扔了个"炸弹":大模型工具Ollama有安全漏洞!


Ollama有安全漏洞! 国家网络安全通报中心紧急通报


相信不少人用ollama来跑DeepSeek、Llama等模型,确实很方便。可通报里说,它默认开放的11434端口跟没锁的大门似的,谁都能进。


Ollama有安全漏洞! 国家网络安全通报中心紧急通报


今天就和你就说一下 这到底是怎么回事?顺便手把手教你几招,保住你的算力和隐私。


Ollama咋就成了"安全漏勺"?

Ollama这工具帮你在家跑大模型。下载个DeepSeek,敲几行命令,它就能乖乖开工。可问题出在哪儿呢?它默认把11434端口敞开,连个"请敲门"的规矩都没有。


国家网络安全通报中心说了:


一、风险隐患详情


使用Ollma在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放11434端口且无任何鉴权机制。该服务直接暴露在公网环境,存在以下风险:

1、未授权访问:未授权用户能够随意访问模型,并利用特定工具直接对模型及其数据进行操作,攻击者无需认证即可调用模型服务、获取模型信息,甚至通过恶意指令删除模型文件或窃取数据。

2、数据泄露:通过特定接口可访问并提取模型数据,引发数据泄露风险。如:通过/api/show接口,攻击者能够获取模型的license等敏感信息,以及其他接口获取已部署模型的相关敏感数据信息。

3、攻击者可利用Ollama框架历史漏洞(CVE-2024-39720/39722/39719/39721),直接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作,造成模型服务的核心数据、算法完整性和运行稳定性面临安全风险。


  • 白嫖算力:拿你的GPU挖矿或者跑他们自己的模。
  • 偷数据:你喂给模型的隐私文件,比如公司机密、个人日记,全被打包带走。
  • 搞破坏:往模型里塞点"毒数据"。


更吓人的是,奇安信的鹰图平台测了下,全国有8971个跑Ollama的服务器,其中88.9%直接暴露在网上。更别提有些历史漏洞(比如CVE-2024-37032),让黑客能直接"投毒",接调用模型接口实施数据投毒、参数窃取、恶意文件上传及关键组件删除等操作,造成模型服务的核心数据、算法完整性和运行稳定性面临安全风险。


Ollama的设计初衷是"傻瓜式操作",默认监听所有网络接口(0.0.0.0:11434),开箱即用。但是很多小伙伴部署时,不是懒得改配置,就是压根不知道还能改。


专家建议


国家网络安全通报中心和专家给了建议:锁端口、设防火墙、加认证、勤更新。


国家网络安全通报中心说了:


二、安全加固建议

1、限制Ollama监听范围:仅允许11434端口本地访问,并验证端口状态。

2、配置防火墙规则:对公网接口实施双向端口过滤,阻断11434端口的出入站流量。

3、实施多层认证与访问控制:启用API密钥管理,定期更换密钥并限制调用频率。部署IP白名单或零信任架构,仅授权可信设备访问。

4、禁用危险操作接口:如push/delete/pull等,并限制chat接口的调用频率以防DDoS攻击。

5、历史漏洞修复:及时更新Ollama至安全版本,修复已知安全漏洞。

目前,已有大量存在此类安全隐患的服务器暴露在互联网上。建议广大用户加强隐患排查,及时进行安全加固,发现遭网络攻击情况第一时间向当地公安网安部门报告,配合公安网安部门开展调查处置工作。


限制端口访问


Windows用户:右键"此电脑" > "属性" > "高级系统设置" > "环境变量",加个新变量:


  • 名字:OLLAMA_HOST
  • 值:127.0.0.1:11434


重启Ollama(任务管理器关进程再开)


Linux用户:编辑服务文件(一般在/etc/systemd/system/ollama.service),加一行:


Environment="OLLAMA_HOST=127.0.0.1:11434"


保存后敲:


sudo systemctl daemon-reload
sudo systemctl restart ollama


配防火墙


Windows:打开"Windows Defender 防火墙" > "高级设置" > "入站规则",新建规则:


  • 类型:端口
  • 协议:TCP
  • 端口:11434
  • 操作:阻止


Linux:用ufw简单粗暴:


sudo ufw deny 11434
sudo ufw reload


设个密码


用Nginx加个"密码锁"。装Nginx:


sudo apt update
sudo apt install nginx


配置(新建如下文件

/etc/nginx/sites-available/ollama):


server {
listen 80;
server_name 你域名或IP;
location / {
proxy_pass http://127.0.0.1:11434;
auth_basic "谁啊?报暗号!";
auth_basic_user_file /etc/nginx/.htpasswd;
}
}


设置用户密码,比如"小明":


sudo htpasswd -c /etc/nginx/.htpasswd 小明


输入密码保存,再激活:


sudo ln -s /etc/nginx/sites-available/ollama /etc/nginx/sites-enabled/
sudo systemctl restart nginx


打补丁


Ollama老版本漏洞一堆。


去官网(ollama.com)下最新版,Linux直接:


curl -fsSL https://ollama.com/install.sh | sudo bash


排查


敲这行看看端口咋样:


netstat -tuln | grep 11434


如果显示0.0.0.0,说明还是大门全开,赶紧按上面改!


还有一些提示



光靠上面还不够,还要记得备份和监控:


  • 备份数据:模型和训练资料存个副本。
  • 盯着流量:装个Wireshark,像查水表一样看看谁在偷流量。
  • 多看看安全教程,比如“字节笔记本微信公众号”。



文章来自微信公众号 “ 字节笔记本 ”,作者 node


Ollama有安全漏洞! 国家网络安全通报中心紧急通报




AITNT-国内领先的一站式人工智能新闻资讯网站