深入解析Ollama高危漏洞:远程代码执行与模型安全风险
近期,开源AI模型部署工具Ollama曝出多项严重安全漏洞,引起了业界的广泛关注。其中,最为引人注目的是编号为CVE-2024-37032的远程代码执行(RCE)漏洞,CVSS评分高达9.1。这一漏洞允许攻击者在未授权的情况下,通过特制请求在服务器上执行任意代码,严重威胁系统安全。
漏洞背景
Ollama作为一款开源应用程序,旨在简化大型语言模型(LLM)在Windows、Linux和macOS设备上的本地部署和操作。然而,安全研究人员发现,Ollama在处理模型请求时存在路径遍历漏洞。攻击者可利用该漏洞,通过构造特定请求,绕过安全限制,访问或修改系统关键文件,甚至执行任意代码。
漏洞细节
在Ollama的`server/modelpath.go`代码中,`digest`参数未对用户输入进行有效过滤。攻击者通过`/api/pull`或`/api/push`接口提交包含路径穿越符(如`../../`)的请求,能够将恶意文件写入系统关键路径(如`/etc/ld.so.preload`),从而触发动态库劫持,实现远程代码执行。
潜在危害
1. 服务器完全控制:攻击者可植入后门,窃取模型数据或部署勒索软件,全面控制受影响的服务器。
2. 模型投毒与窃取:篡改或窃取AI模型,导致业务逻辑破坏或知识产权泄露。
3. 供应链攻击:作为企业AI服务基础组件的Ollama漏洞,可能被利用进行供应链攻击,危及内部系统安全。
修复建议
1. 升级至安全版本:官方已在0.1.34版本修复了该漏洞,建议用户尽快升级。
2. 启用身份验证:为Ollama服务配置强制认证机制,如API密钥或OAuth,防止未授权访问。
3. 网络隔离与访问控制:限制Ollama服务的公网暴露,仅在内网开放必要端口,并通过防火墙或WAF过滤异常请求。
结语
CVE-2024-37032的公开EXP和广泛影响,使其成为2024年AI领域最危险的漏洞之一。企业应立即采取升级、隔离、监控等多重防护措施,确保AI基础设施的安全,防止潜在攻击带来的严重后果。