目标达成 感谢每一位支持者 — 我们达成了 100% 目标!

目标: 1000 元 · 已筹: 1000

100.0%

CVE-2026-7482 — 神龙十问 AI 深度分析摘要

CVSS 9.1 · Critical

Q1这个漏洞是什么?(本质+后果)

🚨 **本质**:Ollama 加载 GGUF 模型时,解析器未校验张量偏移/大小,导致**堆溢出读取**(Heap Buffer Over-read)。 💥 **后果**:直接**内存泄露**。攻击者可读取服务器堆内存中的敏感数据(API Key、环境变量、用户对话),甚至通过 `/api/push` 窃取模型工件。

Q2根本原因?(CWE/缺陷点)

🔍 **CWE**:CWE-125 (越界读取)。 📍 **缺陷点**: 1. `/api/create` 端点接受恶意 GGUF 文件。 2. `fs/ggml/gguf.go` 和 `server/quantization.go` (WriteTo) 中,**量化过程**未验证声明的张量大小是否超出文件实际长度。

Q3影响谁?(版本/组件)

📦 **受影响版本**:Ollama **< 0.17.1**。 🏢 **厂商/产品**:Ollama / Ollama。 ⚠️ **注意**:0.17.1 已发布修复版本。

Q4黑客能干啥?(权限/数据)

🕵️ **黑客能力**: 1. **数据泄露**:读取堆内存,获取 **API 密钥**、**系统提示词**、**并发用户对话**、**环境变量**。 2. **模型窃取**:通过 `/api/push` 将生成的恶意模型工件推送到攻击者控制的注册表。 3. **权限**:无需认证即可执行。

Q5利用门槛高吗?(认证/配置)

🚪 **利用门槛**:**极低**。 🔑 **认证**:默认 `/api/create` 和 `/api/push` **无身份验证**。 🌐 **网络**:虽默认绑定 `127.0.0.1`,但广泛存在 `OLLAMA_HOST=0.0.0.0` 配置,且已观察到**暴露于公网**的情况。

Q6有现成Exp吗?(PoC/在野利用)

📜 **Exp/PoC**:数据中未提供现成 PoC 链接。 🌍 **在野利用**:未提及在野利用情况。 🔗 **修复参考**:见 PR #14406 和 Commit 88d57d0。

Q7怎么自查?(特征/扫描)

🔎 **自查特征**: 1. 检查 Ollama 版本是否 **< 0.17.1**。 2. 检查配置是否设置 `OLLAMA_HOST=0.0.0.0` 或端口暴露给公网。 3. 监控 `/api/create` 和 `/api/push` 端点的异常流量(特别是上传 GGUF 文件)。

Q8官方修了吗?(补丁/缓解)

🛡️ **官方修复**:**已修复**。 📌 **版本**:Ollama **v0.17.1**。 🔗 **补丁**:PR #14406 (ggml: ensure tensor size is valid)。

Q9没补丁咋办?(临时规避)

🚧 **临时规避**: 1. **升级**:立即升级至 **v0.17.1** 或更高版本。 2. **网络隔离**:确保 Ollama 仅绑定 `127.0.0.1`,**不要**暴露 `0.0.0.0` 到公网。 3. **访问控制**:为 `/api/create` 和 `/api/push` 端点添加**身份验证**机制(如反向代理鉴权)。

Q10急不急?(优先级建议)

🔥 **优先级**:**高 (Critical)**。 ⚡ **理由**:CVSS 评分高 (AV:N/AC:L/PR:N/UI:N/S:U/C:H/I:N/A:H),**无需认证**,**无需交互**,直接导致**高机密性**和**高可用性**影响。若服务暴露公网,风险极大。