目标达成 感谢每一位支持者 — 我们达成了 100% 目标!

目标: 1000 元 · 已筹: 1000

100.0%

CVE-2025-32444 — 神龙十问 AI 深度分析摘要

CVSS 10.0 · Critical

Q1这个漏洞是什么?(本质+后果)

🚨 **本质**:vLLM 使用基于 **pickle** 的序列化机制。 💥 **后果**:攻击者可利用此缺陷实现 **远程代码执行 (RCE)**,彻底接管服务器。

Q2根本原因?(CWE/缺陷点)

🔍 **CWE**:CWE-502 (反序列化不可信数据)。 📍 **缺陷点**:vLLM 在处理分布式 KV 传输时,直接反序列化来自不可信源的 pickle 数据。

Q3影响谁?(版本/组件)

🎯 **产品**:vLLM (LLM 推理引擎)。 📦 **版本**:**0.6.5 至 0.8.5** (不含 0.8.5)。 🏢 **厂商**:vllm-project。

Q4黑客能干啥?(权限/数据)

👑 **权限**:获得 **系统级权限** (Server-side)。 📂 **数据**:可读取/修改任意文件,控制整个推理服务进程,甚至横向移动。

Q5利用门槛高吗?(认证/配置)

⚡ **门槛**:**极低**。 🔓 **认证**:无需认证 (PR:N)。 🌐 **网络**:远程利用 (AV:N)。 🎯 **复杂度**:低 (AC:L)。

Q6有现成Exp吗?(PoC/在野利用)

🧪 **PoC**:**有**。 🔗 **链接**:GitHub 仓库 `stuxbench/vLLM-CVE-2025-32444` 提供完整利用代码和测试脚本。

Q7怎么自查?(特征/扫描)

🔎 **自查**:检查 vLLM 版本是否在 **0.6.5-0.8.5** 区间。 📝 **代码**:搜索代码中是否存在 `pickle.loads` 或相关反序列化操作,特别是在 `kv_pipe` 模块。

Q8官方修了吗?(补丁/缓解)

🛡️ **状态**:**已修复**。 📅 **披露**:2025-04-30 公布。 🔗 **详情**:参考 GitHub Security Advisories (GHSA-hj4w-hm2g-p6w5)。

Q9没补丁咋办?(临时规避)

🚧 **临时规避**: 1. **升级**至最新安全版本。 2. 若无法升级,**禁用**受影响的分布式 KV 传输功能。 3. 严格限制 vLLM 服务暴露的网络访问。

Q10急不急?(优先级建议)

🔥 **优先级**:**紧急 (Critical)**。 ⚠️ **建议**:CVSS 评分极高 (H/H/H),且 PoC 公开。请立即升级或应用缓解措施,防止被自动化攻击。