CVE-2025-32444 — 神龙十问 AI 深度分析摘要
CVSS 10.0 · Critical
本页是神龙十问 AI 深度分析的
摘要版。完整版(更长回答、追问、相关漏洞)需
登录查看 →Q1这个漏洞是什么?(本质+后果)
🚨 **本质**:vLLM 使用基于 **pickle** 的序列化机制。 💥 **后果**:攻击者可利用此缺陷实现 **远程代码执行 (RCE)**,彻底接管服务器。
Q2根本原因?(CWE/缺陷点)
🔍 **CWE**:CWE-502 (反序列化不可信数据)。 📍 **缺陷点**:vLLM 在处理分布式 KV 传输时,直接反序列化来自不可信源的 pickle 数据。
Q3影响谁?(版本/组件)
🎯 **产品**:vLLM (LLM 推理引擎)。 📦 **版本**:**0.6.5 至 0.8.5** (不含 0.8.5)。 🏢 **厂商**:vllm-project。
Q4黑客能干啥?(权限/数据)
👑 **权限**:获得 **系统级权限** (Server-side)。 📂 **数据**:可读取/修改任意文件,控制整个推理服务进程,甚至横向移动。
Q5利用门槛高吗?(认证/配置)
⚡ **门槛**:**极低**。 🔓 **认证**:无需认证 (PR:N)。 🌐 **网络**:远程利用 (AV:N)。 🎯 **复杂度**:低 (AC:L)。
Q6有现成Exp吗?(PoC/在野利用)
🧪 **PoC**:**有**。 🔗 **链接**:GitHub 仓库 `stuxbench/vLLM-CVE-2025-32444` 提供完整利用代码和测试脚本。
Q7怎么自查?(特征/扫描)
🔎 **自查**:检查 vLLM 版本是否在 **0.6.5-0.8.5** 区间。 📝 **代码**:搜索代码中是否存在 `pickle.loads` 或相关反序列化操作,特别是在 `kv_pipe` 模块。
Q8官方修了吗?(补丁/缓解)
🛡️ **状态**:**已修复**。 📅 **披露**:2025-04-30 公布。 🔗 **详情**:参考 GitHub Security Advisories (GHSA-hj4w-hm2g-p6w5)。
Q9没补丁咋办?(临时规避)
🚧 **临时规避**: 1. **升级**至最新安全版本。 2. 若无法升级,**禁用**受影响的分布式 KV 传输功能。 3. 严格限制 vLLM 服务暴露的网络访问。
Q10急不急?(优先级建议)
🔥 **优先级**:**紧急 (Critical)**。 ⚠️ **建议**:CVSS 评分极高 (H/H/H),且 PoC 公开。请立即升级或应用缓解措施,防止被自动化攻击。