CVE-2025-29783

vLLM is a high-throughput and memory-efficient inference and serving engine for LLMs. When vLLM is configured to use Mooncake, unsafe deserialization exposed directly over ZMQ/TCP on all network interfaces will allow attackers to execute remote code on distributed hosts. This is a remote code execution vulnerability impacting any deployments using Mooncake to distribute KV across distributed hosts. This vulnerability is fixed in 0.8.0.
Configurations

No configuration.

History

22 Mar 2025, 01:15

Type Values Removed Values Added
CVSS v2 : unknown
v3 : 10.0
v2 : unknown
v3 : 9.0
Summary
  • (es) vLLM es un motor de inferencia y servicio de alto rendimiento y eficiente en el uso de memoria para LLM. Cuando vLLM se configura para usar Mooncake, la deserialización insegura expuesta directamente a través de ZMQ/TCP en todas las interfaces de red permitirá a los atacantes ejecutar código remoto en hosts distribuidos. Esta vulnerabilidad de ejecución remota de código afecta a cualquier implementación que use Mooncake para distribuir KV entre hosts distribuidos. Esta vulnerabilidad se corrigió en la versión 0.8.0.

19 Mar 2025, 16:15

Type Values Removed Values Added
New CVE

Information

Published : 2025-03-19 16:15

Updated : 2025-03-22 01:15


NVD link : CVE-2025-29783

Mitre link : CVE-2025-29783

CVE.ORG link : CVE-2025-29783


JSON object : View

Products Affected

No product.

CWE
CWE-502

Deserialization of Untrusted Data