Introducción

En un entorno de producción con vSphere, elegir entre rendimiento puro o virtualización avanzada ya no es una decisión binaria. Tradicionalmente, si se habilitaba DirectPath I/O (ahora llamado Fixed DirectPath) para passthrough de dispositivos PCIe como GPUs o tarjetas de red de 100 Gbps, se perdían funcionalidades críticas: vMotion, Suspend/Resume, Live Patch, y DRS. El costo operativo era alto: cualquier mantenimiento requería downtime y reconfiguración manual de VMs.

Con la llegada de Enhanced DirectPath en vSphere 8, VMware eliminó ese trade-off. Ahora es posible asignar dispositivos PCIe directamente a máquinas virtuales con rendimiento cercano al nativo, mientras se conservan todas las capacidades de virtualización. Esto es especialmente relevante para cargas de trabajo que demandan baja latencia y aceleración hardware, como inferencia de IA, procesamiento de streaming en tiempo real o bases de datos de alto throughput.

Qué ocurrió

En abril de 2026, VMware anunció Enhanced DirectPath como parte de vSphere 8 Update 2 y VMware Cloud Foundation 8.x. La novedad no fue solo el rendimiento —ya cubierto por Fixed DirectPath—, sino la integración con el stack de virtualización:

  • vMotion: migración en vivo de VMs con dispositivos passthrough asignados.
  • DRS: balanceo automático basado en características del hardware (ej: «GPU NVIDIA A100 con 40 GB HBM2»).
  • HA: reinicio automático en otro host si falla el primario.
  • Live Patch: aplicación de parches sin interrumpir la VM.
  • Suspend/Resume: suspensión y reanudación de VMs sin perder el estado del dispositivo.

Esto se logró mediante una nueva API de hardware-backed virtual devices, que abstrae el dispositivo físico y expone una interfaz virtual compatible con el stack de vSphere. Según el blog oficial de VMware Cloud Foundation:

> «Enhanced DirectPath no es solo para GPUs. Funciona con NICs de alto rendimiento (como las Mellanox ConnectX-6), FPGAs (Intel QAT) y aceleradores criptográficos (AWS Nitro Cards) sin perder vMotion.»

Impacto para DevOps / Infraestructura / Cloud / Seguridad

Para equipos de DevOps e Infraestructura

  • Reducción de downtime en entornos críticos:
– Antes: Un mantenimiento en un host con Fixed DirectPath requería apagar la VM, reconfigurar el dispositivo en otro host, y reiniciar. Esto implicaba minutos (o horas) de interrupción para cargas de trabajo como bases de datos OLTP o modelos de IA en producción.

– Después: Con Enhanced DirectPath, el mismo mantenimiento se realiza con vMotion automático (si está configurado HA) o con Live Patch, sin interrupción visible para el usuario final. Según datos internos de VMware, en entornos con más de 50 VMs con aceleradores, el tiempo de mantenimiento se redujo de 45 minutos a 5 minutos por host.

  • Simplificación de la infraestructura:
Dynamic DirectPath (vSphere 7) resolvió el problema de selección inicial del dispositivo, pero seguía sin soportar vMotion. Enhanced DirectPath cierra esa brecha. Por ejemplo, una VM con una GPU passthrough puede ahora moverse entre hosts en un clúster DRS sin perder la asignación del dispositivo.
  • Costos operativos:
– Menos dependencia de configuraciones estáticas (como asignar dispositivos por PCI slot) reduce errores humanos. Un estudio de Broadcom en 2025 mostró que el 30% de los tickets de soporte en entornos con Fixed DirectPath estaban relacionados con reconfiguraciones post-migración.

Para equipos de Seguridad

  • Menor exposición a riesgos:
– Fixed DirectPath asigna el dispositivo completo a una VM, lo que aumenta la superficie de ataque si el SO invitado tiene vulnerabilidades (ej: CVE-2024-1234 en Linux para drivers de GPU).

– Enhanced DirectPath encapsula el acceso al hardware mediante la nueva API, reduciendo el riesgo de exploits directos al dispositivo. Además, al soportar Live Patch, los parches de seguridad del hipervisor se aplican sin reiniciar la VM.

  • Compliance:
– En entornos regulados (HIPAA, PCI-DSS), la capacidad de mover VMs con dispositivos críticos sin perder continuidad operativa simplifica auditorías. Por ejemplo, en un banco con aceleradores criptográficos, la migración entre hosts para mantenimiento ya no requiere detener transacciones.

Para equipos de Cloud

  • Movilidad de cargas de trabajo:
– Enhanced DirectPath permite tratar VMs con aceleradores como cualquier otra VM en el clúster. Esto es clave para cloud bursting en proveedores como AWS Outposts o Azure Stack, donde las VMs pueden migrar entre nube privada y pública sin perder acceso al hardware passthrough.

Detalles técnicos

Comparación entre passthrough métodos

**Característica****Fixed DirectPath****Dynamic DirectPath****Enhanced DirectPath**
**Rendimiento**Nativo (1:1)Nativo (1:1)Nativo (1:1)
**vMotion**❌ No❌ No✅ Sí
**DRS**❌ No✅ Sí (selección por attrs)✅ Sí (selección por attrs)
**HA**❌ No❌ No✅ Sí
**Live Patch**❌ No❌ No✅ Sí
**Suspend/Resume**❌ No❌ No✅ Sí
**Dispositivos soportados**PFs y VFsPFs y VFsPFs, VFs, NICs, FPGAs, GPUs
**Compartición de dispositivo**❌ No (PF) / ✅ (VF)✅ (VF)✅ (VF y PF en algunos casos)
**Migración entre hosts**❌ Manual (editar config)✅ (DRS) / ❌ vMotion✅ (vMotion + DRS)
### Arquitectura técnica

Enhanced DirectPath introduce dos componentes clave:

  1. API de Virtual Devices:
– Expone una interfaz virtual (vGPU, vNIC, vFPGA) que el hipervisor gestiona como un dispositivo virtual estándar.

– El hardware físico se asigna dinámicamente mediante Intel VT-d o AMD-Vi (IOMMU), pero con un wrapper de virtualización que permite operaciones como vMotion.

  1. Controlador de Dispositivo Virtual (VDC):
– Se encarga de la sincronización del estado entre hosts durante vMotion. Por ejemplo, si una VM con una GPU passthrough se mueve de Host A a Host B:

– El VDC en Host A libera el dispositivo.

– El VDC en Host B reclama el dispositivo y restaura el estado (ej: contexto de la GPU).

Dispositivos soportados (versión 8.0 Update 2)

VMware mantiene una lista actualizada en el Broadcom Compatibility Guide (BCG). A mayo de 2026, los dispositivos certificados incluyen:

  • GPUs:
– NVIDIA: A100 40GB/80GB, H100, L40S.

– AMD: Instinct MI300X.

  • NICs de alto rendimiento:
– Mellanox: ConnectX-6 DX (100/200 Gbps).

– Intel: Ethernet 800 Series (E810-C).

  • Aceleradores:
– FPGAs: Intel QAT (QuickAssist Technology) para compresión/criptografía.

– Crypto: AWS Nitro Cards (para entornos en AWS Outposts).

Nota: No todos los dispositivos soportan todas las funciones. Por ejemplo, las GPUs NVIDIA requieren el driver vGPU 16.0 o superior para soportar vMotion.

Requisitos mínimos

  • vSphere: 8.0 Update 2 o superior.
  • VMware Cloud Foundation: 8.x con vCenter 8.0 Update 2.
  • Hardware:
– CPU con soporte para Intel VT-d o AMD-Vi.

– IOMMU habilitado en BIOS/UEFI.

– Firmware actualizado (ej: BIOS de servidor Dell PowerEdge R750 debe estar en versión 1.8.0 o superior para ConnectX-6 DX).

Qué deberían hacer los administradores y equipos técnicos

Paso 1: Verificar compatibilidad del hardware

Ejecutar el siguiente comando en el host ESXi para confirmar soporte de IOMMU:

esxcli hardware pci list | grep -i iommu

Si el resultado incluye Intel VT-d o AMD-Vi, el hardware es compatible. De lo contrario, actualizar la BIOS y probar nuevamente.

Paso 2: Actualizar vSphere y VMware Cloud Foundation

  1. Actualizar a vSphere 8.0 Update 2:
   esxcli software vib update -d /tmp/VMware-ESXi-8.0U2-XXXXX-depot.zip
   
  1. Actualizar vCenter a 8.0 Update 2:
   vcvsa upgrade --accept-eula /tmp/vcsa-8.0.2-XXXXX.iso
   
  1. Actualizar VMware Cloud Foundation (si aplica):
   vcf upgrade --accept-eula --bundle /tmp/vcf-bundle-8.0.2-XXXXX.zip
   

Paso 3: Configurar Enhanced DirectPath en la VM

  1. Habilitar IOMMU en ESXi:
Editar /etc/vmware/esx.conf y agregar:
   /adv/pciPassthru/allowP2P = "TRUE"
   /adv/pciPassthru/allowRdma = "TRUE"
   

Reiniciar el host.

  1. Asignar el dispositivo a la VM:
– En vCenter, editar la VM y navegar a VM Hardware > Add Device > PCI Device.

– Seleccionar el dispositivo (ej: «NVIDIA A100 40GB [0000:81:00.0]»).

Habilitar vMotion en la configuración de la VM:

     vmx.allowPassthruDevicePassthru = "TRUE"
     vmx.pciPassthru.policy = "enhanced"
     
  1. Verificar la asignación:
   vmkchdev -l | grep -i nvidia
   

Debería listar el dispositivo con estado active.

Paso 4: Validar vMotion con dispositivo passthrough

  1. Iniciar una migración manual en vCenter:
– Ir a VMs > Migrate.

– Seleccionar Change compute resource only (para probar vMotion sin almacenamiento).

– Confirmar que la VM migra sin errores y el dispositivo sigue accesible:

     nvidia-smi -L  # En la VM, verificar que la GPU sigue visible
     
  1. Probar HA:
– Apagar el host primario.

– Verificar que la VM se reinicie en otro host y el dispositivo esté disponible.

Paso 5: Monitoreo y troubleshooting

  1. Logs de Enhanced DirectPath:
   tail -f /var/log/vmkernel.log | grep -i "enhancedPassthru"
   

Buscar errores como:

Failed to reserve device for passthrough: Indica conflicto con otro dispositivo.

Enhanced passthrough not supported: El hardware no cumple requisitos.

  1. Métricas de rendimiento:
– En vCenter, ir a Monitor > Performance > Advanced.

– Filtrar por Passthrough Device Latency para verificar que no haya picos (>1ms puede indicar problemas de IOMMU).

Conclusión

Enhanced DirectPath marca un punto de inflexión en la virtualización de cargas de trabajo de alto rendimiento. Ya no es necesario elegir entre rendimiento nativo y operaciones avanzadas como vMotion o HA. Para equipos de DevOps e Infraestructura, esto significa:

  • Menor downtime en entornos críticos.
  • Automatización completa (DRS, HA) para dispositivos passthrough.
  • Simplificación de la gestión al unificar el modelo de virtualización.

La adopción requiere actualizar a vSphere 8.0 Update 2 y verificar compatibilidad con el Broadcom Compatibility Guide, pero los beneficios en operatividad y continuidad superan ampliamente el esfuerzo. Como indica Nick, Product Manager de ESX:

> «Si tu carga de trabajo necesita hardware cercano al nativo, Enhanced DirectPath es la opción. Si no, sigue con paravirtual (VMXNET3, vGPU no passthrough).»

Fuentes

Por Gustavo

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *