Compartir a través de


¿Qué son los destinos de computación en Azure Machine Learning?

Un destino de proceso es un entorno o recurso de proceso designado en el que se ejecuta el script de entrenamiento o se hospeda la implementación del servicio. Esta ubicación podría ser su equipo local o un recurso de proceso basado en la nube. El uso de los destinos de proceso facilita el cambio posterior del entorno de proceso sin tener que cambiar el código.

Azure Machine Learning admite diferentes objetivos de computación. En un ciclo de vida de desarrollo de modelos típico, puede:

  1. Comenzar desarrollando y experimentando con una pequeña cantidad de datos. En esta etapa, use su entorno local, como un equipo local o una máquina virtual (VM) basada en la nube, como destino de proceso.
  2. Escalar verticalmente a datos más grandes o realizar un entrenamiento distribuido mediante el uso de uno de estos destinos de proceso de entrenamiento.
  3. Después de que el modelo esté listo, impleméntelo en un entorno de hospedaje web con uno de estos destinos de proceso de implementación.

Adjunte los recursos informáticos que utiliza para sus objetivos de computación a un área de trabajo. Los usuarios del área de trabajo comparten recursos de proceso distintos de la máquina local.

Entrenamiento de destinos de proceso

A medida que escale su entrenamiento en conjuntos de datos más grandes o realice entrenamiento distribuido, use los recursos de cómputo de Azure Machine Learning para crear un clúster de nodo único o multinodo que escala automáticamente cada vez que envía trabajos. También puede adjuntar su propio recurso de proceso, aunque el soporte técnico para escenarios distintos puede variar.

Puede reutilizar los destinos de proceso de un trabajo de entrenamiento al siguiente. Por ejemplo, después de adjuntar una VM remota al área de trabajo, puede reutilizarla para varios trabajos.

En el caso de las canalizaciones de aprendizaje automático, use el paso de canalización adecuado para cada destino de proceso.

Puede usar cualquiera de los siguientes recursos para un destino de proceso de entrenamiento para la mayoría de los trabajos. No todos los recursos se pueden usar para el aprendizaje automático automatizado, canalizaciones de aprendizaje automático o el diseñador. Azure Databricks se puede usar como un recurso de entrenamiento para ejecuciones locales y canalizaciones de aprendizaje automático, pero no como destino remoto para otro entrenamiento.

Destinos de entrenamiento Aprendizaje automático automatizado Canalizaciones de aprendizaje automático Azure Machine Learning diseñador
Azure Machine Learning clúster de computación
Azure Machine Learning cómputo sin servidor
Azure Machine Learning instancia de cómputo Sí (mediante el SDK)
Azure Machine Learning Kubernetes
Máquina virtual remota  
Grupos de Apache Spark (versión preliminar) Sí (solo en el modo local del SDK)  
Azure Databricks Sí (solo en el modo local del SDK)  
Azure Data Lake Analytics    
Azure HDInsight    
Azure Batch    
Destinos de entrenamiento Aprendizaje automático automatizado Canalizaciones de aprendizaje automático Diseñador de Azure Machine Learning
Equipo local    
Azure Machine Learning clúster de cómputo
Azure Machine Learning instancia de cómputo Sí (mediante el SDK)
Azure Machine Learning Kubernetes
Máquina virtual remota  
Grupos de Apache Spark (versión preliminar) Sí (solo en el modo local del SDK)  
Azure Databricks Sí (solo en el modo local del SDK)  
Azure HDInsight    
Azure Batch    

Sugerencia

La instancia de proceso tiene un disco de sistema operativo de 120 GB. Si se queda sin espacio en disco, use el terminal para borrar al menos entre 1 y 2 GB antes de detener o reiniciar la instancia de proceso.

Destinos de proceso para inferencia

Al realizar la inferencia, Azure Machine Learning crea un contenedor de Docker que hospeda el modelo y los recursos asociados necesarios para usarlos. Utiliza este contenedor en un destino de proceso.

El destino de proceso que use para hospedar el modelo afecta al costo y la disponibilidad del punto de conexión implementado. Use esta tabla para elegir un destino de proceso adecuado.

Destino de proceso Se usa para Compatibilidad con GPU Descripción
Azure Machine Learning puntos de conexión Inferencia en tiempo real

Inferencia por lotes
Procesos totalmente administrados para puntuación en tiempo real (puntos de conexión en línea administrados) y por lotes (puntos de conexión por lotes) en proceso sin servidor.
Azure Machine Learning Kubernetes Inferencia en tiempo real

Inferencia por lotes
Ejecute cargas de trabajo de inferencia en clústeres de Kubernetes en el entorno local, en la nube y perimetrales.
Destino de proceso Se usa para Compatibilidad con GPU Descripción
Servicio web local Pruebas y depuración   Se usa para pruebas limitadas y solución de problemas. La aceleración de hardware depende del uso de bibliotecas en el sistema local.
Azure Machine Learning Kubernetes Inferencia en tiempo real Ejecute cargas de trabajo de inferencia en la nube.
Azure Container Instances Inferencia en tiempo real

Recomendado solo con fines de desarrollo y pruebas.
  Se usa para cargas de trabajo basadas en CPU a pequeña escala que requieren menos de 48 GB de RAM. No es necesario administrar un clúster.

Solo es adecuado para los modelos de menos de 1 GB de tamaño.

Se admite en el diseñador.

Nota

Al elegir una SKU de clúster, primero escale verticalmente y, a continuación, escale horizontalmente. Comience con una máquina que tenga un 150% de la RAM que requiere su modelo, analice el resultado y encuentre una máquina que tenga el rendimiento que necesita. Una vez que aprenda eso, aumente el número de máquinas que se ajusten a la necesidad de inferencia simultánea.

Implementación y puntuación de un modelo de Machine Learning mediante un punto de conexión en línea.

Deploy machine learning models to Azure.

computación de Azure Machine Learning (gestionada)

Azure Machine Learning crea y administra los recursos de proceso administrados. Dicho proceso está optimizado para cargas de trabajo de aprendizaje automático. Azure Machine Learning clústeres de proceso, serverless compute y instancias de proceso son los únicos procesos administrados.

No es necesario crear cómputo sin servidor. Puede crear Azure Machine Learning instancias de proceso o clústeres de proceso desde:

Nota

En lugar de crear un clúster de proceso, use serverless compute para descargar la administración del ciclo de vida de proceso en Azure Machine Learning.

Al crear estos recursos de proceso, se convierten automáticamente en parte del área de trabajo, a diferencia de otros tipos de destinos de proceso.

Capacidad Clúster de proceso Instancia de proceso
Clúster de nodo único o de varios nodos Clúster de un solo nodo
Se escala automáticamente cada vez que se envía un trabajo
Administración del clúster automático y programación de trabajos
Es compatible con recursos de CPU y GPU

Nota

Para evitar cargos cuando el proceso está inactivo:

  • Para un clúster de proceso, asegúrese de que el número mínimo de nodos esté establecido en 0 o use el proceso sin servidor.
  • Para una instancia de proceso, habilite el apagado inactivo. Al detener la instancia de cómputo, detiene la facturación por horas de cómputo, pero se sigue pagando por el disco, la dirección IP pública y el equilibrador de carga estándar.

Series y tamaños de maquina virtual compatibles

Importante

Si la instancia de proceso o los clústeres de proceso se basan en cualquiera de estas series, vuelva a crear con otro tamaño de máquina virtual.

Estas series se retiraron el 31 de agosto de 2023:

Estas series se retiraron el 31 de agosto de 2024:

Esta serie se retiró el 30 de septiembre de 2025:

Al seleccionar un tamaño de nodo para un recurso de proceso administrado en Azure Machine Learning, puede elegir entre seleccionar tamaños de máquina virtual disponibles en Azure. Azure ofrece una gama de tamaños para Linux y Windows para diferentes cargas de trabajo. Para más información, consulte Tipos y tamaños de máquina virtual.

Hay algunas excepciones y limitaciones a la hora de elegir un tamaño de máquina virtual:

  • Azure Machine Learning no admite algunas series de máquinas virtuales.
  • Algunas series de VM, como GPU y otras SKU especiales, pueden no aparecer inicialmente en la lista de VM disponibles. Pero todavía puede usarlas, una vez que solicite un cambio de cuota. Para obtener más información sobre cómo solicitar cuotas, consulte Solicitud de cuota y límite aumenta.

Consulte la tabla siguiente para más información sobre las series admitidas.

Series de maquinas virtuales compatibles Categoría Compatible con
DDSv4 Uso general Clústeres de proceso e instancia
Dv2 Uso general Clústeres de proceso e instancia
Dv3 Uso general Clústeres de proceso e instancia
DSv2 Uso general Clústeres de proceso e instancia
DSv3 Uso general Clústeres de proceso e instancia
EAv4 Memoria optimizada Clústeres de proceso e instancia
Ev3 Memoria optimizada Clústeres de proceso e instancia
ESv3 Memoria optimizada Clústeres de proceso e instancia
FSv2 Proceso optimizado Clústeres de proceso e instancia
FX Proceso optimizado Clústeres de proceso
H Informática de alto rendimiento Clústeres de proceso e instancia
HB Informática de alto rendimiento Clústeres de proceso e instancia
HBv2 Informática de alto rendimiento Clústeres de proceso e instancia
HBv3 Informática de alto rendimiento Clústeres de proceso e instancia
HC Informática de alto rendimiento Clústeres de proceso e instancia
LSv2 Almacenamiento optimizado Clústeres de proceso e instancia
M Memoria optimizada Clústeres de proceso e instancia
NC Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NC Promo Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NCv2 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NCv3 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
ND Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NDv2 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NV Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NVv3 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NCasT4_v3 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
NDasrA100_v4 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
ND-H100-v5 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia
ND-H200-v5 Unidad de Procesamiento Gráfico (GPU) Clústeres de proceso e instancia

Aunque Azure Machine Learning admite estas series de máquinas virtuales, es posible que no estén disponibles en todas las regiones de Azure. Para comprobar si las series de máquinas virtuales están disponibles o no, consulte Productos disponibles por región.

Nota

Azure Machine Learning no admite todos los tamaños de máquina virtual que Azure Compute admite. Para enumerar los tamaños de máquina virtual disponibles, use el siguiente método:

  • REST API

Nota

Azure Machine Learning no admite todos los tamaños de máquina virtual que Azure Compute admite. Para enumerar los tamaños de máquina virtual disponibles admitidos por tipos de máquina virtual de proceso específicos, use uno de los métodos siguientes:

Si usa los destinos de proceso habilitados para GPU, es importante asegurarse de que se han instalado los controladores CUDA correctos en el entorno de entrenamiento. Use la tabla siguiente para determinar la versión correcta de CUDA que se usará:

Arquitectura de GPU Azure series de máquinas virtuales Versiones de CUDA admitidas
Amperio NDA100_v4 Versión 11.0 y posteriores
Turing NCT4_v3 10.0+
Volta NCv3, NDv2 9.0+
Pascal NCv2, ND 9.0+
Maxwell NV, NVv3 9.0+
Kepler NC, NC Promoción 9.0+

Además de garantizar que la versión de CUDA y el hardware sean compatibles, también asegúrese de que la versión de CUDA sea compatible con la versión del marco de aprendizaje automático que utiliza:

  • Para PyTorch, compruebe la compatibilidad visitando la página versiones anteriores de PyTorch.
  • Para TensorFlow, consulte la compatibilidad visitando la compilación de TensorFlow desde la página de origen.

Aislamiento de proceso

Azure Machine Learning de cómputo ofrece tamaños de VM aislados para un tipo de hardware específico y dedicados a un único cliente. Los tamaños de máquina virtual aislados son más adecuados para cargas de trabajo que requieren un alto grado de aislamiento de otros clientes por motivos como, por ejemplo, el cumplimiento normativo y de requisitos legales. Cuando se usa un tamaño aislado, la máquina virtual es la única que se ejecuta en esa instancia de servidor específica.

Las ofertas de máquinas virtuales aisladas actuales incluyen:

  • Standard_M128ms
  • Standard_F72s_v2
  • Standard_NC24s_v3
  • Standard_NC24rs_v3 (compatible con RDMA)

Para obtener más información sobre el aislamiento, consulte Isolation en la nube pública Azure.

Proceso no administrado

Azure Machine Learning no administra un destino de proceso unmanaged. Puede crear este tipo de destino de proceso fuera de Azure Machine Learning y, a continuación, adjuntarlo al área de trabajo. Es posible que tenga que realizar pasos adicionales para mantener recursos de proceso no administrados o para mejorar el rendimiento de las cargas de trabajo de aprendizaje automático.

Azure Machine Learning admite los siguientes tipos de proceso no administrados:

  • Máquinas virtuales remotas
  • Azure HDInsight
  • Azure Databricks
  • Azure Data Lake Analytics
  • Kubernetes

Para más información, consulte Administración de recursos de proceso.

  • Implementación y puntuación de un modelo de Machine Learning mediante un punto de conexión en línea