Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Um destino de computação é um recurso ou ambiente de computação designado onde você executa seu script de treinamento ou hospeda sua implantação de serviço. Esse local pode ser sua máquina local ou um recurso de computação baseado em nuvem. O uso de destinos de computação facilita a alteração posterior do ambiente de computação sem a necessidade de alterar o código.
O Azure Machine Learning suporta diferentes alvos de computação. Em um ciclo de vida típico de desenvolvimento de modelo, você pode:
- Comece por desenvolver e experimentar uma pequena quantidade de dados. Nesta etapa, use seu ambiente local, como um computador local ou uma máquina virtual (VM) baseada em nuvem, como seu destino de computação.
- Aumente a escala para dados maiores ou faça treinamento distribuído usando um desses destinos de computação de treinamento.
- Depois que seu modelo estiver pronto, implante-o em um ambiente de hospedagem na Web com um desses destinos de computação de implantação.
Anexas os recursos de computação que usas para os teus alvos de computação a um espaço de trabalho. Os utilizadores do espaço de trabalho partilham recursos computacionais para além da máquina local.
Treinamento de alvos computacionais
À medida que expandes a tua formação em conjuntos de dados maiores ou realizas formação distribuída, utiliza o Azure Machine Learning compute para criar um cluster de nó único ou multinós que se adapta automaticamente cada vez que submetes uma tarefa. Você também pode anexar seu próprio recurso de computação, embora o suporte para diferentes cenários possa variar.
Podes reutilizar alvos de cálculo de um trabalho de treino para outro. Por exemplo, depois de anexar uma VM remota ao seu espaço de trabalho, você pode reutilizá-la para vários trabalhos.
Para pipelines de aprendizado de máquina, use a etapa apropriada de pipeline para cada destino de computação.
Você pode usar qualquer um dos seguintes recursos como alvo de computação para o treino para a maioria das tarefas. Nem todos os recursos podem ser usados para aprendizado de máquina automatizado, pipelines de aprendizado de máquina ou designer. O Azure Databricks pode ser usado como recurso de treino para execuções locais e pipelines de aprendizagem automática, mas não como alvo remoto para outros treinos.
| Objetivos de formação | Aprendizagem automática de máquina | Pipelines de aprendizado de máquina | Azure Machine Learning designer |
|---|---|---|---|
| Cluster de computação do Azure Machine Learning | Sim | Sim | Sim |
| Azure Machine Learning computação sem servidor | Sim | Sim | Sim |
| Instância de Computação do Azure Machine Learning | Sim (através do SDK) | Sim | Sim |
| Azure Machine Learning Kubernetes | Sim | Sim | |
| VM remota | Sim | Sim | |
| Pools do Apache Spark (pré-visualização) | Sim (somente no modo local do SDK) | Sim | |
| Azure Databricks | Sim (somente no modo local do SDK) | Sim | |
| Azure Data Lake Analytics | Sim | ||
| Azure HDInsight | Sim | ||
| Azure Batch | Sim |
| Objetivos de formação | Aprendizagem automática de máquina | Pipelines de aprendizado de máquina | Azure Machine Learning designer |
|---|---|---|---|
| Computador local | Sim | ||
| Cluster de computação do Azure Machine Learning | Sim | Sim | Sim |
| Instância de Computação do Azure Machine Learning | Sim (através do SDK) | Sim | Sim |
| Azure Machine Learning Kubernetes | Sim | Sim | |
| VM remota | Sim | Sim | |
| Pools do Apache Spark (prévia) | Sim (somente no modo local do SDK) | Sim | |
| Azure Databricks | Sim (somente no modo local do SDK) | Sim | |
| Azure HDInsight | Sim | ||
| Azure Batch | Sim |
Gorjeta
A instância de computação tem um disco do sistema operativo de 120 GB. Se você ficar sem espaço em disco, use o terminal para limpar pelo menos 1-2 GB antes de parar ou reiniciar a instância de computação.
Alvos de computação para inferências
Quando faz inferência, o Azure Machine Learning cria um contentor Docker que aloja o modelo e os recursos associados necessários para o utilizar. Este contentor é utilizado num destino de computação.
O destino de computação que se utiliza para hospedar o seu modelo afeta o custo e a disponibilidade do ponto final implantado. Use esta tabela para escolher um destino de computação apropriado.
| Alvo de processamento | Utilizado para | Suporte de GPU | Descrição |
|---|---|---|---|
| Azure Machine Learning endpoints | Inferência em tempo real Inferência em Batch |
Sim | Cálculos totalmente gerenciados para computação em tempo real (endpoints online gerenciados) e pontuação em lote (endpoints em lote) em computação sem servidor. |
| Azure Machine Learning Kubernetes | Inferência em tempo real Inferência em Batch |
Sim | Execute cargas de trabalho de inferência em clusters Kubernetes locais, na nuvem e de borda. |
| Alvo de processamento | Utilizado para | Suporte de GPU | Descrição |
|---|---|---|---|
| Serviço Web local | Teste/depuração | Use para testes limitados e solução de problemas. A aceleração de hardware depende do uso de bibliotecas no sistema local. | |
| Azure Machine Learning Kubernetes | Inferência em tempo real | Sim | Execute cargas de trabalho de inferência na nuvem. |
| Azure Container Instances | Inferência em tempo real Recomendado apenas para fins de desenvolvimento/teste. |
Use para cargas de trabalho baseadas em CPU de baixa escala que exigem menos de 48 GB de RAM. Não precisas de gerir um cluster. Adequado apenas para modelos com menos de 1 GB de tamanho. Suportado na ferramenta de design. |
Nota
Ao escolher um SKU de cluster, primeiro aumente a escala e depois amplie. Começa com uma máquina que tenha 150% da RAM que o teu modelo precisa, faz um perfil do resultado e encontra uma máquina com o desempenho que precisas. Quando aprenderes isso, aumenta o número de máquinas para se adequar à tua necessidade de inferência contemporânea.
Azure Machine Learning compute (gerenciado)
O Azure Machine Learning cria e gere os recursos de computação geridos. Esse tipo de computação é otimizado para cargas de trabalho de aprendizado de máquina. Azure Machine Learning clusters de computação, computação sem servidor e instâncias compute são as únicas computações geridas.
Não é necessário criar computação sem servidor. Pode criar instâncias ou clusters de computação de Azure Machine Learning a partir de:
- Azure Machine Learning studio
- O SDK Python e a Azure CLI:
- Um modelo do Azure Resource Manager. Para um modelo de exemplo, veja Criar um cluster de computação Azure Machine Learning.
Nota
Em vez de criar um cluster de computação, utilize computação serverless para delegar a gestão do ciclo de vida de computação ao Azure Machine Learning.
Quando cria estes recursos de computação, eles tornam-se automaticamente parte do seu espaço de trabalho, ao contrário de outros tipos de alvos de computação.
| Capacidade | Cluster de computação | Instância de computação |
|---|---|---|
| Cluster de nó único ou de vários nós | ✓ | Cluster de nó único |
| Dimensiona automaticamente cada vez que você envia um trabalho | ✓ | |
| Gerenciamento automático de cluster e agendamento de tarefas | ✓ | ✓ |
| Suporte para recursos de CPU e GPU | ✓ | ✓ |
Nota
Para evitar cobranças quando a computação estiver ociosa:
- Para um cluster de computação
, verifique se o número mínimo de nós está definido como 0 ou use serverless . - Para uma instância de computação, habilite o desligamento ocioso. Embora parar a instância de cálculo interrompa a faturação das horas de cálculo, continua a pagar pelo disco, endereço IP público e balanceador de carga padrão.
Série e tamanhos de VM suportados
Importante
Se sua instância de computação ou clusters de computação forem baseados em qualquer uma dessas séries, recrie com outro tamanho de VM.
Estas séries se aposentaram em 31 de agosto de 2023:
Estas séries serão descontinuadas em 31 de agosto de 2024:
Estas séries foram retiradas a 30 de setembro de 2025:
Quando seleciona o tamanho de um nó para um recurso de computação gerido no Azure Machine Learning, pode escolher entre alguns tamanhos selecionados de VM disponíveis no Azure. O Azure oferece uma variedade de tamanhos para Linux e Windows para diferentes cargas de trabalho. Para mais informações, consulte Tipos e tamanhos de VMs.
Há algumas exceções e limitações para escolher um tamanho de VM:
- O Azure Machine Learning não suporta algumas séries de VMs.
- Algumas séries de VMs, como GPUs e outras SKUs especiais, podem não aparecer inicialmente na sua lista de VMs disponíveis. Mas você ainda pode usá-los, depois de solicitar uma alteração de cota. Para obter mais informações sobre como solicitar cotas, consulte Solicitar aumentos de cota e limite.
Consulte a tabela a seguir para saber mais sobre as séries suportadas.
| Série VM suportada | Categoria | Apoiado por |
|---|---|---|
| DDSv4 | Fins gerais | Clusters de computação e instância |
| DV2 | Fins gerais | Clusters de computação e instância |
| DV3 | Fins gerais | Clusters de computação e instância |
| DSv2 | Fins gerais | Clusters de computação e instância |
| DSv3 | Fins gerais | Clusters de computação e instância |
| EAv4 | Com otimização de memória | Clusters de computação e instância |
| Ev3 | Com otimização de memória | Clusters de computação e instância |
| ESv3 | Com otimização de memória | Clusters de computação e instância |
| FSv2 | Otimizado para computação | Clusters de computação e instância |
| FX | Otimizado para computação | Clusters de computação |
| H | Computação de elevado desempenho | Clusters de computação e instância |
| HB | Computação de elevado desempenho | Clusters de computação e instância |
| HBv2 | Computação de elevado desempenho | Clusters de computação e instância |
| HBv3 | Computação de elevado desempenho | Clusters de computação e instância |
| HC | Computação de elevado desempenho | Clusters de computação e instância |
| LSv2 | Com otimização de armazenamento | Clusters de computação e instância |
| M | Com otimização de memória | Clusters de computação e instância |
| NC | GPU | Clusters de computação e instância |
| Promoção NC | GPU | Clusters de computação e instância |
| NCv2 | GPU | Clusters de computação e instância |
| NCv3 | GPU | Clusters de computação e instância |
| ND | GPU | Clusters de computação e instância |
| NDv2 | GPU | Clusters de computação e instância |
| NV | GPU | Clusters de computação e instância |
| NVv3 | GPU | Clusters de computação e instância |
| NCasT4_v3 | GPU | Clusters de computação e instância |
| NDasrA100_v4 | GPU | Clusters de computação e instância |
| ND-H100-v5 | GPU | Clusters de computação e instância |
| ND-H200-v5 | GPU | Clusters de computação e instância |
Embora o Azure Machine Learning suporte estas séries de VMs, podem não estar disponíveis em todas as regiões do Azure. Para verificar se as séries de VM estão disponíveis, consulte Produtos disponíveis por região.
Nota
O Azure Machine Learning não suporta todos os tamanhos de VM que o Azure Compute suporta. Para listar os tamanhos de VM disponíveis, use o seguinte método:
Nota
O Azure Machine Learning não suporta todos os tamanhos de VM que o Azure Compute suporta. Para listar os tamanhos de VM disponíveis suportados por tipos de VM de computação específicos, use um dos seguintes métodos:
Se você usar os destinos de computação habilitados para GPU, é importante garantir que os drivers CUDA corretos estejam instalados no ambiente de treinamento. Use a tabela a seguir para determinar a versão CUDA correta a ser usada:
| Arquitetura GPU | Azure série VM | Versões CUDA suportadas |
|---|---|---|
| Ampere | NDA100_v4 | 11.0+ |
| Turing | NCT4_v3 | 10.0+ |
| Região do Volta | NCv3, NDv2 | 9.0+ |
| Pascal | NCv2, ND | 9.0+ |
| Maxwell • | NV, NVv3 | 9.0+ |
| Kepler | NC, NC Promoção | 9.0+ |
Além de garantir que a versão CUDA e o hardware sejam compatíveis, certifique-se também de que a versão CUDA é compatível com a versão da estrutura de aprendizado de máquina que você está usando:
- Para o PyTorch, verifique a compatibilidade visitando a página de versões anteriores do PyTorch.
- Para o TensorFlow, verifique a compatibilidade visitando a página de compilação a partir do código-fonte do TensorFlow.
Isolamento de computação
O Azure Machine Learning Compute oferece tamanhos de VM que são isolados a um tipo de hardware específico e dedicados a um único cliente. Os tamanhos de VM isolados são mais adequados para cargas de trabalho que exigem um alto grau de isolamento das cargas de trabalho de outros clientes por motivos que incluem o cumprimento de requisitos normativos e de conformidade. Quando usas um tamanho isolado, a tua VM é a única a correr nessa instância de servidor específica.
As ofertas atuais de VM isoladas incluem:
- Standard_M128ms
- Standard_F72s_v2
- Standard_NC24s_v3
- Standard_NC24rs_v3 (compatível com RDMA)
Para mais informações sobre isolamento, consulte Isolamento na Azure cloud pública.
Computação não gerenciada
Azure Machine Learning não gere um alvo de computação não gerido. Crias este tipo de alvo de computação fora do Azure Machine Learning e depois liga-o ao teu espaço de trabalho. Pode ser necessário tomar medidas extra para manter recursos de computação não geridos ou para melhorar o desempenho das cargas de trabalho de aprendizagem automática.
O Azure Machine Learning suporta os seguintes tipos de computação não geridos:
- Máquinas virtuais remotas
- Azure HDInsight
- Azure Databricks
- Azure Data Lake Analytics
- Azure Kubernetes Service
- Azure Synapse Spark pool (obsoleto)
Para obter mais informações, consulte Gerenciar recursos de computação.