Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O Microsoft Foundry Models é o seu destino único para descobrir, avaliar e implementar modelos de IA poderosos — quer esteja a construir um copilot personalizado, a criar um agente, a melhorar uma aplicação existente ou a explorar novas capacidades de IA.
Com os modelos de fundição, você pode:
- Explore um rico catálogo de modelos de ponta da Microsoft, OpenAI, DeepSeek, Hugging Face, Meta e muito mais.
- Compare e avalie modelos lado a lado usando tarefas do mundo real e seus próprios dados.
- Implante com confiança, graças às ferramentas integradas para ajuste fino, observabilidade e IA responsável.
- Escolha o seu caminho — traga o seu próprio modelo, use um hospedado ou integre de forma fluida com os serviços do Azure.
- Quer seja programador, data scientist ou arquiteto empresarial, a Foundry Models dá-lhe flexibilidade e controlo para construir soluções de IA que escalam — de forma segura, responsável e rápida.
A Foundry oferece um catálogo abrangente de modelos de IA. Existem mais de 1900+ modelos que vão desde Modelos de Fundação, Modelos de Raciocínio, Modelos de Linguagem Pequena, Modelos Multimodais, Modelos Específicos de Domínio, Modelos da Indústria e muito mais.
O nosso catálogo está organizado em duas categorias principais:
Compreender a distinção entre estas categorias ajuda-o a escolher os modelos certos com base nos seus requisitos específicos e objetivos estratégicos.
Modelos vendidos diretamente pela Azure
Estes são modelos que são hospedados e vendidos pela Microsoft sob os Termos de Produto da Microsoft. Estes modelos foram alvo de avaliações rigorosas e estão profundamente integrados no ecossistema de IA da Azure. Os modelos provêm de vários fornecedores de topo e oferecem integração melhorada, desempenho otimizado e suporte direto à Microsoft support, incluindo Acordos de Nível de Serviço (SLAs) de nível empresarial.
Características destes modelos diretos:
- Suporte oficial primário da Microsoft
- Elevado nível de integração com os serviços e infraestruturas do Azure
- Benchmarking e validação de desempenho extensivos
- Adesão aos padrões de IA responsável da Microsoft
- Escalabilidade, confiabilidade e segurança de nível empresarial
Esses modelos também têm a vantagem de uma taxa de transferência provisionada e flexível, o que significa que pode utilizar de forma flexível a sua quota e reservas em qualquer um desses modelos.
Modelos de Parceiros e Comunidade
Estes modelos constituem a grande maioria dos Modelos Foundry. Esses modelos são fornecidos por organizações terceirizadas confiáveis, parceiros, laboratórios de pesquisa e colaboradores da comunidade. Esses modelos oferecem recursos de IA especializados e diversificados, cobrindo uma ampla gama de cenários, indústrias e inovações.
Características dos Modelos de Parceiros e Comunidade:
- Desenvolvido e apoiado por parceiros externos e colaboradores da comunidade
- Gama diversificada de modelos especializados que atendem a nichos ou casos de uso amplos
- Normalmente validados pelos próprios fornecedores, com diretrizes de integração fornecidas pelo Azure
- Inovação impulsionada pela comunidade e rápida disponibilidade de modelos de ponta
- Integração padrão com IA do Azure, com suporte e manutenção geridos pelos respetivos fornecedores
Os modelos podem ser implantados como opções de implantação Managed Compute ou Standard (pay-go). O provedor de modelos seleciona como os modelos podem ser implantados.
Escolher entre modelos diretos e modelos de parceiros e modelos de comunidade
Ao selecionar modelos da Foundry Models, considere o seguinte:
- Caso de Uso e Requisitos: Modelos vendidos diretamente pela Azure são ideais para cenários que requerem integração profunda com o Azure, suporte garantido e SLAs empresariais. Os Modelos do Ecossistema Azure destacam-se em casos de uso especializados e cenários orientados pela inovação.
- Expectativas de Suporte: Os modelos vendidos diretamente pelo Azure vêm com suporte e manutenção robustos fornecidos pela Microsoft. Esses modelos são suportados por seus provedores, com diferentes níveis de SLA e estruturas de suporte.
- Inovação e Especialização: Modelos da Partners and Community oferecem acesso rápido a inovações especializadas e capacidades de nicho, frequentemente desenvolvidas por laboratórios de investigação líderes e fornecedores emergentes de IA.
Coleções de modelos
O catálogo de modelos organiza os modelos em diferentes coleções:
Modelos Azure OpenAI disponíveis exclusivamente em Azure: Principais modelos Azure OpenAI disponíveis através de uma integração com Azure OpenAI nos Modelos Foundry. A Microsoft suporta estes modelos e a sua utilização de acordo com os termos do produto e SLA para Azure OpenAI na Foundry Models.
Modelos abertos do hub Hugging Face: centenas de modelos do hub Hugging Face para inferência em tempo real com computação gerenciada. A Hugging Face cria e mantém modelos listados nesta coleção. Para obter ajuda, use o fórum Hugging Face ou o suporte Hugging Face. Saiba mais em Implementar modelos abertos com a Foundry.
Você pode enviar uma solicitação para adicionar um modelo ao catálogo de modelos usando este formulário.
Visão geral dos recursos do Catálogo de Modelos
O catálogo de modelos no portal Foundry é o ponto de encontro e utilização de uma vasta gama de modelos para construir aplicações de IA generativa. O catálogo de modelos apresenta centenas de modelos em diferentes fornecedores de modelos como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA e Hugging Face, incluindo modelos treinados pela Microsoft. Modelos de fornecedores diferentes da Microsoft são produtos não-Microsoft conforme definido nos Termos de Produto Microsoft e estão sujeitos aos termos fornecidos com os modelos.
Você pode pesquisar e descobrir modelos que atendam às suas necessidades por meio de pesquisa de palavras-chave e filtros. O catálogo de modelos também oferece a tabela de classificação de desempenho do modelo e métricas de benchmark para modelos selecionados. Podes acessá-los selecionando Navegar pelo placar de classificações e Comparar Modelos. Os dados de referência também podem ser acessados na guia Benchmark do cartão modelo.
Nos filtros do catálogo de modelos, você encontrará:
- Coleção: você pode filtrar modelos com base na coleção do provedor de modelos.
- Setor: você pode filtrar os modelos treinados em conjuntos de dados específicos do setor.
- Recursos: você pode filtrar recursos exclusivos do modelo, como raciocínio e chamada de ferramentas.
- Opções de implantação: você pode filtrar os modelos que oferecem suporte a opções de implantação específicas.
- Padrão: esta opção permite que você pague por chamada de API.
- Provisionado: ideal para a pontuação em tempo real de grandes volumes consistentes.
- Lote: mais adequado para trabalhos em lote com custo otimizado, e não latência. Nenhum suporte para ambiente de teste é fornecido para a implantação em lote.
- Computação gerida: esta opção permite-lhe implementar um modelo numa máquina virtual Azure. Você será cobrado por hospedagem e inferência.
- Tarefas de inferência: você pode filtrar modelos com base no tipo de tarefa de inferência.
- Ajustar tarefas: pode filtrar modelos com base no tipo de tarefa de ajustamento detalhado.
- Licenças: você pode filtrar modelos com base no tipo de licença.
No modelo de cartão, você encontrará:
- Fatos rápidos: você verá as principais informações sobre o modelo em um piscar de olhos.
- Detalhes: esta página contém informações detalhadas sobre o modelo, incluindo descrição, informações de versão, tipo de dados suportado, etc.
- Benchmarks: você encontrará métricas de benchmark de desempenho para modelos selecionados.
- Implantações existentes: se você já implantou o modelo, poderá encontrá-lo na guia Implantações existentes.
- Licença: você encontrará informações legais relacionadas ao licenciamento de modelos.
- Artifacts: este separador será exibido apenas para modelos abertos. Você pode ver os ativos do modelo e baixá-los através da interface do usuário.
Implantação de modelo: computação gerenciada e implantações padrão
Para além dos modelos Azure OpenAI, o catálogo de modelos oferece duas formas distintas de implementar modelos para o seu uso: computação gerida e implementações padrão.
As opções de implantação e os recursos disponíveis para cada modelo variam, conforme descrito nas tabelas a seguir. Saiba mais sobre o processamento de dados com as opções de implantação.
Capacidades das opções de implantação de modelo
| Caraterísticas | Computação sob gestão | Implantações padrão |
|---|---|---|
| Experiência de implementação e faturação | Os pesos dos modelos são disponibilizados em máquinas virtuais dedicadas com recursos de computação geridos. Uma computação gerenciada, que pode ter uma ou mais implantações, disponibiliza uma API REST para inferência. Você é cobrado pelas horas principais da máquina virtual que as implantações usam. | O Access aos modelos é feito através de uma implementação que fornece uma API para acesso ao modelo. A API proporciona acesso ao modelo que a Microsoft aloja e gere, para inferência. Você é cobrado pelas entradas e saídas para as APIs, geralmente em tokens. As informações de preços são fornecidas antes da implantação. |
| Autenticação de API | Chaves e autenticação Microsoft Entra. | Apenas chaves. |
| Segurança dos Conteúdos | Utilize APIs de serviços Azure AI Content Safety. | Filtros Azure AI Content Safety estão disponíveis integrados com APIs de inferência. Os filtros Azure AI Content Safety são faturados separadamente. |
| Isolamento de rede | Configurar redes geridas para hubs Foundry. | A computação gerida segue a definição de flag de acesso à rede pública (PNA) do seu hub. Para obter mais informações, consulte a seção Isolamento de rede para modelos implantados por meio de implantações padrão , mais adiante neste artigo. |
Modelos disponíveis para opções de implementação suportadas
O Catálogo de Modelos oferece duas maneiras distintas de implantar modelos do catálogo para seu uso: computação gerenciada e implantações padrão. As opções de implementação disponíveis para cada modelo variam; saiba mais sobre os recursos das opções de implementação e as opções disponíveis para modelos específicos nas tabelas abaixo. Saiba mais sobre o processamento de dados com as opções de implementação.
| Caraterísticas | Computação sob gestão | Implantações padrão |
|---|---|---|
| Experiência de implementação e faturação | Os pesos dos modelos são implementados em Máquinas Virtuais dedicadas com endpoints online geridos. O ponto final online gerido, que pode ter uma ou mais implementações, disponibiliza uma API REST para inferência. São-lhe cobradas as horas principais da Máquina Virtual usadas pelas implementações. | O Access aos modelos é feito através de uma implementação que fornece uma API para acesso ao modelo. A API fornece acesso ao modelo alojado num pool central de GPU, gerido pela Microsoft, para inferência. Este modo de acesso é referido como "Modelos como Serviço". São-lhe cobradas as entradas e saídas para as APIs, geralmente em tokens; as informações de preços são fornecidas antes da implementação. |
| Autenticação de API | Chaves e autenticação do Microsoft Entra ID. Mais informações. | Apenas chaves. |
| Segurança dos Conteúdos | Utilize as APIs do serviço Azure Content Safety. | Filtros Azure AI Content Safety estão disponíveis integrados com APIs de inferência. Os filtros Azure AI Content Safety podem ser faturados separadamente. |
| Isolamento de rede | Rede Virtual Gerenciada com Endpoints Online. Mais informações. |
Computação sob gestão
A capacidade de implementar modelos com computação gerida baseia-se nas capacidades da plataforma do Azure Machine Learning para permitir uma integração perfeita, ao longo de todo o ciclo de vida GenAIOps (por vezes chamado LLMOps), da vasta coleção de modelos no catálogo de modelos.
Disponibilidade de modelos para implantação como computação gerenciada
Os modelos estão disponíveis através de registos Azure Machine Learning que permitem uma abordagem ML-first para alojar e distribuir ativos de Machine Learning como pesos dos modelos, tempos de execução de contentores para a execução dos modelos, pipelines para avaliação e ajuste fino dos modelos, e conjuntos de dados para benchmarks e amostras. Estes Registos de ML baseiam-se numa infraestrutura altamente escalável e pronta para a empresa que:
Fornece artefatos de modelo de acesso com baixa latência a todas as regiões do Azure, com geo-replicação integrada.
Suporta requisitos de segurança empresarial como limitando o acesso a modelos com Azure Policy e implantação segura com redes virtuais geridas.
Implantação de modelos para inferência com computação gerenciada
Os modelos disponíveis para implementação com computação gerida podem ser implementados em endpoints online do Azure Machine Learning para inferência em tempo real ou podem ser usados para inferência em lote do Azure Machine Learning para processar os seus dados em lote. A implementação em computação gerida exige que tenha uma quota de Máquina Virtual na sua subscrição do Azure para os SKUs específicos necessários para executar o modelo de maneira ideal. Alguns modelos permitem que você implante uma cota compartilhada temporariamente para testar o modelo. Saiba mais sobre a implantação de modelos:
- Implante modelos Meta Llama
- Deploy Modelos Abertos criados pela Azure AI
- Implante modelos Hugging Face
Criação de aplicativos de IA generativa com computação gerenciada
O fluxo de prompts oferece capacidades para prototipar, experimentar, iterar e implementar as suas aplicações de Inteligência Artificial. Pode utilizar modelos implementados com computação gerida no Prompt Flow com a ferramenta Open Model LLM. Também pode usar a API REST exposta pelos sistemas geridos em ferramentas populares de Modelos de Linguagem de Grande Escala (LLM) como o LangChain, com a extensão Azure Machine Learning.
Segurança de conteúdo para modelos implantados como computação gerenciada
O serviço Azure AI Content Safety (AACS) está disponível para utilização com modelos implementados em computação gerida para rastrear várias categorias de conteúdos prejudiciais, como conteúdo sexual, violência, ódio e autoagressão, bem como ameaças avançadas como deteção de risco de fuga de jailbreak e deteção de texto de material protegido. Pode consultar este caderno para integração de referência com o AACS para Llama 2 ou usar a ferramenta Content Safety (Text) no Prompt Flow para passar as respostas do modelo para o AACS para rastreio. Você será faturado separadamente conforme a tarifação AACS para esse tipo de uso.
Implantações padrão com faturamento padrão
Determinados modelos no catálogo de modelos podem ser implantados como implantações padrão com faturamento padrão; Esse método de implantação é chamado de implantações padrão. Os modelos disponíveis através do MaaS são alojados numa infraestrutura gerida pela Microsoft, que permite o acesso baseado em API ao modelo do fornecedor do modelo. O acesso baseado em API pode reduzir drasticamente o custo de aceder a um modelo e simplificar significativamente a experiência de provisionamento. A maioria dos modelos MaaS vem com preços baseados em tokens.
Como os modelos de terceiros são disponibilizados no MaaS?
Modelos disponíveis para implementação como implementações padrão com faturação padrão são oferecidos pelo fornecedor do modelo, mas alojados na infraestrutura Azure gerida pela Microsoft e acedidos via API. Os fornecedores de modelos definem os termos da licença e definem o preço para a utilização dos seus modelos, enquanto o serviço Azure Machine Learning gere a infraestrutura de alojamento, disponibiliza as APIs de inferência e atua como processador de dados para prompts submetidos e conteúdos produzidos por modelos implementados via MaaS. Saiba mais sobre o processamento de dados para MaaS no artigo sobre privacidade de dados.
Observação
As subscrições do Cloud Solution Provider (CSP) não permitem adquirir modelos de implementação padrão.
Faturação
A experiência de descoberta, subscrição e consumo para modelos implementados via MaaS está no portal Foundry e no Azure Machine Learning studio. Os usuários aceitam os termos de licença para uso dos modelos. As informações de preços para consumo são fornecidas durante a implantação.
Modelos de fornecedores não Microsoft são faturados através da Azure Marketplace, de acordo com os Termos de Utilização Microsoft Commercial Marketplace.
Os modelos da Microsoft são faturados através de contadores Azure como Serviços de Consumo de Primeira Parte. Como descrito nos Termos do Produto, adquire Serviços de Consumo de Primeira Parte utilizando contadores Azure, mas estes não estão sujeitos a Azure termos de serviço. A utilização destes modelos está sujeita aos termos de licença fornecidos.
Modelos de afinação fina
Para modelos que estão disponíveis por meio de MaaS e suportam ajuste fino, os usuários podem aproveitar o ajuste fino hospedado com faturamento padrão para personalizar os modelos usando os dados que eles fornecem. Para mais informações, consulte ajustar um modelo Llama 2 no portal Foundry.
RAG com modelos desenvolvidos como implementações padrão
O Foundry permite aos utilizadores utilizar Índices Vetoriais e Geração Aumentada por Recuperação. Os modelos que podem ser implantados como implantações padrão podem ser usados para gerar incorporações e inferências com base em dados personalizados para gerar respostas específicas para seu caso de uso. Para obter mais informações, consulte Recuperação de geração aumentada e índices.
Disponibilidade regional de ofertas e modelos
A faturação padrão está disponível apenas para utilizadores cuja subscrição do Azure pertença a uma conta de faturação num país/região onde o fornecedor modelo disponibilizou a oferta. Se a oferta estiver disponível na região relevante, o utilizador deve então ter um Hub/Project na região do Azure onde o modelo está disponível para implementação ou ajuste fino, conforme aplicável. Consulte Disponibilidade de região para modelos em implantações padrão para obter informações detalhadas.
Segurança de conteúdo para modelos implantados por meio de implantações padrão
Importante
Esta funcionalidade está atualmente em pré-visualização pública. Esta versão de pré-visualização é fornecida sem um contrato de nível de serviço e não a recomendamos para cargas de trabalho de produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas.
Para mais informações, consulte Termos Suplementares de Utilização para Microsoft Azure Previews.
Para modelos de linguagem implementados via API serverless, Azure IA implementa uma configuração padrão de filtros de moderação de texto Azure AI Content Safety que detetam conteúdos prejudiciais como ódio, autoagressão, conteúdo sexual e violento. Para saber mais sobre filtragem de conteúdos, consulte Guardrails e controlos para modelos vendidos diretamente pela Azure.
Sugestão
A filtragem de conteúdo não está disponível para determinados tipos de modelo implantados por meio de API sem servidor. Esses tipos de modelo incluem modelos de incorporação e modelos de séries temporais.
A filtragem de conteúdo ocorre de forma síncrona à medida que o serviço processa prompts para gerar conteúdo. Pode ser cobrado separadamente de acordo com os preços Azure AI Content Safety para tal uso. Você pode desativar a filtragem de conteúdo para pontos de extremidade sem servidor individuais de diversas formas:
- No momento em que você implanta um modelo de idioma pela primeira vez
- Mais tarde, selecionando a opção de filtragem de conteúdo na página de detalhes da implantação
Suponha que decide usar uma API diferente da API de Inferência Modelo para trabalhar com um modelo implementado através de uma API serverless. Nessa situação, a filtragem de conteúdos não está ativada a menos que a implemente separadamente, usando o Azure AI Content Safety.
Para começar com o Azure AI Content Safety, consulte Início Rápido: Analisar conteúdo textual. Se você não usar a filtragem de conteúdo ao trabalhar com modelos implantados por meio de API sem servidor, correrá um risco maior de expor os usuários a conteúdo prejudicial.
Isolamento de rede para modelos implementados através de implementações padrão
Os endpoints para modelos implementados como implementações padrão seguem a definição de flag de acesso à rede pública (PNA) do espaço de trabalho onde a implementação existe. Para proteger o endpoint MaaS, desative o flag PNA no seu workspace. Você pode proteger a comunicação de entrada de um cliente para seu ponto de extremidade usando um ponto de extremidade privado para o espaço de trabalho.
Para definir o sinalizador PNA para o espaço de trabalho:
- Vai ao Azure portal.
- Procure por Azure Machine Learning e selecione o seu espaço de trabalho na lista de espaços de trabalho.
- Na página Visão geral, use o painel esquerdo para ir para Configurações>de rede.
- No separador Public access, pode configurar as definições para o flag de access da rede pública.
- Salve suas alterações. Suas alterações podem levar até cinco minutos para serem propagadas.
Limitações
- Se você tiver um espaço de trabalho com um ponto de extremidade privado criado antes de 11 de julho de 2024, os novos pontos de extremidade MaaS adicionados a esse espaço de trabalho não seguirão sua configuração de rede. Em vez disso, precisa criar um novo endpoint privado para o espaço de trabalho e estabelecer novas implementações padrão no espaço de trabalho, para que estas implementações possam seguir a configuração de rede do espaço de trabalho.
- Se você tiver um espaço de trabalho com implantações MaaS criadas antes de 11 de julho de 2024 e habilitar um ponto de extremidade privado nesse espaço de trabalho, as implantações MaaS existentes não seguirão a configuração de rede do espaço de trabalho. Para que as implantações padrão no espaço de trabalho sigam a configuração do espaço de trabalho, você precisa criar as implantações novamente.
- Atualmente , o suporte On Your Data não está disponível para implantações MaaS em espaços de trabalho privados, uma vez que os espaços de trabalho privados têm o sinalizador PNA desativado.
- Qualquer alteração na configuração da rede (por exemplo, ativar ou desativar o sinalizador PNA) pode levar até cinco minutos para ser propagada.