Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
APLICA-SE A: Todas as camadas de gerenciamento de API
Pode importar endpoints de modelos de IA implementados no Microsoft Foundry para a sua instância de Gestão de APIs como APIs. Use políticas de gateway de IA e outros recursos no Gerenciamento de API para simplificar a integração, melhorar a observabilidade e aprimorar o controle sobre os pontos de extremidade do modelo.
Saiba mais sobre como gerenciar APIs de IA no Gerenciamento de API:
- Capacidades do gateway de IA no Azure API Management
Opções de compatibilidade do cliente
O API Management suporta duas opções de compatibilidade com clientes para APIs de IA da Microsoft Foundry. Ao importar a API usando o assistente, escolha a opção adequada para a implantação do modelo. A opção determina como os clientes chamam a API e como a instância de Gestão da API encaminha pedidos para a ferramenta Foundry.
Azure OpenAI - Gerir Azure OpenAI nas implementações do modelo Microsoft Foundry.
Os clientes chamam a implantação num endpoint
/openaicomo/openai/deployments/my-deployment/chat/completions. O nome da implantação é passado no caminho da solicitação. Use esta opção se a sua ferramenta Foundry incluir apenas implementações de modelos Azure OpenAI.Azure AI - Gerir os endpoints de modelos no Microsoft Foundry que são expostos através da Azure AI Model Inference API.
Os clientes chamam a implementação num endpoint como
/models. O nome da implantação é passado no corpo da solicitação. Use esta opção se quiser flexibilidade para alternar entre modelos expostos através da API de Inferência de Modelos de IA do Azure e aqueles implementados no Azure OpenAI em Foundry Models.
Pré-requisitos
Uma instância de gerenciamento de API existente. Crie um, caso ainda não o tenha feito.
Uma ferramenta Foundry na sua subscrição com um ou mais modelos implementados. Exemplos incluem modelos implementados no Microsoft Foundry ou no Azure OpenAI.
Importar a API Microsoft Foundry usando o portal
Use as etapas a seguir para importar uma API de IA para o Gerenciamento de API.
Quando você importa a API, o Gerenciamento de API configura automaticamente:
- Operações para cada um dos pontos de extremidade REST da API
- Uma identidade atribuída pelo sistema com as permissões necessárias para aceder à implementação da ferramenta Foundry.
- Um recurso backend e uma política set-backend-service que direcionam os pedidos de API para o endpoint Azure AI Services.
- Autenticação no back-end usando a identidade gerenciada atribuída ao sistema da instância.
- (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.
Para importar uma API Microsoft Foundry para a API Management:
No portal Azure, navegue até à sua instância de Gestão de APIs.
No menu à esquerda, em APIs, selecione APIs>+ Add API.
Em Create from Azure resource, selecione Microsoft Foundry.
No separador Selecionar Serviço de IA:
- Selecione a Subscrição para procurar Ferramentas de Fundição. Para obter informações sobre as implantações de modelo em um serviço, selecione o link de implantações ao lado do nome do serviço.
- Selecione uma ferramenta Foundry.
- Selecione Avançar.
- Selecione a Subscrição para procurar Ferramentas de Fundição. Para obter informações sobre as implantações de modelo em um serviço, selecione o link de implantações ao lado do nome do serviço.
Na aba Configurar API:
Insira um Nome para exibição e uma Descrição opcional para a API.
Em Caminho base, insira um caminho que sua instância de Gerenciamento de API usa para acessar o ponto de extremidade de implantação.
Opcionalmente, selecione um ou mais Produtos para associar à API.
Em Compatibilidade com cliente, selecione uma das seguintes opções com base nos tipos de cliente que você pretende suportar. Consulte Opções de compatibilidade de cliente para obter mais informações.
- Azure OpenAI - Selecione esta opção se os seus clientes só precisarem de aceder a Azure OpenAI nas implementações do modelo Microsoft Foundry.
- Azure AI - Selecione esta opção se os seus clientes precisarem de aceder a outros modelos no Microsoft Foundry.
Selecione Avançar.
Na guia Gerenciar consumo de token , opcionalmente, insira configurações ou aceite padrões que definam as seguintes políticas para ajudar a monitorar e gerenciar a API:
Na guia Aplicar cache semântico , opcionalmente, insira configurações ou aceite padrões que definem as políticas para ajudar a otimizar o desempenho e reduzir a latência da API:
No AI content safety, opcionalmente introduz definições ou aceita os valores predefinidos para configurar o serviço de Azure AI Content Safety bloquear prompts com conteúdo inseguro:
Selecione Revisão.
Depois que as configurações forem validadas, selecione Criar.
Teste a API de IA
Para garantir que sua API de IA esteja funcionando conforme o esperado, teste-a no console de teste de Gerenciamento de API.
Selecione a API que criou no passo anterior.
Selecione a guia Teste .
Selecione uma operação que seja compatível com a implantação do modelo. A página exibe campos para parâmetros e cabeçalhos.
Insira parâmetros e cabeçalhos conforme necessário. Dependendo da operação, talvez seja necessário configurar ou atualizar um corpo de solicitação. Aqui está um exemplo muito básico de pedido para uma operação de conclusão de chat:
{ "model": "any", "messages": [ { "role": "user", "content": "Help me plan a trip to Paris", "max_tokens": 100 } ] }Observação
No console de teste, a Gestão de API preenche automaticamente um cabeçalho Ocp-Apim-Subscription-Key e configura a chave de subscrição da subscrição de acesso total interna. Essa chave permite o acesso a todas as APIs na instância de Gerenciamento de API. Opcionalmente, mostre o cabeçalho Ocp-Apim-Subscription-Key ao selecionar o ícone de "olho" ao lado da Solicitação HTTP.
Selecione Enviar.
Quando o teste é bem-sucedido, o back-end responde com um código de resposta HTTP bem-sucedido e alguns dados. Anexados à resposta estão dados de uso de token para ajudá-lo a monitorar e gerenciar o consumo de token do modelo de idioma.
Conteúdo relacionado
- Limitações de importação de API
- Importar uma especificação de OpenAPI
- Importar uma API SOAP
- Importe uma API SOAP e converta-a em REST
- Importar uma API do Serviço de Aplicativo
- Importar uma API de aplicativo de contêiner
- Importar uma API WebSocket
- Importar uma GraphQL API
- Importar um esquema de GraphQL e configurar resolveres de campos
- Importar uma API de aplicativo de função
- Importar uma API de aplicativo lógico
- Importar um serviço do tipo Service Fabric
- Importar uma API Microsoft Foundry
- Importar uma API Azure OpenAI
- Importar uma API LLM
- Importar uma API OData
- Exportar uma API REST como um servidor MCP
- Expor um servidor MCP existente
- Importar uma API de agente A2A
- Importar metadados do SAP OData
- Importar uma API gRPC
- Editar uma API