Partilhar via


Importar uma API Microsoft Foundry

APLICA-SE A: Todas as camadas de gerenciamento de API

Pode importar endpoints de modelos de IA implementados no Microsoft Foundry para a sua instância de Gestão de APIs como APIs. Use políticas de gateway de IA e outros recursos no Gerenciamento de API para simplificar a integração, melhorar a observabilidade e aprimorar o controle sobre os pontos de extremidade do modelo.

Saiba mais sobre como gerenciar APIs de IA no Gerenciamento de API:

Opções de compatibilidade do cliente

O API Management suporta duas opções de compatibilidade com clientes para APIs de IA da Microsoft Foundry. Ao importar a API usando o assistente, escolha a opção adequada para a implantação do modelo. A opção determina como os clientes chamam a API e como a instância de Gestão da API encaminha pedidos para a ferramenta Foundry.

  • Azure OpenAI - Gerir Azure OpenAI nas implementações do modelo Microsoft Foundry.

    Os clientes chamam a implantação num endpoint /openai como /openai/deployments/my-deployment/chat/completions. O nome da implantação é passado no caminho da solicitação. Use esta opção se a sua ferramenta Foundry incluir apenas implementações de modelos Azure OpenAI.

  • Azure AI - Gerir os endpoints de modelos no Microsoft Foundry que são expostos através da Azure AI Model Inference API.

    Os clientes chamam a implementação num endpoint como /models. O nome da implantação é passado no corpo da solicitação. Use esta opção se quiser flexibilidade para alternar entre modelos expostos através da API de Inferência de Modelos de IA do Azure e aqueles implementados no Azure OpenAI em Foundry Models.

Pré-requisitos

  • Uma instância de gerenciamento de API existente. Crie um, caso ainda não o tenha feito.

  • Uma ferramenta Foundry na sua subscrição com um ou mais modelos implementados. Exemplos incluem modelos implementados no Microsoft Foundry ou no Azure OpenAI.

Importar a API Microsoft Foundry usando o portal

Use as etapas a seguir para importar uma API de IA para o Gerenciamento de API.

Quando você importa a API, o Gerenciamento de API configura automaticamente:

  • Operações para cada um dos pontos de extremidade REST da API
  • Uma identidade atribuída pelo sistema com as permissões necessárias para aceder à implementação da ferramenta Foundry.
  • Um recurso backend e uma política set-backend-service que direcionam os pedidos de API para o endpoint Azure AI Services.
  • Autenticação no back-end usando a identidade gerenciada atribuída ao sistema da instância.
  • (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.

Para importar uma API Microsoft Foundry para a API Management:

  1. No portal Azure, navegue até à sua instância de Gestão de APIs.

  2. No menu à esquerda, em APIs, selecione APIs>+ Add API.

  3. Em Create from Azure resource, selecione Microsoft Foundry.

    Captura de tela da criação de uma API compatível com OpenAI no portal.

  4. No separador Selecionar Serviço de IA:

    1. Selecione a Subscrição para procurar Ferramentas de Fundição. Para obter informações sobre as implantações de modelo em um serviço, selecione o link de implantações ao lado do nome do serviço. Captura de tela de implantações para um serviço de IA no portal.
    2. Selecione uma ferramenta Foundry.
    3. Selecione Avançar.
  5. Na aba Configurar API:

    1. Insira um Nome para exibição e uma Descrição opcional para a API.

    2. Em Caminho base, insira um caminho que sua instância de Gerenciamento de API usa para acessar o ponto de extremidade de implantação.

    3. Opcionalmente, selecione um ou mais Produtos para associar à API.

    4. Em Compatibilidade com cliente, selecione uma das seguintes opções com base nos tipos de cliente que você pretende suportar. Consulte Opções de compatibilidade de cliente para obter mais informações.

      • Azure OpenAI - Selecione esta opção se os seus clientes só precisarem de aceder a Azure OpenAI nas implementações do modelo Microsoft Foundry.
      • Azure AI - Selecione esta opção se os seus clientes precisarem de aceder a outros modelos no Microsoft Foundry.
    5. Selecione Avançar.

      Captura de ecrã da configuração da API Microsoft Foundry no portal.

  6. Na guia Gerenciar consumo de token , opcionalmente, insira configurações ou aceite padrões que definam as seguintes políticas para ajudar a monitorar e gerenciar a API:

  7. Na guia Aplicar cache semântico , opcionalmente, insira configurações ou aceite padrões que definem as políticas para ajudar a otimizar o desempenho e reduzir a latência da API:

  8. No AI content safety, opcionalmente introduz definições ou aceita os valores predefinidos para configurar o serviço de Azure AI Content Safety bloquear prompts com conteúdo inseguro:

  9. Selecione Revisão.

  10. Depois que as configurações forem validadas, selecione Criar.

Teste a API de IA

Para garantir que sua API de IA esteja funcionando conforme o esperado, teste-a no console de teste de Gerenciamento de API.

  1. Selecione a API que criou no passo anterior.

  2. Selecione a guia Teste .

  3. Selecione uma operação que seja compatível com a implantação do modelo. A página exibe campos para parâmetros e cabeçalhos.

  4. Insira parâmetros e cabeçalhos conforme necessário. Dependendo da operação, talvez seja necessário configurar ou atualizar um corpo de solicitação. Aqui está um exemplo muito básico de pedido para uma operação de conclusão de chat:

    {
      "model": "any",
      "messages": [
        {
          "role": "user",
          "content": "Help me plan a trip to Paris",
          "max_tokens": 100
        }
      ]
    }
    

    Observação

    No console de teste, a Gestão de API preenche automaticamente um cabeçalho Ocp-Apim-Subscription-Key e configura a chave de subscrição da subscrição de acesso total interna. Essa chave permite o acesso a todas as APIs na instância de Gerenciamento de API. Opcionalmente, mostre o cabeçalho Ocp-Apim-Subscription-Key ao selecionar o ícone de "olho" ao lado da Solicitação HTTP.

  5. Selecione Enviar.

    Quando o teste é bem-sucedido, o back-end responde com um código de resposta HTTP bem-sucedido e alguns dados. Anexados à resposta estão dados de uso de token para ajudá-lo a monitorar e gerenciar o consumo de token do modelo de idioma.