Partilhar via


Importar uma API do Google Gemini compatível com OpenAI

APLICA-SE A: Todos os níveis de API Management

Este artigo mostra-lhe como importar uma API Google Gemini compatível com a OpenAI para aceder a modelos como gemini-2.5-flash-lite. Para estes modelos, Azure API Management pode gerir um endpoint de conclusão de chat compatível com OpenAI.

Saiba mais sobre a gestão de APIs de IA na API Management:

Pré-requisitos

Importa uma API Gemini compatível com OpenAI usando o portal

  1. No Azure Portal, aceda à sua instância de API Management.

  2. No menu à esquerda, em APIs, selecione APIs>+ Add API.

  3. Em Definir uma nova API, selecione Language Model API.

    Captura de tela da criação de uma API de modelo de linguagem de passagem no portal.

  4. Na aba Configurar API:

    1. Insira um Nome para exibição e uma Descrição opcional para a API.

    2. Em URL, insira o seguinte URL base da documentação de compatibilidade do Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. Em Path, adicione um caminho que a sua instância de API Management usa para encaminhar pedidos para os endpoints da API Gemini.

    4. Em Tipo, selecione Criar API OpenAI.

    5. Na chave Access, introduza o seguinte:

      1. Nome do cabeçalho: Autorização.
      2. Valor do cabeçalho (chave):Bearer seguido pela sua chave de API para a API do Gemini.

    Captura de tela da importação de uma API Gemini LLM no portal.

  5. Nas guias restantes, opcionalmente, configure políticas para gerenciar o consumo de tokens, cache semântico e segurança de conteúdo de IA. Para obter detalhes, consulte Importar uma API de modelo de idioma.

  6. Selecione Revisão.

  7. Depois de o portal validar as definições, selecione Criar.

A API Management cria a API e configura o seguinte:

  • Um recurso de back-end e uma política de definição de serviço de back-end que direcionam as solicitações de API para o ponto de acesso do Google Gemini.
  • Acess ao backend do LLM usando a chave API Gemini que forneceste. API Management protege a chave como um segredo valor designado.
  • (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.

Teste o modelo Gemini

Depois de importar a API, pode-se testar o endpoint de conclusões de chat da API.

  1. Selecione a API que você criou na etapa anterior.

  2. Selecione a guia Teste .

  3. Selecione a POST Creates a model response for the given chat conversation operação, que é um POST pedido para o /chat/completions endpoint.

  4. Na seção Corpo da solicitação , insira o JSON a seguir para especificar o modelo e um prompt de exemplo. Neste exemplo, o gemini-2.5-flash-lite modelo é usado.

    {
        "model": "gemini-2.5-flash-lite",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Quando o teste tem sucesso, o backend responde com um código de resposta HTTP bem-sucedido e alguns dados. A resposta inclui dados de utilização de tokens para o ajudar a monitorizar e gerir o consumo do seu modelo de linguagem.

    Captura de tela do teste de uma API Gemini LLM no portal.