Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
APLICA-SE A: Todos os níveis de API Management
Este artigo mostra-lhe como importar uma API Google Gemini compatível com a OpenAI para aceder a modelos como gemini-2.5-flash-lite. Para estes modelos, Azure API Management pode gerir um endpoint de conclusão de chat compatível com OpenAI.
Saiba mais sobre a gestão de APIs de IA na API Management:
Pré-requisitos
- Uma instância de API Management existente. Crie um, caso ainda não o tenha feito.
- Uma chave de API para a API do Gemini. Se você não tiver um, crie-o no Google AI Studio e armazene-o em um local seguro.
Importa uma API Gemini compatível com OpenAI usando o portal
No Azure Portal, aceda à sua instância de API Management.
No menu à esquerda, em APIs, selecione APIs>+ Add API.
Em Definir uma nova API, selecione Language Model API.
Na aba Configurar API:
Insira um Nome para exibição e uma Descrição opcional para a API.
Em URL, insira o seguinte URL base da documentação de compatibilidade do Gemini OpenAI:
https://generativelanguage.googleapis.com/v1beta/openaiEm Path, adicione um caminho que a sua instância de API Management usa para encaminhar pedidos para os endpoints da API Gemini.
Em Tipo, selecione Criar API OpenAI.
Na chave Access, introduza o seguinte:
- Nome do cabeçalho: Autorização.
-
Valor do cabeçalho (chave):
Bearerseguido pela sua chave de API para a API do Gemini.
Nas guias restantes, opcionalmente, configure políticas para gerenciar o consumo de tokens, cache semântico e segurança de conteúdo de IA. Para obter detalhes, consulte Importar uma API de modelo de idioma.
Selecione Revisão.
Depois de o portal validar as definições, selecione Criar.
A API Management cria a API e configura o seguinte:
- Um recurso de back-end e uma política de definição de serviço de back-end que direcionam as solicitações de API para o ponto de acesso do Google Gemini.
- Acess ao backend do LLM usando a chave API Gemini que forneceste. API Management protege a chave como um segredo valor designado.
- (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.
Teste o modelo Gemini
Depois de importar a API, pode-se testar o endpoint de conclusões de chat da API.
Selecione a API que você criou na etapa anterior.
Selecione a guia Teste .
Selecione a
POST Creates a model response for the given chat conversationoperação, que é umPOSTpedido para o/chat/completionsendpoint.Na seção Corpo da solicitação , insira o JSON a seguir para especificar o modelo e um prompt de exemplo. Neste exemplo, o
gemini-2.5-flash-litemodelo é usado.{ "model": "gemini-2.5-flash-lite", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }Quando o teste tem sucesso, o backend responde com um código de resposta HTTP bem-sucedido e alguns dados. A resposta inclui dados de utilização de tokens para o ajudar a monitorizar e gerir o consumo do seu modelo de linguagem.
Conteúdo relacionado
- Capacidades do gateway AI em Azure API Management