Delen via


Een OpenAI-compatibele Google Gemini-API importeren

VAN TOEPASSING OP: Alle API Management lagen

In dit artikel leest u hoe u een OpenAI-compatibele Google Gemini-API importeert in access modellen zoals gemini-2.5-flash-lite. Voor deze modellen kan Azure API Management een openAI-compatibel voltooiingseindpunt voor chats beheren.

Meer informatie over het beheren van AI-API's in API Management:

Vereiste voorwaarden

Een OpenAI-compatibele Gemini-API importeren met behulp van de portal

  1. Navigeer in de Azure portal naar uw API Management-instantie.

  2. Selecteer in het linkermenu onder API'sAPI's, >.

  3. Selecteer onder Een nieuwe API definiërende taalmodel-API.

    Schermopname van het maken van een passthrough-taalmodel-API in de portal.

  4. Op het tabblad API configureren :

    1. Voer een weergavenaam en een optionele beschrijving voor de API in.

    2. Voer in de URL de volgende basis-URL in uit de compatibiliteitsdocumentatie van Gemini OpenAI: https://generativelanguage.googleapis.com/v1beta/openai

    3. Voeg in Path een pad toe dat uw API Management-exemplaar gebruikt om aanvragen naar de Gemini-API-eindpunten te routeren.

    4. Selecteer Bij TypeopenAI-API maken.

    5. Voer in Access key het volgende in:

      1. Headernaam: Autorisatie.
      2. Headerwaarde (sleutel):Bearer gevolgd door uw API-sleutel voor de Gemini-API.

    Schermopname van het importeren van een Gemini LLM-API in de portal.

  5. Configureer op de resterende tabbladen eventueel beleidsregels voor het beheren van tokenverbruik, semantische caching en beveiliging van AI-inhoud. Zie Een taalmodel-API importeren voor meer informatie.

  6. Selecteer Beoordelen.

  7. Nadat de instellingen zijn gevalideerd in de portal, selecteert u Maken.

API Management maakt de API en configureert het volgende:

Gemini-model testen

Nadat u de API hebt geïmporteerd, kunt u het eindpunt voor voltooiing van de chat testen voor de API.

  1. Selecteer de API die u in de vorige stap hebt gemaakt.

  2. Selecteer het tabblad Testen.

  3. Selecteer de POST Creates a model response for the given chat conversation bewerking. Dit is een POST aanvraag voor het /chat/completions eindpunt.

  4. Voer in de sectie Aanvraagtekst de volgende JSON in om het model en een voorbeeldprompt op te geven. In dit voorbeeld wordt het gemini-2.5-flash-lite model gebruikt.

    {
        "model": "gemini-2.5-flash-lite",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant"
            },
            {
                "role": "user",
                "content": "How are you?"
            }
        ],
        "max_tokens": 50
    }
    

    Wanneer de test is geslaagd, reageert de back-end met een geslaagde HTTP-antwoordcode en enkele gegevens. Het antwoord bevat tokengebruiksgegevens waarmee u het tokenverbruik van uw taalmodel kunt bewaken en beheren.

    Schermopname van het testen van een Gemini LLM-API in de portal.