Freigeben über


Endpunkte für Microsoft Foundry-Modelle

Mit Microsoft Foundry Models können Sie auf die leistungsstärksten Modelle von führenden Modellanbietern über einen einzelnen Endpunkt und ein Satz von Anmeldedaten zugreifen. Mithilfe dieser Funktion können Sie zwischen Modellen wechseln und sie in Ihrer Anwendung verwenden, ohne Code ändern zu müssen.

In diesem Artikel wird erläutert, wie die Foundry-Dienste Modelle organisieren und wie Sie den Inferenz-Endpunkt verwenden, um auf sie zuzugreifen.

Von Bedeutung

Azure AI Inference Beta SDK ist veraltet und wird am 30. Mai 2026 eingestellt. Wechseln Sie mit einem stabilen OpenAI SDK zur allgemein verfügbaren OpenAI/v1-API . Folgen Sie dem Migrationshandbuch , um zu OpenAI/v1 zu wechseln, indem Sie das SDK für Ihre bevorzugte Programmiersprache verwenden.

Bereitstellungen

Foundry verwendet Bereitstellungen, um Modelle verfügbar zu machen. Bereitstellungen geben einem Modell einen Namen und legen bestimmte Konfigurationen fest. Sie können auf ein Modell zugreifen, indem Sie seinen Bereitstellungsnamen in Ihren Anfragen verwenden.

Eine Bereitstellung umfasst:

  • Ein Modellname
  • Eine Modellversion
  • Einen Bereitstellungs- oder Kapazitätstyp1
  • Eine Inhaltsfilterungskonfiguration1
  • Eine Ratenbegrenzungskonfiguration1

1 Diese Konfigurationen können sich je nach ausgewähltem Modell ändern.

Eine Foundry-Ressource kann viele Modellimplementierungen aufweisen. Sie zahlen nur für Rückschlüsse, die für Modellimplementierungen ausgeführt wurden. Bereitstellungen sind Azure Ressourcen, sodass sie Azure Richtlinien unterliegen.

Weitere Informationen zum Erstellen von Bereitstellungen finden Sie unter Hinzufügen und Konfigurieren von Modellbereitstellungen.

Azure OpenAI-Inference-Endpunkt

Die Azure OpenAI-API macht die vollständigen Funktionen von OpenAI-Modellen verfügbar und unterstützt weitere Features wie Assistenten, Threads, Dateien und Batcheinschluss. Sie können auch Nicht-OpenAI-Modelle über diesen Weg zugreifen.

Azure OpenAI-Endpunkte, in der Regel des Formulars https://<resource-name>.openai.azure.com, arbeiten auf Bereitstellungsebene und jede Bereitstellung verfügt über eine eigene zugeordnete URL. Sie können jedoch denselben Authentifizierungsmechanismus verwenden, um die Bereitstellungen zu nutzen. Weitere Informationen finden Sie auf der Referenzseite für Azure OpenAI-API.

Eine Abbildung zeigt, wie Azure OpenAI-Bereitstellungen eine einzelne URL für jede Bereitstellung enthalten.

Jede Bereitstellung verfügt über eine URL, die durch Verketten der Azure OpenAI Basis-URL und der Route /deployments/<model-deployment-name> gebildet wird.

Installieren Sie das Paket openai mit Ihrem package manager, z. B. pip:

pip install openai --upgrade

Anschließend können Sie das Paket verwenden, um das Modell zu nutzen. Das folgende Beispiel zeigt, wie Sie einen Client erstellen, um Chatvervollständigungen zu nutzen:

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model deployment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

Weitere Informationen zur Verwendung des Azure OpenAI-Endpunkts finden Sie in Azure OpenAI in der Dokumentation zu Foundry Models.

Schlüssellose Authentifizierung

Modelle, die in Foundry Models in Foundry Tools bereitgestellt werden, unterstützen die schlüssellose Autorisierung mithilfe von Microsoft Entra ID. Die schlüssellose Autorisierung verbessert die Sicherheit, vereinfacht die Benutzererfahrung, reduziert die betriebliche Komplexität und bietet eine robuste Complianceunterstützung für moderne Entwicklung. Sie macht die schlüssellose Autorisierung zu einer klugen Wahl für Organisationen, die sichere und skalierbare Identitätsverwaltungslösungen einführen möchten.

Um die schlüssellose Authentifizierung zu verwenden, konfigurieren Sie Ihre Ressource, und gewähren Sie Benutzern access, um Rückschlüsse auszuführen. Nachdem Sie die Ressource konfiguriert und access erteilt haben, authentifizieren Sie sich wie folgt:

Installieren Sie das OpenAI SDK mit einem package manager wie Pip:

pip install openai

Installieren Sie für Microsoft Entra ID Authentifizierung auch Folgendes:

pip install azure-identity

Verwenden Sie das Paket, um das Modell zu nutzen. Das folgende Beispiel zeigt, wie Sie einen Client erstellen, um Chatabschlusse mit Microsoft Entra ID zu nutzen und einen Testanruf an den Endpunkt für Chatabschlusse mit Ihrer Modellbereitstellung zu tätigen.

Ersetzen Sie <resource> durch den Namen Ihrer Foundry-Ressource. Suchen Sie sie im Azure portal oder indem Sie az cognitiveservices account list ausführen. Ersetzen Sie DeepSeek-V3.1 durch Ihren tatsächlichen Bereitstellungsnamen.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), 
    "https://cognitiveservices.azure.com/.default"
)

client = OpenAI(
    base_url="https://<resource>.openai.azure.com/openai/v1/",
    api_key=token_provider,
)

completion = client.chat.completions.create(
    model="DeepSeek-V3.1",  # Required: your deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is Azure AI?"}
    ]
)

print(completion.choices[0].message.content)

Erwartete Ausgabe

Azure AI is a comprehensive suite of artificial intelligence services and tools from Microsoft that enables developers to build intelligent applications. It includes services for natural language processing, computer vision, speech recognition, and machine learning capabilities.

Referenz: OpenAI Python SDK und DefaultAzureCredential Klasse.