適用対象: すべての API Management レベル
Microsoft Foundry にデプロイされた AI モデル エンドポイントを API として API Management インスタンスにインポートできます。 API Management で AI ゲートウェイ ポリシーやその他の機能を使用して、統合を簡素化し、監視性を向上させ、モデル エンドポイントの制御を強化します。
API Management での AI API の管理の詳細については、以下を参照してください。
クライアント互換性オプション
API Management では、Microsoft Foundry の AI API に対して 2 つのクライアント互換性オプションがサポートされています。 ウィザードを使用して API をインポートする場合は、モデルのデプロイに適したオプションを選択します。 このオプションは、クライアントが API を呼び出す方法と、API Management インスタンスが Foundry Tool に要求をルーティングする方法を決定します。
Azure OpenAI - Microsoft Foundry モデルのデプロイでAzure OpenAI を管理します。
クライアントは、などの エンドポイントで展開を呼び出します。 デプロイ名は要求パスで渡されます。 Foundry Tool に Azure OpenAI モデルのデプロイのみが含まれている場合は、このオプションを使用します。
Azure AI - Azure AI モデル推論 API を介して公開される Microsoft Foundry のモデル エンドポイントを管理します。
クライアントは、などの エンドポイントで展開を呼び出します。 デプロイ名は要求本文で渡されます。 このオプションは、Azure AI モデル推論 API を介して公開されるモデルと Foundry Models の Azure OpenAI にデプロイされたモデルを柔軟に切り替える場合に使用します。
[前提条件]
既存の API Management インスタンスがある。 まだない場合は、作成してください。
1 つ以上のモデルがデプロイされているサブスクリプションの Foundry ツール。 たとえば、Microsoft Foundry または Azure OpenAI にデプロイされたモデルが挙げられます。
ポータルを使用して Microsoft Foundry API をインポートする
次の手順を使用して、AI API を API Management にインポートします。
API をインポートすると、API Management によって自動的に次の構成が行われます。
- 各 API の REST API エンドポイントの操作
- Foundry Tool デプロイにアクセスするために必要なアクセス許可を持つシステム割り当て ID。
- backend リソースと、AZURE AI サービス エンドポイントに API 要求を送信する set-backend-service ポリシー。
- インスタンスのシステム割り当てマネージド ID を使用したバックエンドへの認証。
- (必要に応じて)API の監視と管理に役立つポリシー。
Microsoft Foundry API を API Management にインポートするには:
Azure ポータルで、API Management インスタンスに移動します。
左側のメニューの [API] で、[API][+ API の追加] を選択します。
[リソースから作成で、Azure Microsoft Foundry を選択します。
ポータルで OpenAI 互換 API を作成するスクリーンショット。
[AI サービスの選択] タブで、次 の操作を行 います。
- Foundry Tools を検索する サブスクリプション を選択します。 サービス内のモデル デプロイに関する情報を取得するには、サービス名の横にある デプロイ リンクを選択します。 ポータルでの AI サービスのデプロイのスクリーンショット。
- Foundry ツールを選択します。
- [次へ] を選択します。
[ API の構成 ] タブで、次の手順を実行します。
API の表示名と、必要に応じて説明を入力します。
[基本パス] に、API Management インスタンスがデプロイ エンドポイントへのアクセスに使用するパスを入力します。
必要に応じて、API に関連付ける 1 つ以上の 製品 を選択します。
[クライアントの互換性] で、サポートするクライアントの種類に基づいて、次のいずれかを選択します。 詳細については、「 クライアント互換性オプション 」を参照してください。
- Azure OpenAI - クライアントが Microsoft Foundry モデルのデプロイで OpenAI Azureアクセスするだけで済む場合は、このオプションを選択します。
- Azure AI - クライアントが Microsoft Foundry の他のモデルにアクセスする必要がある場合は、このオプションを選択します。
[次へ] を選択します。
ポータルでの Microsoft Foundry API の構成のスクリーンショット。
[ トークン消費の管理 ] タブで、必要に応じて設定を入力するか、API の監視と管理に役立つ次のポリシーを定義する既定値を受け入れます。
- トークンの使用を管理する
- トークンの使用状況を追跡する
[ セマンティック キャッシュの適用 ] タブで、必要に応じて設定を入力するか、API のパフォーマンスの最適化と待機時間の短縮に役立つポリシーを定義する既定値を受け入れます。
- 応答のセマンティック キャッシュを有効にする
AI コンテンツの安全性で、必要に応じて設定を入力するか、既定値を受け入れて、安全でないコンテンツを含むプロンプトをブロックするようにAzure AI Content Safety サービスを構成します。
- LLM 要求にコンテンツの安全性チェックを適用する
[レビュー] を選択します。
設定が検証されたら、[作成] を選択します。
AI API をテストする
AI API が期待どおりに動作していることを確認するには、API Management テスト コンソールでテストします。
前の手順で作成した API を選びます。
[テスト] タブを選びます。
モデルのデプロイと互換性のある操作を選択します。 ページにパラメーターとヘッダーのフィールドが表示されます。
必要に応じてパラメーターとヘッダーを入力します。 操作によっては、 要求本文の構成または更新が必要になる場合があります。 チャット完了操作の非常に基本的な要求本文の例を次に示します。
{ "model": "any", "messages": [ { "role": "user", "content": "Help me plan a trip to Paris", "max_tokens": 100 } ] }注
テスト コンソールでは、API Management によって Ocp-Apim-Subscription-Key ヘッダーが自動的に設定され、組み込みの オール アクセス サブスクリプションのサブスクリプション キーが構成されます。 このキーを使用すると、API Management インスタンス内のすべての API にアクセスできます。 必要に応じて、 HTTP 要求の横にある "目" のアイコンを選択して、 Ocp-Apim-Subscription-Key ヘッダーを表示します。
[Send] を選択します。
テストが成功すると、バックエンドは成功した HTTP 応答コードといくつかのデータで応答します。 応答に追加されるのは、言語モデルのトークン消費を監視および管理するのに役立つトークン使用状況データです。
関連コンテンツ
- API のインポートの制限事項
- OpenAPI 仕様のインポート
- SOAP API のインポート
- SOAP API をインポートして REST に変換する
- App Service API をインポートする
- コンテナー アプリ API をインポートする
- Websocket API のインポート
- GraphQL API のインポート
- GraphQL スキーマをインポートし、フィールド リゾルバーを設定する
- 関数アプリ API をインポートする
- ロジック アプリ API をインポートする
- Service Fabric サービスをインポートする
- Microsoft Foundry API をインポートする
Azure OpenAI API - LLM API をインポートする
- OData API をインポートする
- REST API を MCP サーバーとしてエクスポートする
- 既存の MCP サーバーを公開する
- A2A エージェント API をインポートする
- SAP OData メタデータをインポートする
- gRPC API をインポートする
- API の編集