次の方法で共有


AI を Azure App Service アプリケーションに統合する

Azure App Serviceにより、複数のプログラミング言語とフレームワークにわたって AI 機能を Web アプリケーションに簡単に統合できます。 強力なAzure OpenAI モデルを使用する場合、ローカルの小規模言語モデル (SLB) をアプリと直接デプロイする、エージェント Web アプリケーションを構築する、OpenAPI を使用する AI エージェントのツールとしてアプリを公開する、モデル コンテキスト プロトコル (MCP) サーバーをホストする、または取得拡張生成 (RAG) などの高度なパターンを実装する場合、App Service は AI を利用するアプリケーションに必要な柔軟で安全なプラットフォームを提供します。

AIアプリケーションにはなぜApp Serviceが適しているのか?

App Service には、AI を利用したアプリケーションを開発およびデプロイするためのいくつかの利点があります。

  • Foundry Tools との統合 - セキュリティで保護されたパスワードレス認証のためにマネージド ID を使用して、Azure OpenAI やその他の Foundry Tools にシームレスに接続します
  • ローカル SLM のサポート - サイドカー拡張機能を使用して、より小さな言語モデルをアプリケーションに直接デプロイする
  • エンタープライズ レベルのセキュリティ - ネットワーク分離、エンドツーエンドの暗号化、ロールベースのアクセス制御を実装する
  • GitHub統合を使用したシンプル化された DevOps - GitHub Actionsを使用して CI/CD パイプラインを合理化し、AI 支援型の開発用に統合されたGitHub Copilotを使用して GitHub Codespaces を活用し、開発から運用デプロイまでのエンドツーエンドワークフローを作成します

App Service の AI シナリオ

これらのシナリオを調べて、AI を利用したアプリケーションに適したアプローチを見つけてください。

Scenario Description 詳細情報
チャットボットと RAG アプリケーション Azure OpenAI (およびオプションのAzure AI Search) を使用してインテリジェントなチャットボットと RAG を利用した Web アプリを構築し、App Service で直接、コンテキストに対応した応答を実現します。 作業の開始
エージェント Web アプリケーション Semantic Kernel、LangGraph、Foundry Agent Service などのフレームワークを使用して、既存の CRUD Web アプリに自律的な推論 AI エージェントを追加して、計画、マルチステップ アクション、自然言語対話を有効にします。 作業の開始
Foundry エージェント用の OpenAPI ツール App Service REST API を OpenAPI 仕様を介して安全で呼び出し可能なツールとして公開し、Foundry Agent Service エージェントが実際のアクションとデータ アクセスのためにそれらを検出して呼び出すことができるようにします。 作業の開始
モデル コンテキスト プロトコル サーバー App Service アプリを MCP サーバーとしてホストし、モデル コンテキスト プロトコルを使用して、カスタム ビジネス ロジック、API、データ コンテキストを使用して、GitHub Copilot チャット、カーソル、Winsurf などの AI コーディング アシスタントを拡張します。 作業の開始
ローカルの小さな言語モデル App Service のサイドカー コンテナーとして小規模な言語モデル (Phi-3/Phi-4 など) を完全にローカルに実行し、完全なデータ プライバシー、待機時間ゼロの推論、オフライン機能、外部 API 呼び出しや依存関係を使用しません。 作業の開始
セキュリティで保護された AI アプリケーション Microsoft Entra ID認証、マネージド ID、組み込み承認を使用して、App Service の OpenAPI ツール、MCP サーバー、AI エンドポイントをセキュリティで保護し、承認されたユーザーとエージェントのみがアクセスできるようにします。 作業の開始

その他のリソース