Microsoft Foundry Models は、カスタムの副操縦士、エージェントの構築、既存のアプリケーションの拡張、新しい AI 機能の探索など、強力な AI モデルを検出、評価、デプロイするためのワンストップの場所です。
Foundry モデルを使用すると、次のことができます。
- Microsoft、OpenAI、DeepSeek、Hugging Face、Meta などの最先端モデルの豊富なカタログをご覧ください。
- 実際のタスクと独自のデータを使用して、モデルを並べて比較および評価します。
- 微調整、可観測性、責任ある AI 用の組み込みツールにより、自信を持ってデプロイできます。
- 独自のモデルの導入、ホストされたモデルの使用、Azure サービスとのシームレスな統合など、パスを選択します。
Foundry Models は、開発者、data scientist、エンタープライズ アーキテクトのいずれであっても、安全かつ責任を持って迅速にスケーリングする AI ソリューションを構築するための柔軟性と制御を提供します。
Foundry には、AI モデルの包括的なカタログが用意されています。 基礎モデル、推論モデル、小さな言語モデル、マルチモーダル モデル、ドメイン固有モデル、および業界モデルから 1,900 を超えるモデルがあります。
モデル カタログは、次の 2 つの主要なカテゴリに分類されます。
Azure - パートナーとコミュニティからのモデル
これらのカテゴリの違いを理解することは、特定の要件と戦略的目標に適したモデルを選択するのに役立ちます。
注
すべてのモデルについて、お客様は引き続き以下の責任を負います。
- 任意のモデルまたはシステムの使用に関する法律を遵守する
- モデル カタログ内のモデルの説明、モデル プロバイダーが利用できるモデル カード、およびその他の関連ドキュメントの確認
- ユース ケースに適したモデルを選択する
- Foundry Tools を顧客が使用することを保証するための適切な対策 (Azure AI Content Safetyの使用を含む) を実装すると、Microsoft の製品使用条件および Microsoft Enterprise AI サービス行動規範の許容される使用ポリシーに準拠します。
Azureが直接販売するモデル
Azure Direct モデル または Direct from Azure models とも呼ばれ、これらのモデルは Microsoft 製品契約に基づき Microsoft によってホストおよび販売されます。 Microsoft はこれらのモデルを評価しており、Azureの AI エコシステムに深く統合されています。 モデルはさまざまなプロバイダーから提供され、強化された統合、最適化されたパフォーマンス、エンタープライズ レベルのサービス レベル アグリーメント (SLA) を含む直接的なMicrosoft supportを提供します。
Azureが直接販売するモデルの特性:
- Microsoft からのサポートを利用可能。
- Azure サービスとインフラストラクチャとの高度な統合。
- Microsoft の責任ある AI 標準に基づく内部レビューの対象。
- モデルのドキュメントと透明性レポートにより、お客様はモデルのリスク、軽減策、制限事項を把握できます。
- エンタープライズレベルのスケーラビリティ、信頼性、セキュリティ。
これらのモデルの中には、代替可能なプロビジョニングスループットも用意されています。つまり、これらのモデルのいずれかでクォータと予約を柔軟に使用できます。 Azureから直接販売されるFoundry Modelsに提供するデータをFoundryがどのように扱うかについては、Microsoft FoundryにおけるAzure Direct Modelsのデータ、プライバシー、セキュリティをご覧ください。
パートナーとコミュニティからのモデル
これらのモデルは Foundry モデルの大部分を構成し、信頼できるサード パーティの組織、パートナー、リサーチ ラボ、コミュニティ共同作成者によって提供されています。 これらのモデルは、さまざまなシナリオ、業界、イノベーションをカバーする、特殊で多様な AI 機能を提供します。 パートナーやコミュニティのモデルの例としては、 Anthropic および Open モデルによって開発された、Hugging Face ハブから開発された大規模な言語モデルのファミリがあります。
Anthropic には、テキストと画像の入力、テキスト出力、多言語機能、ビジョンをサポートする最先端の大規模言語モデルの Claude ファミリが含まれています。 アントロピック モデルのヘルプについては、Microsoft Support を使用してください。 プライバシーの詳細については、 Microsoft Foundry (プレビュー) および Anthropic プライバシー ポリシーの Claude モデルのデータ、プライバシー、セキュリティ に関するページを参照 してください。 サービス利用規約については、「商用サービス 利用規約」を参照してください。 Anthropic モデルを使用する方法については、「 Microsoft Foundry で Claude モデルをデプロイして使用する」を参照してください。
Hugging Face Hub には、マネージド コンピューティングを使用したリアルタイム推論用の数百のモデルが含まれています。 Hugging Face は、このコレクションに掲載されているモデルを作成および維持しています。 Hugging Face モデルのヘルプについては、 Hugging Face フォーラム または Hugging Face サポートを使用してください。 Hugging Face モデルをデプロイする方法については、「 マネージド コンピューティング デプロイ (クラシック) を使用してデプロイおよび推論する方法」を参照してください。
Important
Hugging Face モデルなど、マネージド コンピューティングにデプロイ可能なモデルを操作するには、Foundry ポータル (クラシック) でハブベースのprojectを使用します。 使用可能な Foundry ポータルの詳細については、「 Microsoft Foundry とは」を参照してください。
パートナーとコミュニティからのモデルの特性:
- 外部パートナーおよびコミュニティ共同作成者によって開発およびサポートされている
- ニッチまたは広範なユース ケースに対応するさまざまな特殊なモデル
- 通常、プロバイダー自体によって検証され、Azureが提供する統合ガイドラインが提供されます。
- コミュニティ主導のイノベーションと最先端モデルの迅速な可用性
- Standard Azure AI 統合。サポートとメンテナンスは各プロバイダーによって管理されます
パートナーやコミュニティのモデルは、 マネージド コンピューティング または サーバーレスデプロイ オプションを使用してデプロイできます。 モデル プロバイダーは、モデルのデプロイ方法を選択します。 サーバーレス展開オプションで使用できる展開の種類については、「 Microsoft Foundry モデルの展開の種類」を参照してください。
モデル カタログに含めるモデルを要求する
Foundry ポータルのモデル カタログ ページからモデル カタログにモデルを追加するように要求します。
- モデル カタログ ページに移動します。
- 検索バーで、カタログに存在しないモデル ( mymodel など) を検索します。
- 要求 するモデルに 関する詳細を共有するには、[モデルの要求] を選択します。
Azureによって直接販売されるモデルと、パートナーやコミュニティからモデルを選択する
使用する Foundry モデルを選択する場合は、次の点を考慮してください。
- ケースと要件の使用: Azureによって直接販売されるモデルは、詳細なAzure統合、保証されたサポート、エンタープライズ SLA を必要とするシナリオに最適です。 パートナーやコミュニティのモデルは、特殊なユース ケースやイノベーション主導のシナリオに優れています。
- Support の期待: Azureによって直接販売されるモデルには、Microsoft が提供する堅牢なサポートとメンテナンスが付属しています。 パートナーモデルとコミュニティモデルは、さまざまなレベルの SLA とサポート構造を持つプロバイダーによってサポートされています。
- イノベーションと特殊化: パートナーやコミュニティのモデルは、主要な研究所や新興 AI プロバイダーによって開発されることが多い、特殊なイノベーションとニッチ機能に迅速なaccessを提供します。
モデル カタログ機能の概要
Foundry ポータルのモデル カタログは、さまざまなモデルを検出して使用して生成型 AI アプリケーションを構築するためのハブです。 モデル カタログには、Azure OpenAI、Mistral、Meta、Cohere、NVIDIA、Hugging Face などのモデル プロバイダー間で、Microsoft がトレーニングしたモデルを含む数百のモデルが含まれています。 Microsoft 以外のプロバイダーのモデルは、Microsoft 製品使用条件で定義されている、Microsoft 以外の製品であり、モデルに付属される条件に従います。
キーワード検索とフィルターを使用して、ニーズを満たすモデルを検索および検出します。 モデル カタログには、選択したモデルのモデル パフォーマンス ランキングとベンチマーク メトリックも用意されています。 View leaderboard と Compare models を選択してアクセスしてください。 ベンチマーク データは、モデル カードの [ ベンチマーク ] タブからも使用できます。
モデル カタログで使用できる フィルター の一部を次に示します。
- コレクション: モデル プロバイダー コレクションに基づいてモデルをフィルター処理します。
- 業界: 業界固有のデータセットでトレーニングされたモデルをフィルター処理します。
- 機能: 推論やツール呼び出しなどの一意のモデル機能をフィルター処理します。
- 推論タスク: 推論タスクの種類に基づいてモデルをフィルター処理します。
モデル カードで使用できる詳細の一部を次に示します。
- 簡単な事実: モデルに関する重要な情報を一目で確認する
- [詳細 ] タブ: 説明、バージョン情報、サポートされているデータ型など、モデルに関する詳細情報
- [ベンチマーク ] タブ: 選択したモデルのパフォーマンス ベンチマーク メトリック
- [デプロイ ] タブ: モデルの既存のデプロイの一覧
- [ライセンス ] タブ: モデル ライセンスに関連する法的情報
モデル デプロイ オプション: マネージド コンピューティングとサーバーレス デプロイ
モデル カタログには、使用するモデルをデプロイするための 2 つの異なるオプション (マネージド コンピューティングとサーバーレス デプロイ) が用意されています。 デプロイ オプションを使用したデータ処理の詳細については、 Microsoft Foundry ポータル (クラシック) のモデル カタログを使用したモデルの使用に関するデータ、プライバシー、およびセキュリティに関するページを参照してください。 Azureによって直接販売されるFoundry Modelsに提供するデータをFoundryがどのように処理するかについては、Microsoft FoundryのAzureダイレクトモデルにおけるデータ、プライバシー、セキュリティについてを参照してください。
モデル デプロイ オプションの機能
次の表に示すように、各モデルで使用できるデプロイ オプションと機能は異なります。
| Features | マネージド コンピューティング | サーバーレス展開 |
|---|---|---|
| デプロイ エクスペリエンスと課金 | モデルの重みは、マネージド コンピューティングを使って専用の仮想マシンにデプロイされます。 マネージド コンピューティングは、1 つ以上のデプロイを持つことができ、推論に REST API が利用可能になります。 デプロイで使用される仮想マシン コア時間に対して課金されます。 | API のプロビジョニングを通じてデプロイメントを行い、モデルにアクセスする。 この API は、Microsoft が推論のためにホストおよび管理するモデルにaccessを提供します。 API への入力と出力に対して (通常はトークンで) 課金されます。 デプロイする前に価格情報が提供されます。 |
| API 認証 | キーと Microsoft Entra 認証。 | キーと Microsoft Entra 認証。 |
| コンテンツの安全性 | Azure AI Content Safety サービス API を使用します。 | Azure AI Content Safety フィルターは、推論 API と統合して使用できます。 Azure AI Content Safety フィルターは個別に課金されます。 |
| ネットワークの分離 | Microsoft Foundry Hubs (クラシック) のマネージド ネットワークを構成します。 | マネージド ネットワークは、Foundry リソースのパブリック ネットワーク access (PNA) フラグ設定に従います。 詳細については、この記事で後述する 「サーバーレスデプロイを使用してデプロイされたモデルのネットワーク分離 」セクションを参照してください。 |
マネージド コンピューティング
マネージド コンピューティングとしてモデルをデプロイする機能は、Azure Machine Learningのプラットフォーム機能に基づいて構築され、大規模言語モデル (LLM) 操作のライフ サイクル全体にわたってモデル カタログ内のモデルの幅広いコレクションをシームレスに統合できます。
Important
マネージド コンピューティングにデプロイ可能なモデルを操作するには、Foundry ポータル (クラシック) でハブベースのprojectを使用します。 使用可能な Foundry ポータルの詳細については、「 Microsoft Foundry とは」を参照してください。
マネージド コンピューティングとしてデプロイするためのモデルの可用性
モデルは、Azure Machine Learning レジストリを介して使用できます。 これらのレジストリを使用すると、Azure Machine Learning資産のホストと配布に機械学習優先のアプローチが可能になります。 これらの資産には、モデルの重み、モデルを実行するためのコンテナーランタイム、モデルを評価し微調整するためのパイプライン、ベンチマークとサンプル用のデータセットが含まれます。
レジストリは、高度にスケーラブルでエンタープライズ対応のインフラストラクチャの上に構築されており、次を実現します。
すべてのAzureリージョンでジオレプリケーションが組み込まれているモデルアーティファクトに、低遅延のアクセスを提供します。
Azure Policyを使用してモデルにaccessを制限したり、マネージド仮想ネットワークを使用してセキュリティで保護されたデプロイを行うなどのエンタープライズ セキュリティ要件をサポートします。
マネージド コンピューティングを使用した推論用モデルのデプロイ
マネージド コンピューティングへのデプロイに使用できるモデルは、リアルタイム推論のためにAzure Machine Learningのマネージド コンピューティングにデプロイできます。 マネージド コンピューティングにデプロイするには、モデルを最適に実行するために、特定の製品のAzure サブスクリプションに仮想マシン クォータが必要です。 一部のモデルでは、モデル テスト用に一時的に共有されているクォータにデプロイできます。
モデルのデプロイの詳細については、次を参照してください。
- オープン モデルをマネージド コンピューティングにデプロイするには、マネージド コンピューティング デプロイ (クラシック) を使用してデプロイおよび推論する方法に関するページを参照してください。
- 従量課金制のマネージド コンピューティングに保護された Foundry モデルをデプロイするには、「従量課金制 (クラシック) を使用してマネージド コンピューティングに Microsoft Foundry Models をデプロイする」を参照してください。
マネージド コンピューティングを使用した生成 AI アプリの構築
Azure Machine Learningのprompt フロー機能は、プロトタイプ作成に優れたエクスペリエンスを提供します。 Open Model LLM ツールを使用して、プロンプト フローでマネージド コンピューティングでデプロイされたモデルを使用します。 また、LangChain などの一般的な LLM ツールでマネージド コンピューティングによって公開される REST API を、Azure Machine Learning 拡張機能で使用することもできます。
マネージド コンピューティングとしてデプロイされたモデルのコンテンツの安全性
Azure AI Content Safety サービスは、性的コンテンツ、暴力、ヘイト、自傷行為など、有害なコンテンツのさまざまなカテゴリを対象に、マネージド コンピューティングで使用できます。 このサービスを使用して、ジェイルブレイク リスク検出や保護されたマテリアル テキストの検出などの高度な脅威をスクリーニングすることもできます。
Llama 2 のAzure AI Content Safetyとのリファレンス統合については、このノートブックを参照してください。 または、プロンプト フローで Content Safety (Text) ツールを使用して、モデルからの応答をスクリーニングのためにAzure AI Content Safetyに渡します。 このような使用に対しては、Azure AI Content Safety の価格で説明されているように、個別に課金されます。
サーバーレス展開
サーバーレスデプロイでは、Foundry Models をサブスクリプションでホストすることなく API として使用できます。 モデルは Microsoft が管理するインフラストラクチャでホストされます。これにより、モデル プロバイダーのモデルに対する API ベースのaccessが可能になります。 API ベースのaccessにより、モデルにアクセスするコストを大幅に削減し、セットアップ エクスペリエンスを簡素化できます。
サーバーレス デプロイで使用できるモデルはモデル プロバイダーによって提供されますが、Microsoft が管理するAzure インフラストラクチャでホストされ、API 経由でアクセスされます。 モデル プロバイダーはライセンス条項を定義し、モデルの利用価格を設定します。 Azure Machine Learning サービス:
- ホスティング インフラストラクチャを管理します。
- 推論 API を使用できるようにします。
- 送信されたプロンプトとサーバーレス展開のコンテンツ出力のデータ プロセッサとして機能します。
サーバーレス展開の種類
Foundry Models のサーバーレス展開オプションには、Standard (トークンごとの支払い) とプロビジョニング済み (予約容量) の 2 つの主要な展開カテゴリが用意されています。 各カテゴリ内で、コンプライアンス要件に基づいてグローバル、データ ゾーン、またはリージョン処理を選択できます。
使用可能なサーバーレス展開の種類は、Global Standard、Global Provisioned、Global Batch、Data Zone Standard、Data Zone Provisioned、Data Zone Batch、Standard、Regional Provisioned、Developer です。 これらの展開の種類と、使用に適した展開の種類を選択する方法の詳細については、「 Microsoft Foundry モデルの展開の種類」を参照してください。
サーバーレス展開の料金請求
サーバーレスデプロイとしてデプロイされたモデルの検出、サブスクリプション、および消費エクスペリエンスは、Foundry ポータルとAzure Machine Learning studioにあります。 ユーザーはモデルの使用に関するライセンス条項に同意します。 消費に関する価格情報は、展開中に利用可能です。
パートナーやコミュニティの Foundry Models は、Microsoft コマーシャル マーケットプレースの使用条件に従ってAzure Marketplaceを通じて課金されます。
Azureによって直接販売された鋳造モデルは、ファーストパーティ消費サービスとしてAzureメーター経由で課金されます。 Product Terms で説明されているように、ファースト パーティの従量課金サービスは Azure メーターを使用して購入しますが、Azureサービス条件の対象ではありません。 これらのモデルの使用には、提供されているライセンス条項が適用されます。
モデルの微調整
特定のモデルでは微調整もサポートされています。 これらのモデルでは、マネージド コンピューティングまたはサーバーレス デプロイを微調整して、指定したデータを使用してモデルを調整できます。 詳細については、「 Microsoft Foundry (クラシック) を使用してモデルを微調整する」を参照してください。
サーバーレス デプロイとしてデプロイされたモデルを含む RAG
Foundry ポータルで、サーバーレス デプロイを介してデプロイされたモデルでベクター インデックスと取得拡張生成 (RAG) を使用して、カスタム データに基づいて埋め込みと推論を生成します。 これらの埋め込みと推論により、ユース ケースに固有の回答を生成できます。 詳細については、 Microsoft Foundry ポータル (クラシック) でのベクター インデックスの作成と使用に関するページを参照してください。
オファーとモデルのリージョン別の利用可能性
トークンごとの支払い請求は、Azure サブスクリプションが、モデル プロバイダーがオファーを利用可能にした国または地域の課金アカウントに属しているユーザーのみが利用できます。 該当するリージョンでオファーを利用できる場合、ユーザーは、Azure リージョンにproject リソースを持っている必要があります。このリージョンでは、モデルをデプロイまたは微調整できます (該当する場合)。 詳細については、 サーバーレス デプロイ (クラシック) でのモデルのリージョンの可用性 に関するページを参照してください。
サーバーレス展開を介してデプロイされたモデルのコンテンツ の安全性
サーバーレス API を使用してデプロイされた言語モデルの場合、Azure AI は、Azure AI Content Safety テキスト モデレーション フィルターの既定の構成を実装します。このフィルターは、ヘイト、自傷行為、性的コンテンツ、暴力コンテンツなどの有害なコンテンツを検出します。 コンテンツフィルタリングの詳細については、Azureが直接販売するモデルのガードレールとコントロールを参照してください。
ヒント
コンテンツ フィルタリングは、サーバーレス API を介してデプロイされる特定のモデルの種類では使用できません。 これらのモデルの種類には、埋め込みモデルと時系列モデルが含まれます。
コンテンツのフィルター処理は、サービスがコンテンツの生成を求めるプロンプトを処理すると同期的に行われます。 このような使用については、Azure AI Content Safetyの価格に応じて個別に課金される場合があります。 個々のサーバーレス エンドポイントのコンテンツ フィルター処理は、次のいずれかを無効にすることができます。
- 言語モデルを初めてデプロイした時点で
- 後で、デプロイの詳細ページでコンテンツフィルターを切り替えることによって
Model Inference API 以外の API を使用して、サーバーレス API 経由でデプロイされたモデルを操作することにしたとします。 このような状況では、Azure AI Content Safetyを使用して個別に実装しない限り、コンテンツ フィルター処理は有効になりません。
Azure AI Content Safetyを開始するには、「クイックスタート: テキスト コンテンツの分析」を参照してください。 サーバーレス API を使用してデプロイされたモデルを操作するときにコンテンツ フィルターを使用しない場合は、有害なコンテンツにユーザーを公開するリスクが高くなります。
サーバーレスデプロイを介してデプロイされたモデルのネットワーク分離
サーバーレス デプロイとして配置されたモデルのエンドポイントは、そのデプロイが存在するプロジェクトを持つFoundryハブのパブリックネットワークアクセスフラグ設定に従います。 サーバーレス展開をセキュリティで保護するには、Foundry ハブでパブリック ネットワーク access フラグを無効にします。 ハブのプライベート エンドポイントを使用すると、クライアントからエンドポイントへの受信通信のセキュリティ保護を促進できます。
Foundry ハブのパブリックネットワークアクセスフラグを設定するには、次の手順に従ってください:
- Azure portalに移動します。
- ハブが属するリソース グループを検索し、このリソース グループに一覧表示されているリソースから Foundry ハブを選択します。
- ハブの概要ページの左ペインで、[設定]>[ネットワーク] に移動します。
- Public access タブで、パブリック ネットワーク access フラグの設定を構成します。
- 変更を保存。 変更が反映されるまでに最大 5 分かかる場合があります。
制限事項
2024 年 7 月 11 日より前にプライベート エンドポイントが作成された Foundry ハブがある場合、このハブ内のプロジェクトに追加されたサーバーレス デプロイは、ハブのネットワーク構成に従いません。 代わりに、ハブの新しいプライベート エンドポイントと、新しいデプロイがハブのネットワーク構成に従うことができるように、projectに新しいサーバーレスデプロイを作成します。
2024 年 7 月 11 日より前にサーバーレスデプロイが作成された Foundry ハブがあり、このハブでプライベート エンドポイントを有効にした場合、既存のサーバーレスデプロイはハブのネットワーク構成に従いません。 ハブ内のサーバーレスデプロイがハブのネットワーク構成に従う場合は、デプロイをもう一度作成します。
現在、Azure OpenAI On Your Data のサポートは、プライベート ハブのサーバーレス デプロイでは使用できません。プライベート ハブにはパブリック ネットワーク access フラグが無効になっているためです。
ネットワーク構成の変更 (パブリック ネットワーク access フラグの有効化または無効化など) が反映されるまでに最大 5 分かかる場合があります。
モデルのライフサイクル: 非推奨化と廃止
AI モデルは急速に進化し、同じモデル ファミリの機能が更新された新しいバージョンまたは新しいモデルが使用可能になると、Foundry モデル カタログで古いモデルが廃止される可能性があります。 新しいモデル バージョンへのスムーズな移行を可能にするために、一部のモデルではユーザーが自動更新を有効にすることができます。 さまざまなモデルのモデル ライフサイクル、今後のモデル提供終了日、推奨される置換モデルとバージョンについては、以下を参照してください。