次の方法で共有


Microsoft Foundry クイック スタート

このクイック スタートでは、Foundry でモデルとエージェントの使用を開始します。

そうするでしょう:

  • モデルから応答を生成する
  • 定義されたプロンプトを使用してエージェントを作成する
  • エージェントと複数ターンの会話を行う

[前提条件]

  • Microsoft Foundry にデプロイされたモデル。 モデルがない場合は、最初に 「クイック スタート: Microsoft Foundry リソースを設定する」を完了します。
  • 必要な言語ランタイム、グローバル ツール、Visual Studio Code拡張機能 (開発環境の準備で説明されています。

環境変数を設定してコードを取得する

プロジェクト エンドポイントを環境変数として格納します。 また、スクリプトで使用するためにこれらの値を設定します。

- Python and JavaScript

PROJECT_ENDPOINT=<endpoint copied from welcome screen>
AGENT_NAME="MyAgent"

- C# and Java

ProjectEndpoint = <endpoint copied from welcome screen>
AgentName = "MyAgent"
  • Python
  • C#
  • TypeScript
  • Java
  • REST API
  • Foundry ポータル

以下に従うか、コードを取得します。

コードを取得する

Python スクリプトを実行する前に、CLI az login コマンドを使用してサインインして認証します。

インストールと認証

次に示すように、正しいバージョンのパッケージをインストールしてください。

  • Python
  • C#
  • TypeScript
  • Java
  • REST API
  • Foundry ポータル
  1. 現在のバージョンの をインストールします。 このバージョンでは 、Foundry プロジェクト (新規) API を使用します。

    pip install azure-ai-projects>=2.0.0
    
  2. Python スクリプトを実行する前に、CLI az login コマンドを使用してサインインして認証します。

ヒント

コードでは、Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンの Foundry (クラシック) ドキュメントを参照してください。

モデルとのチャット

モデルとの対話は、AI アプリケーションの基本的な構成要素です。 入力を送信し、モデルから応答を受信します。

  • Python
  • C#
  • TypeScript
  • Java
  • REST API
  • Foundry ポータル
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

# Format: "https://resource_name.ai.azure.com/api/projects/project_name"
PROJECT_ENDPOINT = "your_project_endpoint"

# Create project and openai clients to call Foundry API
project = AIProjectClient(
    endpoint=PROJECT_ENDPOINT,
    credential=DefaultAzureCredential(),
)
openai = project.get_openai_client()

# Run a responses API call
response = openai.responses.create(
    model="gpt-5-mini",  # supports all Foundry direct models
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

コードを実行すると、コンソールにモデルによって生成された応答 (短い詩やプロンプトへの回答など) が表示されます。 これにより、プロジェクト エンドポイント、認証、およびモデルのデプロイが正しく動作していることを確認できます。

ヒント

コードでは、Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンの Foundry (クラシック) ドキュメントを参照してください。

エージェントを作成する

デプロイしたモデルを使用してエージェントを作成します。

エージェントは、コア動作を定義します。 作成されると、毎回手順を繰り返すことなく、ユーザーの操作で一貫した応答が保証されます。 エージェントはいつでも更新または削除できます。

  • Python
  • C#
  • TypeScript
  • Java
  • REST API
  • Foundry ポータル
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

# Format: "https://resource_name.ai.azure.com/api/projects/project_name"
PROJECT_ENDPOINT = "your_project_endpoint"
AGENT_NAME = "your_agent_name"

# Create project client to call Foundry API
project = AIProjectClient(
    endpoint=PROJECT_ENDPOINT,
    credential=DefaultAzureCredential(),
)

# Create an agent with a model and instructions
agent = project.agents.create_version(
    agent_name=AGENT_NAME,
    definition=PromptAgentDefinition(
        model="gpt-5-mini",  # supports all Foundry direct models"
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

出力は、エージェントが作成されたことを確認します。 SDK タブの場合、エージェント名と ID がコンソールに出力されます。

ヒント

コードでは、Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンの Foundry (クラシック) ドキュメントを参照してください。

エージェントとのチャット

以前に作成した "MyAgent" という名前のエージェントを使用して、質問と関連するフォローアップを行って対話します。 会話は、これらの対話全体の履歴を保持します。

  • Python
  • C#
  • TypeScript
  • Java
  • REST API
  • Foundry ポータル
from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

# Format: "https://resource_name.ai.azure.com/api/projects/project_name"
PROJECT_ENDPOINT = "your_project_endpoint"
AGENT_NAME = "your_agent_name"

# Create project and openai clients to call Foundry API
project = AIProjectClient(
    endpoint=FOUNDRY_PROJECT_ENDPOINT,
    credential=DefaultAzureCredential(),
)
openai = project.get_openai_client()

# Create a conversation for multi-turn chat
conversation = openai.conversations.create()

# Chat with the agent to answer questions
response = openai.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": FOUNDRY_AGENT_NAME, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(response.output_text)

# Ask a follow-up question in the same conversation
response = openai.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": FOUNDRY_AGENT_NAME, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(response.output_text)

両方のプロンプトに対するエージェントの応答が表示されます。 フォローアップ応答は、エージェントが順番に会話履歴を保持することを示しています。

ヒント

コードでは、Azure AI Projects 2.x を使用し、Azure AI Projects 1.x と互換性がありません。 Azure AI Projects 1.x バージョンの Foundry (クラシック) ドキュメントを参照してください。

リソースをクリーンアップする

作成したリソースが不要になった場合は、プロジェクトに関連付けられているリソース グループを削除します。

  • Azure ポータルでリソース グループを選択し、Delete を選択します。 リソース グループを削除することを確認します。

次のステップ

プロトタイプ作成のアイデア - エンタープライズ エージェントを構築して評価する