Compartilhar via


Início rápido do Microsoft Foundry

Neste início rápido, você vai começar a usar modelos e agentes no Foundry.

Você vai:

  • Gerar uma resposta de um modelo
  • Criar um agente com um prompt definido
  • Tenha uma conversa com várias rodadas com o agente

Pré-requisitos

Definir variáveis de ambiente e obter o código

Armazene o ponto de extremidade do projeto como uma variável de ambiente. Defina também esses valores para uso em seus scripts.

Python e JavaScript

PROJECT_ENDPOINT=<endpoint copied from welcome screen>
AGENT_NAME="MyAgent"

C# e Java

ProjectEndpoint = <endpoint copied from welcome screen>
AgentName = "MyAgent"

Acompanhe abaixo ou obtenha o código:

Entre usando o comando CLI az login para autenticar antes de executar seus scripts de Python.

Instalar e autenticar

Instale a versão correta dos pacotes, conforme mostrado aqui.

  1. Instale a versão atual do azure-ai-projects. Esta versão usa a API de projetos do Foundry (novo).

    pip install azure-ai-projects>=2.0.0
    
  2. Entre usando o comando CLI az login para autenticar antes de executar seus scripts de Python.

Dica

O código usa Azure projetos de IA 2.x e é incompatível com Azure projetos de IA 1.x. Consulte a documentação do Foundry (clássico) para a versão Azure AI Projects 1.x.

Conversar com um modelo

Interagir com um modelo é o bloco de construção básico de aplicativos de IA. Envie uma entrada e receba uma resposta do modelo:

from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

# Format: "https://resource_name.ai.azure.com/api/projects/project_name"
PROJECT_ENDPOINT = "your_project_endpoint"

# Create project and openai clients to call Foundry API
project = AIProjectClient(
    endpoint=PROJECT_ENDPOINT,
    credential=DefaultAzureCredential(),
)
openai = project.get_openai_client()

# Run a responses API call
response = openai.responses.create(
    model="gpt-5-mini",  # supports all Foundry direct models
    input="What is the size of France in square miles?",
)
print(f"Response output: {response.output_text}")

Depois de executar o código, você verá uma resposta gerada por modelo no console (por exemplo, um poema curto ou resposta ao prompt). Isso confirma que o endpoint do projeto, a autenticação e a implantação do modelo estão funcionando corretamente.

Dica

O código usa Azure projetos de IA 2.x e é incompatível com Azure projetos de IA 1.x. Consulte a documentação do Foundry (clássico) para a versão 1.x do Azure AI Projects.

Criar um agente

Crie um agente usando seu modelo implantado.

Um agente define o comportamento principal. Uma vez criado, ele garante respostas consistentes nas interações do usuário sem repetir instruções a cada vez. Você pode atualizar ou excluir agentes a qualquer momento.

from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient
from azure.ai.projects.models import PromptAgentDefinition

# Format: "https://resource_name.ai.azure.com/api/projects/project_name"
PROJECT_ENDPOINT = "your_project_endpoint"
AGENT_NAME = "your_agent_name"

# Create project client to call Foundry API
project = AIProjectClient(
    endpoint=PROJECT_ENDPOINT,
    credential=DefaultAzureCredential(),
)

# Create an agent with a model and instructions
agent = project.agents.create_version(
    agent_name=AGENT_NAME,
    definition=PromptAgentDefinition(
        model="gpt-5-mini",  # supports all Foundry direct models"
        instructions="You are a helpful assistant that answers general questions",
    ),
)
print(f"Agent created (id: {agent.id}, name: {agent.name}, version: {agent.version})")

A saída confirma que o agente foi criado. Para as guias do SDK, você vê o nome e a ID do agente impressos no console.

Dica

O código usa Azure projetos de IA 2.x e é incompatível com Azure projetos de IA 1.x. Consulte a documentação do Foundry (clássico) para a versão 1.x do Azure AI Projects.

Conversar com um agente

Use o agente criado anteriormente chamado "MyAgent" para interagir fazendo uma pergunta e um acompanhamento relacionado. A conversa mantém o histórico entre essas interações.

from azure.identity import DefaultAzureCredential
from azure.ai.projects import AIProjectClient

# Format: "https://resource_name.ai.azure.com/api/projects/project_name"
PROJECT_ENDPOINT = "your_project_endpoint"
AGENT_NAME = "your_agent_name"

# Create project and openai clients to call Foundry API
project = AIProjectClient(
    endpoint=FOUNDRY_PROJECT_ENDPOINT,
    credential=DefaultAzureCredential(),
)
openai = project.get_openai_client()

# Create a conversation for multi-turn chat
conversation = openai.conversations.create()

# Chat with the agent to answer questions
response = openai.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": FOUNDRY_AGENT_NAME, "type": "agent_reference"}},
    input="What is the size of France in square miles?",
)
print(response.output_text)

# Ask a follow-up question in the same conversation
response = openai.responses.create(
    conversation=conversation.id,
    extra_body={"agent_reference": {"name": FOUNDRY_AGENT_NAME, "type": "agent_reference"}},
    input="And what is the capital city?",
)
print(response.output_text)

Você vê as respostas do agente para ambos os prompts. A resposta subsequente demonstra que o agente mantém o histórico da conversa ao longo das interações.

Dica

O código usa Azure projetos de IA 2.x e é incompatível com Azure projetos de IA 1.x. Veja a documentação do Foundry (clássico) da versão 1.x do Azure AI Projects.

Limpar os recursos

Se você não precisar mais de nenhum dos recursos que criou, exclua o grupo de recursos associado ao seu projeto.

  • No portal Azure, selecione o grupo de recursos e selecione Delete. Confirme se deseja excluir o grupo de recursos.

Próxima etapa