Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Essas perguntas frequentes (FAQ) descrevem o impacto do construtor de prompts sobre a IA.
O que são prompts?
A funcionalidade de prompts no construtor de prompts oferece aos usuários a capacidade versátil de desenvolver fluxos de trabalho com tecnologia de IA, aplicativos, transformação de dados e personalização de copilotos. Ele permite a criação de fluxos de trabalho e aplicativos que resumem documentos, criam rascunhos de respostas, classificam textos e traduzem idiomas. Essa funcionalidade é alimentada pelo Azure OpenAI Service, que utiliza a tecnologia GPT (Transformador Pré-treinado) generativo. Esses modelos foram treinados em grandes quantidades de dados de texto, permitindo-lhes gerar texto que se assemelha ao conteúdo escrito por humanos.
Saiba mais na Nota de Transparência para Azure OpenAI Service.
Quais são os casos de uso desejados de prompts?
Os prompts no Prompt Builder permitem que você crie aplicativos inteligentes e fluxos de trabalho, e amplie os copilotos. Eles aproveitam as capacidades de modelos de GPT pré-treinados, o que elimina a necessidade de treinamento do modelo personalizado. Por exemplo, a intenção pode ser criar um fluxo de trabalho que resuma as reclamações recebidas dos clientes. Em seguida, ele cria um ticket em uma ferramenta de gerenciamento de incidentes com base na categoria da reclamação recebida. Neste exemplo, os criadores podem instruir o modelo a categorizar e resumir a reclamação recebida para criar um novo incidente.
A lista a seguir contém os casos de uso mais populares para este serviço:
- Resumo de emails, conversas, transcrições, documentos e muito mais.
- Sugestões de rascunhos de respostas a consultas de clientes, reclamações, email e muito mais.
- Extração de informações de contratos, emails, fatura, ordens e muito mais.
- Classificação do conteúdo nas categorias desejadas (por exemplo, se um email é uma ordem, uma reclamação ou uma devolução).
- Análise de sentimento de um determinado texto (por exemplo, identificando o sentimento de uma revisão de produto).
Em todos esses casos, os usuários são responsáveis pelo resultado final do sistema. Eles devem revisar o conteúdo gerado quanto a possíveis imprecisões ou incompletude antes de usá-lo.
Como a prontidão do recurso de prompts foi avaliada? Quais métricas são usadas para medir o desempenho?
A avaliação deste recurso de avaliação envolve testes abrangentes em uma variedade de parâmetros de segurança. Esse teste garante que o recurso esteja alinhado com os padrões e os princípios de IA responsável de nossa organização. O serviço também é continuamente avaliado quanto a possíveis vulnerabilidades. As métricas de desempenho que usamos envolvem principalmente a eficiência da filtragem de conteúdo e o grau de concordância entre humanos e computadores em conteúdo filtrado versus não filtrado.
Que tipo de moderação de conteúdo é implementada para prompts?
Os grandes modelos de linguagem são treinados com dados da internet, o que é ótimo para construir um modelo geral de mundo. Ao mesmo tempo, pode herdar conteúdo tóxico, prejudicial e tendencioso das mesmas fontes. Os modelos são treinados para agir com segurança e não produzir conteúdo nocivo (ódio e justiça, sexualidade, violência, automutilação), mas às vezes isso pode gerar resultados tóxicos. Os prompts do construtor de prompts utilizam o serviço Azure AI Content Safety para criar recursos de moderação de conteúdo avançada nos prompts de IA. Isso inclui serviços para analisar a saída gerada com scanners de conteúdo nocivo de múltipla gravidade e segurança contra ataques de injeção rápida. A saída também é escaneada para insuficiência do material protegido.
Os criadores podem configurar o nível de moderação de conteúdo apenas para conteúdo prejudicial. Menor moderação aumenta o risco de conteúdo prejudicial nas respostas do prompt. Moderação maior reduz esse risco, mas pode diminuir o número de respostas.
Saiba mais sobre o nível de moderação de conteúdo.
Quais são as limitações do recurso de prompts? Como os usuários podem minimizar o impacto das limitações de prompt ao usar o sistema?
O uso dessa tecnologia deve estar de acordo com os requisitos no Code de conduta para Azure OpenAI Service. Esta tecnologia não deve ser usada para gerar conteúdo associado a propaganda política, discurso de ódio, desinformação, automutilação, discriminação, material sexual explícito ou outro conteúdo proibido pelo Código de Conduta. Aplicativos sem suporte dessa tecnologia incluem o fornecimento de conselhos, uso para diretrizes legais, financeiras, relacionadas à saúde ou previsões futuras, bem como cálculos financeiros, científicos ou matemáticos, e qualquer outro uso sem suporte mencionado na Consparency Note for Azure OpenAI Service.
O conteúdo gerado por IA pode ter erros, portanto, os criadores devem informar aos usuários finais sobre a solução de que a IA cria a geração de conteúdo por esse modelo de forma transparente. A comunicação clara do conteúdo gerado ajuda a evitar o excesso de confiança. Os criadores também deve infundir a possibilidade da etapa de revisão humana para garantir que o conteúdo gerado pela IA seja preciso e apropriado antes de usá-lo.
Quais fatores e configurações operacionais permitem o uso eficaz e responsável do sistema?
O conteúdo gerado pelo modelo de IA é de natureza probabilística e, portanto, as respostas do modelo podem variar para o mesmo prompt. A resposta gerada pode estar incorreta ou enganosa e pode causar resultados não intencionais do fluxo ou do aplicativo. Por exemplo, clientes empresariais podem receber informações, recomendações ou suporte errados ou incorretos. Os criadores devem implementar uma supervisão humana significativa em seus fluxos e aplicativos e testar seus prompts quanto ao potencial de gerar comportamentos nocivos ou conteúdo proibido, conforme listado no Código de Conduta da Microsoft. Os desenvolvedores de baixo código também devem ser transparentes sobre o uso da IA em seus aplicativos e fluxos para informar o usuário de negócios, indicando que a IA gera o conteúdo. Além disso, as respostas geradas podem não corresponder às expectativas do desenvolvedor de código baixo devido a restrições de tamanho, filtragem de conteúdo ou seleção de modelo.
Como o modelo GPT é chamado, onde ele está hospedado e como posso acessá-lo?
O construtor de prompts dá suporte a modelos GPT 4.1 mini, GPT 4.1 e GPT 5, que são hospedados em Azure OpenAI Service. Você pode acessar esses modelos por meio dos prompts no Power Platform, em seus aplicativos, fluxos e copilotos.
Saiba mais em O que há de novo no Azure OpenAI Service?
Meus dados são usados para treinar ou melhorar os grandes modelos de linguagem disponíveis no construtor de prompts?
Os prompts do construtor de prompts são executados em Azure OpenAI Service hospedados pela Microsoft. Os dados do cliente não são usados para treinar ou melhorar nenhum dos modelos de base Azure OpenAI Service. A Microsoft não compartilha seus dados do cliente com terceiros, a menos que você dê permissão. Os prompts do cliente (entrada) com seus dados de aterramento e as respostas de modelo (saída) não são usados para treinar ou melhorar os modelos de base do Serviço OpenAI do Azure.
O conteúdo adicionado à ação "Executar uma solicitação" é acessível publicamente?
A aba About para a ação diz, Esta ação fornece acesso aos prompts que utiliza o modelo GPT em execução no serviço Azure OpenAI.
Os prompts que você adiciona à ação Executar um prompt em Power Automate são privados por padrão. Eles só são visíveis e utilizáveis dentro da sua organização, não acessíveis ao mundo. Os prompts são particulares e destinam-se ao uso interno em sua empresa.
Os prompts recém-criados são privados por padrão. Isso significa que eles são visíveis e utilizáveis em Power Automate, Power Apps e Microsoft Copilot Studio apenas pela pessoa que os criou. Isso dá ao criador tempo para testá-los e avaliá-los em aplicativos ou fluxos de trabalho e garantir sua precisão antes de compartilhá-los.
Se você quiser que outros usuários do ambiente ou grupos usem seu prompt em Power Apps ou Power Automate, você precisará compartilhá-lo.
Saiba mais em Compartilhar seu prompt.
Como as imagens de pessoas são processadas nos prompts do construtor de prompts?
O Prompt Builder não se destina a ser usado para identificar indivíduos com base em características faciais ou dados biométricos. Quando você envia imagens contendo pessoas no criador de prompts, o sistema aplica automaticamente um recurso de desfoque de rosto antes de analisar as imagens para proteger a privacidade individual. Essa etapa de desfoque ajuda a resolver preocupações de privacidade, impedindo a identificação com base em características faciais. Com o desfoque, nenhum reconhecimento facial ou correspondência de modelo facial está envolvido. Em vez disso, qualquer identificação de indivíduos conhecidos depende de pistas contextuais, como uniformes ou configurações exclusivas, não em seus rostos. Essa medida de privacidade não deve afetar a qualidade dos resultados que você recebe. O desfoque facial pode ser ocasionalmente referenciado nas respostas do sistema.
Saiba mais em Desfoque facial.
Danos em potencial ao usar imagens ou documentos em prompts
O construtor de prompts reduz a maioria dos riscos envolvidos ao usar imagens ou documentos em prompts, mas alguns riscos ainda exigem cuidado extra do criador do prompt:
- Imagens ou documentos podem conter texto ou elementos visuais nocivos que podem afetar seus processos subsequentes.
- Imagens ou documentos podem incluir instruções especiais e possivelmente ocultas que podem comprometer ou substituir o prompt inicial.
- Imagens ou documentos podem conter instruções que resultam na geração de conteúdo protegido por direitos de propriedade intelectual (IP).
- Os prompts podem gerar comentários tendenciosos em imagens ou documentos.
- Extrair informações de imagens ou documentos de baixa qualidade pode levar a informações incorretas, também conhecidas como alucinação.
Qual é a diferença entre o modelo o3 e os modelos GPT?
O modelo o3 se destaca dos modelos GPT principalmente por causa das capacidades avançadas de raciocínio. Ele gera cadeias internas detalhadas de ideias antes de responder, acarretando um desempenho melhor em matemática, codificação e tarefas analíticas. No entanto, essa abordagem acarreta maiores requisitos computacionais e tempos de resposta mais lentos em comparação com modelos GPT. GPT-4o ou GPT-4.1, por exemplo, se destaca em tarefas gerais de linguagem e oferece respostas mais rápidas e econômicas, tornando-o indicado para aplicações nas quais saídas rápidas são essenciais.
O que são prompts e funções de IA?
Solicitações
Os prompts dão aos criadores a liberdade de instruir o modelo de linguagem grande (LLM) a se comportar de uma determinada maneira ou a executar uma tarefa específica. Ao elaborar cuidadosamente uma solicitação, você pode gerar respostas que atendam às suas necessidades de negócios específicas. Isso transforma o modelo LLM em uma ferramenta flexível para realizar diversas tarefas.
Por exemplo, com um modelo de linguagem, um prompt pode orientar o modelo para responder a uma pergunta, completar texto, traduzir idiomas, resumir um documento e identificar tarefas, tarefas pendentes e itens de ação no texto. A complexidade de uma solicitação personalizada pode variar de uma única frase a algo mais complexo, dependendo da tarefa.
Funções de IA
Funções de IA pré-criados são prompts pré-configurados criados pela equipe da Microsoft para ajudar os criadores a realizar tarefas comuns com facilidade. Eles oferecem recursos de IA prontos para uso em vários casos de uso, o que simplifica a experiência do fabricante para infundir inteligência em suas soluções.
Por exemplo, o prompt predefinido de um modelo de linguagem pode ter esta aparência:
Extraia como uma lista numerada os pontos de ação de: [TextToExtract]
Neste caso, o usuário só precisa fornecer o texto [TextToExtract] do qual deseja extrair os pontos de ação. O prompt predefinido cuida do resto.