Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Azure AI Content Understanding é um serviço multimodal de IA que extrai conteúdo semântico de documentos, vídeos, áudios e arquivos de imagem. Ele transforma conteúdo não estruturado em dados estruturados e legíveis por máquina, otimizados para geração aumentada por recuperação (RAG) e fluxos de trabalho automatizados.
Use a biblioteca cliente para entender o conteúdo de IA do Azure para:
- Extrair conteúdo de documentos - Extrair texto, tabelas, figuras, informações de layout e marcação estruturada de documentos (PDF, imagens com texto ou texto manuscrito, documentos do Office e mais)
- Transcrever e analisar áudio - Converter conteúdo de áudio em transcrições pesquisáveis com informações de diarização e temporização do falante
- Analisar conteúdo de vídeo - Extrair quadros visuais, transcrever faixas de áudio e gerar resumos estruturados a partir de arquivos de vídeo
- Analisadores pré-construídos - Use analisadores prontos para produção em diversos setores, incluindo finance e impostos (faturas, recibos, formulários fiscais), verificação de identidade (passaportes, carteiras de motorista), hipoteca e empréstimos (solicitações de empréstimo, avaliações), compras e contratos (ordens de compra, acordos) e utilidades (extratos de faturamento)
- Crie analisadores personalizados - Construa analisadores específicos de domínio para necessidades especializadas de extração de conteúdo em todas as quatro modalidades (documentos, vídeo, áudio e imagens)
- Classify documents and video - Categorizar e extrair automaticamente informações de documentos e vídeos por tipo
Links de chave:
- Código-fonte
- Pacote (NPM)
- Documentação do produto
- Samples
Getting started
Ambientes com suporte no momento
LTS de Node.js - Versões mais recentes do Safari, Chrome, Edge e Firefox.
Veja nossa política suporte para mais detalhes.
Pré-requisitos
- Uma assinatura Azure
- Um recurso
Microsoft Foundry criado em uma regiãosuportada
Instale o pacote @azure/ai-content-understanding
Instale a biblioteca cliente Azure Content Understanding para JavaScript com npm:
npm install @azure/ai-content-understanding
Configure seu recurso do Microsoft Foundry
Antes de usar o Content Understanding SDK, você precisa configurar um recurso Microsoft Foundry e implantar os grandes modelos de linguagem necessários. O Content Understanding atualmente utiliza modelos GPT OpenAI (como gpt-4.1, gpt-4.1-mini e text-embedding-3-large).
Passo 1: Criar recurso do Microsoft Foundry
Importante: Você deve criar seu recurso Microsoft Foundry em uma região que suporte Compreensão de Conteúdo. Para uma lista de regiões disponíveis, veja Azure Content Understanding region and language support.
- Siga os passos no quickstart Azure Compreensão de Conteúdo para criar um recurso Microsoft Foundry no Azure portal
- Obtenha a URL do endpoint do seu recurso Foundry pelo Azure Portal:
- Vá para Azure Portal
- Navegue até o seu recurso do Microsoft Foundry
- Vá para Chaves de Gerenciamento>de Recursos e Endpoint
- Copie a URL Endpoint (normalmente
https://<your-resource-name>.services.ai.azure.com/)
Importante: conceda permissões necessárias
Após criar seu recurso Microsoft Foundry, você deve se conceder o papel de Usuário de Serviços Cognitivos para habilitar chamadas de API para definir implantações padrão de modelos:
- Vá para Azure Portal
- Navegue até o seu recurso do Microsoft Foundry
- Vá para Access Control (IAM) no menu esquerdo
- Clique em Adicionar>Adicionar atribuição de função
- Selecione o papel de Usuário de Serviços Cognitivos
- Atribua isso a você mesmo (ou ao usuário/principal do serviço que executará a aplicação)
Nota: Essa atribuição de função é obrigatória mesmo que você seja o proprietário do recurso. Sem esse papel, você não poderá chamar a API de Compreensão de Conteúdo para configurar implantações de modelos para analisadores pré-construídos.
Passo 2: Implantar os modelos exigidos
Importante: Os analisadores pré-montados e personalizados exigem grandes implantações de modelos de linguagem. Você deve implantar pelo menos esses modelos antes de usar analisadores pré-construídos e analisadores personalizados:
-
prebuilt-documentSearch, , , exigemprebuilt-imageSearcheprebuilt-audioSearchprebuilt-videoSearch - Outros analisadores pré-construídos, como
prebuilt-invoice,prebuilt-receiptexigem gpt-4.1 e text-embedding-3-large
Para implantar um modelo:
- No Microsoft Foundry, vá para Implantações>Modelo> deimplantação Modelo base de implantação
- Procure e selecione o modelo que você quer implantar. Atualmente, analisadores pré-construídos requerem modelos como
gpt-4.1,gpt-4.1-mini, etext-embedding-3-large - Complete a implantação com as configurações que você prefiere
- Note o nome de implantação que você escolheu (por convenção, use o nome do modelo como nome de implantação, por exemplo,
gpt-4.1para ogpt-4.1modelo)
Repita esse processo para cada modelo exigido pelos seus analisadores pré-montados.
Para mais informações sobre implantação de modelos, veja Criar implantações de modelos no portal Microsoft Foundry.
Passo 3: Configurar implantações de modelos (exigidas para analisadores pré-montados)
IMPORTANTE: Essa é uma configuração única segundo o recurso do Microsoft Foundry , que mapeia seus modelos implantados para os exigidos pelos analisadores pré-construídos e modelos personalizados. Se você tem vários recursos do Microsoft Foundry, precisa configurar cada um separadamente.
Você precisa configurar os mapeamentos padrão dos modelos no seu recurso Microsoft Foundry. Isso pode ser feito programaticamente usando o SDK. A configuração mapeia seus modelos implantados (atualmente gpt-4.1, gpt-4.1-mini e text-embedding-3-large) para os grandes modelos de linguagem exigidos por analisadores pré-construídos.
Para configurar implantações de modelos usando código, veja o exemplo Update Defaults para um exemplo completo. Aqui está uma visão geral rápida:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
// Map your deployed models to the models required by prebuilt analyzers
const updatedDefaults = await client.updateDefaults({
modelDeployments: {
"gpt-4.1": process.env["GPT_4_1_DEPLOYMENT"]!,
"gpt-4.1-mini": process.env["GPT_4_1_MINI_DEPLOYMENT"]!,
"text-embedding-3-large": process.env["TEXT_EMBEDDING_3_LARGE_DEPLOYMENT"]!,
},
});
console.log("Model deployments configured successfully!");
Nota: A configuração é mantida no seu recurso Microsoft Foundry, então você só precisa rodar isso uma vez por recurso (ou sempre que mudar o nome da implantação).
Autenticar o cliente
Para autenticar o cliente, você precisa do seu endpoint de recursos e credenciais do Microsoft Foundry. Você pode usar uma chave API ou autenticação Microsoft Entra ID.
Usando DefaultAzureCredential
A maneira mais simples de autenticar é usando DefaultAzureCredential, que suporta múltiplos métodos de autenticação e funciona bem tanto em ambientes de desenvolvimento local quanto de produção.
Para usar o provedor DefaultAzureCredential mostrado abaixo, ou outros provedores de credenciais fornecidos com o SDK Azure, por favor, instale o pacote @azure/identity:
npm install @azure/identity
Usando ambientes semelhantes a Node.js e nó, você pode usar a classe DefaultAzureCredential para autenticar o cliente.
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const client = new ContentUnderstandingClient("<endpoint>", new DefaultAzureCredential());
Para ambientes de navegador, use o InteractiveBrowserCredential do pacote @azure/identity para autenticar.
import { InteractiveBrowserCredential } from "@azure/identity";
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
const credential = new InteractiveBrowserCredential({
tenantId: "<YOUR_TENANT_ID>",
clientId: "<YOUR_CLIENT_ID>",
});
const client = new ContentUnderstandingClient("<endpoint>", credential);
Usando a chave API
Você também pode autenticar usando uma chave API do seu recurso Microsoft Foundry:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { AzureKeyCredential } from "@azure/core-auth";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const apiKey = process.env["CONTENTUNDERSTANDING_KEY"]!;
const client = new ContentUnderstandingClient(endpoint, new AzureKeyCredential(apiKey));
Para obter sua chave de API:
- Vá para Azure Portal
- Navegue até o seu recurso do Microsoft Foundry
- Vá para Chaves de Gerenciamento>de Recursos e Endpoint
- Copie uma das Chaves (Chave1 ou Chave2)
Para mais informações sobre autenticação, veja Azure Biblioteca cliente de identidade.
Pacote JavaScript
Para usar essa biblioteca de clientes no navegador, primeiro você precisa usar um empacotador. Para detalhes sobre como to do isso, consulte nossa documentação agrupamento.
Conceitos principais
Analisadores predefinidos
O Content Understanding oferece um conjunto rico de analisadores pré-construídos prontos para uso sem qualquer configuração. Esses analisadores são alimentados por bases de conhecimento com milhares de exemplos reais de documentos, permitindo que compreendam a estrutura do documento e se adaptem a variações de formato e conteúdo.
Analisadores pré-construídos são organizados em várias categorias:
-
Analisadores RAG - Otimizados para cenários de geração aumentada por recuperação, com análise semântica e extração de marcação. Esses analisadores retornam markdown e um parágrafo
Summarypara cada item de conteúdo:-
prebuilt-documentSearch- Extrai conteúdo de documentos (PDF, imagens, documentos do Office) com preservação de layout, detecção de tabelas, análise de figuras e saída estruturada de marcação. Otimizado para cenários RAG. -
prebuilt-imageSearch- Analisa imagens independentes e retorna uma descrição de um parágrafo do conteúdo da imagem. Otimizado para compreensão de imagens e cenários de busca. Para imagens que contêm texto (incluindo texto manuscrito), useprebuilt-documentSearch. -
prebuilt-audioSearch- Transcreve conteúdo de áudio com diarização do falante, informações de tempo e resumos de conversas. Suporta transcrição multilíngue. -
prebuilt-videoSearch- Analisa conteúdo de vídeo com extração de quadros visuais, transcrição de áudio e resumos estruturados. Proporciona alinhamento temporal de conteúdo visual e áudio e pode retornar múltiplos segmentos por vídeo.
-
-
Analisadores de extração de conteúdo - Foco em OCR e análise de layout (por exemplo,
prebuilt-read,prebuilt-layout) -
Analisadores base - Capacidades fundamentais de processamento de conteúdo usadas como analisadores pais para analisadores personalizados (por exemplo,
prebuilt-document,prebuilt-image,prebuilt-audio,prebuilt-video) - Analisadores específicos de domínio - Analisadores pré-configurados para categorias comuns de documentos, incluindo documentos financeiros (faturas, recibos, extratos bancários), documentos de identidade (passaportes, carteiras de motorista), formulários fiscais, documentos hipotecários e contratos, e utilidades (extratos de faturamento)
-
Analisadores de utilidade - Ferramentas especializadas para geração de esquemas e extração de campo (por exemplo,
prebuilt-documentFieldSchema,prebuilt-documentFields)
Para uma lista completa dos analisadores pré-construídos disponíveis e suas capacidades, veja a documentação Analisadores pré-construídos.
Analisadores personalizados
Você pode criar analisadores personalizados com esquemas de campo específicos para processamento de conteúdo multimodal (documentos, imagens, áudio, vídeo). Analisadores personalizados permitem extrair informações específicas de domínio adaptadas ao seu caso de uso.
Tipos de conteúdo
A API retorna diferentes tipos de conteúdo com base na entrada:
-
document- Para arquivos de documentos (PDF, HTML, imagens, documentos do Office como Word, Excel, PowerPoint e outros). Fornece informações básicas como número de páginas e tipo MIME. Recupere informações detalhadas, incluindo páginas, tabelas, figuras, parágrafos e muitas outras. -
audioVisual- Para arquivos de áudio e vídeo. Fornece informações básicas como dados de temporização (horários de início/término) e dimensões de quadros (para vídeo). Recupere informações detalhadas, incluindo frases de transcrição, informações de horário, e para vídeos, referências de quadros-chave e muito mais.
Operações assíncronas
As operações de compreensão de conteúdo são operações assíncronas de longa duração. O fluxo de trabalho é:
- Iniciar a Análise - Iniciar a operação de análise (retorna imediatamente com a localização da operação)
- Pesquisa de Resultados - Questione o local da operação até a conclusão da análise
- Resultados do Processo - Extrair e exibir os resultados estruturados
O SDK fornece tipos de poller que lidam com o sondamento automaticamente ao usar pollUntilDone(). Para operações de análise, o SDK retorna um poller que fornece acesso ao ID da operação. Esse ID de operação pode ser usado com getResultFile e deleteResult métodos.
Principais classes
-
ContentUnderstandingClient- O principal cliente para análise de conteúdo, bem como para criar, gerenciar e configurar analisadores -
AnalysisResult- Contém os resultados estruturados de uma operação de análise, incluindo elementos de conteúdo, markdown e metadados
Acesso thread-safe
Garantimos que todos os métodos de instância do cliente são seguros para threads e independentes uns dos outros. Isso garante que a recomendação de reutilizar instâncias de cliente seja sempre segura, mesmo entre threads.
Conceitos adicionais
Opções do cliente | Acessando a resposta | Operações de longa duração | Manejo de falhas | Diagnóstico | Vida útil do cliente
Exemplos
Você pode se familiarizar com diferentes APIs usando Samples.
Os exemplos demonstram:
- Configuração - Configurar os padrões de implantação do modelo para analisadores pré-construídos e analisadores personalizados
-
Extração de Conteúdo de Documentos - Extrair conteúdo estruturado de markdown de PDFs e imagens usando
prebuilt-documentSearch, otimizado para aplicações RAG (geraçãoRetrieval-Augmented) -
Análise de Conteúdo Multimodal - Analisar conteúdo de URLs em todas as modalidades: extrair markdown e resumos de documentos, imagens, áudio e vídeo usando
prebuilt-documentSearch,prebuilt-imageSearch,prebuilt-audioSearch, eprebuilt-videoSearch -
Domain-Specific Análise - Extrair campos estruturados de faturas usando
prebuilt-invoice - Recursos Avançados de Documentos - Extrair gráficos, hiperlinks, fórmulas e anotações de documentos
- Analisadores Personalizados - Crie analisadores personalizados com esquemas de campo para necessidades especializadas de extração
- Classificação de Documentos - Criar e usar classificadores para categorizar documentos
- Gerenciamento de Analisadores - Obtenha, lista, atualize, copie e exclua analisadores
- Gerenciamento de Resultados - Recuperar arquivos de resultados de análise de vídeo e excluir resultados de análise
Extrair conteúdo de markdown de documentos
Use o prebuilt-documentSearch analisador para extrair conteúdo de marcação de documentos:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
const documentUrl = "https://example.com/sample_invoice.pdf";
// Analyze document using prebuilt-documentSearch
const poller = client.analyze("prebuilt-documentSearch", [{ url: documentUrl }]);
const result = await poller.pollUntilDone();
// Extract markdown content
if (result.contents && result.contents.length > 0) {
const content = result.contents[0];
console.log("Markdown Content:");
console.log(content.markdown);
// Access document-specific properties
if (content.kind === "document") {
console.log(`Pages: ${content.startPageNumber} - ${content.endPageNumber}`);
}
}
Extrair campos estruturados de faturas
Use o prebuilt-invoice analisador para extrair campos de fatura estruturada:
import {
ContentUnderstandingClient,
type DocumentContent,
type ContentFieldUnion,
} from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
const invoiceUrl = "https://example.com/invoice.pdf";
// Analyze invoice using prebuilt-invoice analyzer
const poller = client.analyze("prebuilt-invoice", [{ url: invoiceUrl }]);
const result = await poller.pollUntilDone();
if (result.contents && result.contents.length > 0) {
const content = result.contents[0] as DocumentContent;
// Helper function to extract field values
const getFieldValue = (field: ContentFieldUnion | undefined): string | undefined => {
if (!field) return undefined;
if ("valueString" in field) return field.valueString;
if ("valueDate" in field) return field.valueDate;
if ("valueNumber" in field) return String(field.valueNumber);
return undefined;
};
// Extract invoice fields
const customerName = getFieldValue(content.fields?.["CustomerName"]);
const invoiceTotal = getFieldValue(content.fields?.["InvoiceTotal"]);
const invoiceDate = getFieldValue(content.fields?.["InvoiceDate"]);
console.log(`Customer Name: ${customerName ?? "(None)"}`);
console.log(`Invoice Total: ${invoiceTotal ?? "(None)"}`);
console.log(`Invoice Date: ${invoiceDate ?? "(None)"}`);
}
Veja o diretório samples para exemplos completos.
Resolução de problemas
Problemas comuns
Erro: "Access negado devido à chave de assinatura inválida ou endpoint da API errado"
- Verifique se a URL do seu endpoint está correta e inclui a barra final
- Certifique-se de que sua chave de API seja válida ou que suas credenciais do Microsoft Entra ID tenham as permissões corretas
- Certifique-se de que você tem o papel de Usuário de Serviços Cognitivos atribuído à sua conta
Erro: "Implantação do modelo não encontrada" ou "Implantação padrão do modelo não configurada"
- Certifique-se de ter implantado os modelos necessários (gpt-4.1, gpt-4.1-mini, text-embedding-3-large) no Microsoft Foundry
- Verifique se você configurou as implantações padrão do modelo ( veja Configurar Implantações do Modelo)
- Verifique se os nomes das suas implantações correspondem ao que você configurou nos padrões
Erro: "Operação falhada" ou tempo limite
- As operações de Compreensão de Conteúdo são assíncronas e podem levar tempo para serem concluídas
- Certifique-se de estar pesquisando corretamente os resultados usando
pollUntilDone()no objeto do poller - Verifique o status da operação para mais detalhes sobre a falha
Registro em log
Habilitar o registro em log pode ajudar a descobrir informações úteis sobre falhas. Para ver um log de solicitações e respostas HTTP, defina a variável de AZURE_LOG_LEVEL ambiente como info. Alternativamente, o logging pode ser ativado em tempo de execução chamando setLogLevel no @azure/logger:
import { setLogLevel } from "@azure/logger";
setLogLevel("info");
Para instruções mais detalhadas sobre como ativar logs, você pode consultar o pacote documentação do @azure/logger.
Testes
Este SDK inclui testes abrangentes que podem ser executados em diferentes modos.
Início rápido
# Install dependencies
pnpm install
# Build the SDK
npx turbo build --filter=@azure/ai-content-understanding...
# Run tests in playback mode (no Azure resources needed)
pnpm test
Modos de teste
- Modo de Reprodução (padrão): Usa interações HTTP pré-gravadas, sem recursos Azure necessários
- Modo Gravação: Roda contra serviços de Azure ao vivo e grava interações para reprodução futura
- Modo Live: Roda contra serviços de Azure ao vivo sem gravação
Configuração do ambiente para testes ao vivo/gravação
Cópia
test/sample.envparatest/.env:cp test/sample.env test/.envEdite
test/.enve preencha seus valores reais:-
CONTENTUNDERSTANDING_ENDPOINT: Seu endpoint de recursos do Microsoft Foundry -
CONTENTUNDERSTANDING_KEY: Sua chave API (opcional se estiver usando o DefaultAzureCredential) - Nomes de implantação de modelos (necessários para analisadores pré-construídos)
-
Execute testes no modo de registro
Para registrar novas interações de teste ou atualizar as existentes:
# Run tests in record mode
TEST_MODE=record pnpm test
Execute testes no modo de reprodução
Para rodar testes sem recursos do Azure (usando interações pré-gravadas):
# Simply run tests (playback is the default mode)
pnpm test
# Or explicitly set playback mode
TEST_MODE=playback pnpm test
Fluxos de trabalho com escopo de pacotes / mais rápidos
Construa apenas este pacote e suas dependências:
npx turbo build --filter=@azure/ai-content-understanding... --token 1Execute apenas testes de Nó para iterações mais rápidas (pule testes de navegador):
TEST_MODE=record pnpm test:node # or TEST_MODE=playback pnpm test:node
Variáveis de ambiente
Você pode definir credenciais de várias formas:
Preferencial: Crie
test/.envcopiando e preenchendotest/sample.envseus valoresAlternativa: Coloque a
.envna raiz do pacote (mesmo diretório depackage.json)Exportação de shell: Exporte credenciais diretamente no seu shell:
export CONTENTUNDERSTANDING_ENDPOINT="https://<your-resource>.services.ai.azure.com/" export CONTENTUNDERSTANDING_KEY="<your_key_here>" TEST_MODE=record pnpm test:node
Dicas de depuração
Ao rodar testes no modo de registro, observe as linhas de depuração impressas pela configuração de teste:
DEBUG ENV ENDPOINT DEFINED: true
DEBUG ENV KEY DEFINED: true
Importante: NÃO faça commit de chaves reais. Mantenha
test/sample.envcomo modelo e certifique-setest/.envde que está no seu.gitignore.
Testes de solução de problemas
-
"chave deve ser uma cadeia não vazia": O processo de teste não conseguiu encontrar seu
CONTENTUNDERSTANDING_KEY. Certifique-setest/.envde que a raiz.envdo pacote está presente e contém a chave (ou exporte-a no seu shell) antes de rodar testes. - "Solicitação inválida" erros LRO: Certifique-se de que seu serviço/região suporta o analisador usado pelos testes e que o access de rede esteja disponível para entradas baseadas em URL.
Execução de Amostras Localmente
Os diretórios de amostras são excluídos do espaço de trabalho pnpm para evitar conflitos de dependência. Para rodar amostras com a versão de desenvolvimento local do pacote:
Nota: Executando
pnpm linkepnpm installdentro das pastas de samples, os arquivos locais são atualizados comopackage.jsonepnpm-lock.yamlsob os diretórios de samples. Essas mudanças são apenas para testes locais e não devem ser registradas. Se você acidentalmente modifica, usegit restore <path>para reverter.
Construa o pacote:
npx turbo build --filter=@azure/ai-content-understanding...Vincule o pacote local nos diretórios de exemplos:
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript pnpm link ../../../ cd ../javascript pnpm link ../../../Instale dependências nos diretórios de exemplos:
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript pnpm install cd ../javascript pnpm install
Alternativa (sem alterações package.json/lockfile)
Se você quiser usar o pacote local sem modificar a amostra package.json ou pnpm-lock.yaml, instale a partir de um tarball compacto sem salvar:
Construa o pacote:
npx turbo build --filter=@azure/ai-content-understanding...Crie um alcatrão local:
cd sdk/contentunderstanding/ai-content-understanding pnpm pack --pack-destination /tmpInstale a bola de alcatrão nos samples (sem salvamento, sem arquivo de bloqueio):
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript npm install --no-save --no-package-lock /tmp/azure-ai-content-understanding-*.tgz cd ../javascript npm install --no-save --no-package-lock /tmp/azure-ai-content-understanding-*.tgz
Rodando uma amostra
Após instalar dependências, você pode rodar samples individuais.
Configuração de variáveis de ambiente:
Copie o sample.env arquivo para criar um .env arquivo na raiz do diretório de exemplo. Execute os seguintes comandos a partir da raiz do pacote (sdk/contentunderstanding/ai-content-understanding):
# For TypeScript samples
cp sample.env samples/v1/typescript/.env
# For JavaScript samples
cp sample.env samples/v1/javascript/.env
Depois, edite o .env arquivo e preencha seus valores reais:
CONTENTUNDERSTANDING_ENDPOINT=https://<your-resource>.services.ai.azure.com/
CONTENTUNDERSTANDING_KEY=<your-api-key>
Nota: O
.envarquivo deve estar na raiz da pasta de exemplo (mesmo nível quepackage.json), não dentrosrc/de oudist/.
Exemplos de TypeScript:
cd samples/v1/typescript
npm run build
node dist/analyzeBinary.js
Exemplos de JavaScript:
cd samples/v1/javascript
node analyzeBinary.js
Para instruções completas de configuração e exemplos disponíveis, veja:
- TypeScript exemplos README
JavaScript README
Próximas etapas
- Explore o diretório exemplos para exemplos completos de código
- Leia a documentação de Compreensão de Conteúdo Azure IA para informações detalhadas sobre o serviço
Contributing
Se você quiser contribuir para esta biblioteca, por favor leia o guia contribuição para saber mais sobre como construir e testar o código.
Projetos relacionados
Azure SDK for JavaScript