Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Azure AI Content Understanding è un servizio di intelligenza artificiale multimodale che estrae contenuti semantici da documenti, video, audio e file d'immagini. Trasforma contenuti non strutturati in dati strutturati e leggibili da macchina, ottimizzati per la generazione aumentata al recupero (RAG) e flussi di lavoro automatizzati.
Usa la libreria client per la comprensione dei contenuti Azure AI per:
- Estrae il contenuto del documento - Estrae testo, tabelle, figure, informazioni di layout e markdown strutturato dai documenti (PDF, immagini con testo o testo scritto a mano, documenti Office e altro)
- Trascrivere e analizzare audio - Convertire i contenuti audio in trascrizioni ricercabili con informazioni sulla diarizzazione e il tempo del parlante
- Analizza i contenuti video - Estrai fotogrammi visivi, trascrivi tracce audio e genera riassunti strutturati dai file video
- Analizzatori precostruiti - Utilizzare analizzatori preassemblati pronti per la produzione in diversi settori, inclusi finance e fiscali (fatture, ricevute, moduli fiscali), verifica dell'identità (passaporti, patenti di guida), mutui e prestiti (domande di prestito, perizie), approvvigionamenti e contratti (ordini di acquisto, accordi) e utenze (estratti conto di fatturazione)
- Creare analizzatori personalizzati - Costruire analizzatori specifici per dominio per esigenze specializzate di estrazione di contenuti in tutte e quattro le modalità (documenti, video, audio e immagini)
- Classifica documenti e video - Categorizza ed estrae automaticamente le informazioni da documenti e video per tipo
Collegamenti chiave:
- Codice sorgente
- Pacchetto (NPM)
- Documentazione prodotto
- Campioni
Getting started
Ambienti attualmente supportati
LTS di Node.js - Versioni più recenti di Safari, Chrome, Edge e Firefox.
Consulta la nostra politica support per maggiori dettagli.
Prerequisiti
- Un abbonamento Azure
- Una risorsa
Microsoft Foundry creata in una regione supportata <>c1
Installa il pacchetto @azure/ai-content-understanding
Installa la libreria client Azure Content Understanding per JavaScript con npm:
npm install @azure/ai-content-understanding
Configura la tua risorsa Microsoft Foundry
Prima di utilizzare il Content Understanding SDK, devi configurare una risorsa Microsoft Foundry e distribuire i grandi modelli linguistici richiesti. La Content Understanding utilizza attualmente modelli OpenAI GPT (come gpt-4.1, gpt-4.1-mini e text-embedding-3-large).
Passo 1: Crea una risorsa Microsoft Foundry
Importante: Devi creare la tua risorsa Microsoft Foundry in una regione che supporti la Content Understanding. Per un elenco delle regioni disponibili, vedi Azure Content Understanding region and language support.
- Segui i passaggi nel quickstart Azure Content Understanding per creare una risorsa Microsoft Foundry nel Azure portal
- Ottieni l'URL endpoint della tua risorsa Foundry da Azure Portal:
- Vai su Azure Portal
- Naviga fino alla tua risorsa Microsoft Foundry
- Vai a Chiavi di gestione>delle risorse e Endpoint
- Copia l'URL Endpoint (tipicamente
https://<your-resource-name>.services.ai.azure.com/)
Importante: concedere i permessi necessari
Dopo aver creato la tua risorsa Microsoft Foundry, devi concederti il ruolo Cognitive Services User per abilitare le chiamate API per impostare le implementazioni predefinite dei modelli:
- Vai su Azure Portal
- Naviga fino alla tua risorsa Microsoft Foundry
- Vai su Access Control (IAM) nel menu sinistro
- Fare clic su Aggiungi>assegnazione di ruolo
- Seleziona il ruolo Utente dei Servizi Cognitivi
- Assegnalo a te stesso (o all'utente/responsabile del servizio che gestirà l'applicazione)
Nota: Questa assegnazione di ruolo è richiesta anche se sei il proprietario della risorsa. Senza questo ruolo, non potrai chiamare l'API di Content Understanding per configurare le implementazioni dei modelli per analizzatori precompilati.
Passo 2: Implementare i modelli richiesti
Importante: Gli analizzatori preassemblati e personalizzati richiedono grandi implementazioni di modelli linguistici. Devi implementare almeno questi modelli prima di utilizzare analizzatori preassemblati e analizzatori personalizzati:
-
prebuilt-documentSearch,prebuilt-imageSearch,prebuilt-audioSearch,prebuilt-videoSearchrichiedono gpt-4.1-mini e text-embedding-3-large - Altri analizzatori preassemblati come
prebuilt-invoice,prebuilt-receiptrichiedono gpt-4.1 e text-embedding-3-large
Per distribuire un modello:
- In Microsoft Foundry, vai su Deployment>Deploy modello>Deploy modello base
- Cerca e seleziona il modello che vuoi distribuire. Attualmente, gli analizzatori precostruiti richiedono modelli come
gpt-4.1,gpt-4.1-mini, etext-embedding-3-large - Completa il deployment con le impostazioni che preferisci
- Nota il nome di distribuzione che hai scelto (per convenzione, usa il nome del modello come nome di implementazione, ad esempio
gpt-4.1per ilgpt-4.1modello)
Ripeti questo processo per ogni modello richiesto dai tuoi analizzatori preassemblati.
Per maggiori informazioni sul deployment dei modelli, consulta Crea implementazioni di modelli nel portale Microsoft Foundry.
Passo 3: Configurare le implementazioni dei modelli (necessarie per gli analizzatori preassemblati)
IMPORTANTE: Questa è una configurazione una tantum per risorsa Microsoft Foundry che mappa i tuoi modelli distribuiti a quelli richiesti dagli analizzatori predefiniti e dai modelli personalizzati. Se hai più risorse Microsoft Foundry, devi configurarle separatamente.
Devi configurare le mappature predefinite dei modelli nella tua risorsa Microsoft Foundry. Questo può essere fatto in modo programmativo usando l'SDK. La configurazione mappa i tuoi modelli distribuiti (attualmente gpt-4.1, gpt-4.1-mini e text-embedding-3-large) ai grandi modelli di linguaggio richiesti dagli analizzatori precompilati.
Per configurare le implementazioni dei modelli usando codice, consulta l'esempio Update Defaults per un esempio completo. Ecco una breve panoramica:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
// Map your deployed models to the models required by prebuilt analyzers
const updatedDefaults = await client.updateDefaults({
modelDeployments: {
"gpt-4.1": process.env["GPT_4_1_DEPLOYMENT"]!,
"gpt-4.1-mini": process.env["GPT_4_1_MINI_DEPLOYMENT"]!,
"text-embedding-3-large": process.env["TEXT_EMBEDDING_3_LARGE_DEPLOYMENT"]!,
},
});
console.log("Model deployments configured successfully!");
Nota: La configurazione viene mantenuta nella tua risorsa Microsoft Foundry, quindi devi eseguire questa configurazione solo una volta per risorsa (o ogni volta che cambi il nome delle tue distribuzioni).
Autenticare il client
Per autenticare il client, hai bisogno del tuo endpoint e delle credenziali della risorsa Microsoft Foundry. Puoi usare sia una chiave API sia l'autenticazione Microsoft Entra ID.
Utilizzo di DefaultAzureCredential
Il modo più semplice per autenticare è usare DefaultAzureCredential, che supporta metodi di autenticazione multipli e funziona bene sia negli ambienti di sviluppo locale che in quelli di produzione.
Per utilizzare il provider DefaultAzureCredential mostrato di seguito, o altri fornitori di credenziali forniti con l'SDK Azure, si prega di installare il pacchetto @azure/identity:
npm install @azure/identity
Usando Node.js e ambienti simili a Node, è possibile usare la classe DefaultAzureCredential per autenticare il client.
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const client = new ContentUnderstandingClient("<endpoint>", new DefaultAzureCredential());
Per gli ambienti browser, usa il InteractiveBrowserCredential dal pacchetto @azure/identity per autenticarti.
import { InteractiveBrowserCredential } from "@azure/identity";
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
const credential = new InteractiveBrowserCredential({
tenantId: "<YOUR_TENANT_ID>",
clientId: "<YOUR_CLIENT_ID>",
});
const client = new ContentUnderstandingClient("<endpoint>", credential);
Utilizzo della chiave API
Puoi anche autenticarti usando una chiave API dalla tua risorsa Microsoft Foundry:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { AzureKeyCredential } from "@azure/core-auth";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const apiKey = process.env["CONTENTUNDERSTANDING_KEY"]!;
const client = new ContentUnderstandingClient(endpoint, new AzureKeyCredential(apiKey));
Per ottenere la tua chiave API:
- Vai su Azure Portal
- Naviga fino alla tua risorsa Microsoft Foundry
- Vai a Chiavi di gestione>delle risorse e Endpoint
- Copia una delle Chiavi (Chiave1 o Chiave2)
Per maggiori informazioni sull'autenticazione, vedi Azure Identity client library.
Pacchetto JavaScript
Per usare questa libreria client nel browser, è prima necessario usare un bundler. Per dettagli su come to do questo intervento, si prega di consultare la nostra documentazione raggruppamento.
Concetti chiave
Analizzatori predefiniti
Content Understanding offre un ricco set di analizzatori preassemblati, pronti all'uso senza alcuna configurazione. Questi analizzatori sono alimentati da basi di conoscenza con migliaia di esempi reali di documenti, permettendo loro di comprendere la struttura documentale e adattarsi alle variazioni di formato e contenuto.
Gli analizzatori precostruiti sono organizzati in diverse categorie:
-
Analizzatori RAG - Ottimizzati per scenari di generazione con recupero aumentato con analisi semantica ed estrazione di markdown. Questi analizzatori restituiscono il markdown e un paragrafo
Summaryper ogni elemento di contenuto:-
prebuilt-documentSearch- Estrae contenuti dai documenti (PDF, immagini, documenti Office) con preservazione del layout, rilevamento delle tabelle, analisi delle figure e output markdown strutturato. Ottimizzato per scenari RAG. -
prebuilt-imageSearch- Analizza le immagini autonome e restituisce una descrizione di un paragrafo del contenuto dell'immagine. Ottimizzato per la comprensione delle immagini e scenari di ricerca. Per le immagini che contengono testo (incluso testo scritto a mano), usaprebuilt-documentSearch. -
prebuilt-audioSearch- Trascrive contenuti audio con diarizzazione del parlante, informazioni di tempo e riassunti delle conversazioni. Supporta la trascrizione multilingue. -
prebuilt-videoSearch- Analizza contenuti video con estrazione visiva di fotogrammi, trascrizione audio e riassunti strutturati. Fornisce allineamento temporale dei contenuti visivi e audio e può restituire più segmenti per video.
-
-
Analizzatori di estrazione di contenuti - Focus su OCR e analisi del layout (ad esempio,
prebuilt-read)prebuilt-layout -
Analizzatori base - Capacità fondamentali di elaborazione dei contenuti utilizzate come analizzatori genitori per analizzatori personalizzati (ad esempio,
prebuilt-document,prebuilt-image,prebuilt-audio,prebuilt-video) - Analizzatori specifici per dominio - Analizzatori preconfigurati per categorie comuni di documenti tra cui documenti finanziari (fatture, ricevute, estratti conto bancari), documenti d'identità (passaporti, patenti di guida), moduli fiscali, documenti ipotecari e contratti, e utenze (estratti conto di fatturazione)
-
Analizzatori utility - Strumenti specializzati per la generazione di schemi e l'estrazione del campo (ad esempio,
prebuilt-documentFieldSchema,prebuilt-documentFields)
Per un elenco completo degli analizzatori precompilati disponibili e delle loro capacità, consulta la documentazione Analizzatori precostruiti.
Analizzatori personalizzati
Puoi creare analizzatori personalizzati con schemi di campo specifici per l'elaborazione multimodale dei contenuti (documenti, immagini, audio, video). Gli analizzatori personalizzati ti permettono di estrarre informazioni specifiche per il dominio su misura per il tuo caso d'uso.
Tipi di contenuto
L'API restituisce diversi tipi di contenuto in base all'input:
-
document- Per file documentali (PDF, HTML, immagini, documenti Office come Word, Excel, PowerPoint e altri). Fornisce informazioni di base come il numero di pagine e il tipo MIME. Recupera informazioni dettagliate tra cui pagine, tabelle, figure, paragrafi e molte altre. -
audioVisual- Per file audio e video. Fornisce informazioni di base come i tempi (orari di inizio/fine) e le dimensioni del fotogramma (per il video). Recupera informazioni dettagliate tra cui frasi trascrizioni, dati di tempistica, e per video, riferimenti a key frame e altro ancora.
Operazioni asincrone
Le operazioni di Content Understanding sono operazioni asincrone di lunga durata. Il flusso di lavoro è:
- Inizia l'analisi - Avvia l'operazione di analisi (ritorna immediatamente con la posizione dell'operazione)
- Sondaggio per i risultati - Interroga la posizione dell'operazione fino al completamento dell'analisi
- Risultati di processo - Estrai e visualizza i risultati strutturati
L'SDK fornisce tipi di poller che gestiscono automaticamente il polling quando si utilizza pollUntilDone(). Per le operazioni di analisi, l'SDK restituisce un poller che fornisce accesso all'ID dell'operazione. Questo ID operazione può essere usato con getResultFile e deleteResult metodi.
Classi principali
-
ContentUnderstandingClient- Il client principale per l'analisi dei contenuti, nonché per la creazione, gestione e configurazione degli analizzatori -
AnalysisResult- Contiene i risultati strutturati di un'operazione di analisi, inclusi elementi di contenuto, markdown e metadati
Sicurezza dei thread
Garantiamo che tutti i metodi di istanza client siano thread-safe e indipendenti tra loro. In questo modo si garantisce che la raccomandazione di riutilizzare le istanze client sia sempre sicura, anche tra thread.
Concetti aggiuntivi
Opzioni client | Accesso alla risposta | Operazioni a lungo corso | Gestione dei guasti | Diagnostica | Durata del cliente
Esempi
Puoi familiarizzare con diverse API usando Samples.
I campioni dimostrano:
- Configurazione - Configurare i valori predefiniti per il deployment dei modelli per analizzatori predefiniti e analizzatori personalizzati
-
Estrazione del contenuto documentale - Estrazione di contenuti markdown strutturati da PDF e immagini utilizzando
prebuilt-documentSearch, ottimizzato per applicazioni RAG (Retrieval-Augmented Generation) -
Analisi Multimodale dei Contenuti - Analizzare contenuti provenienti da URL in tutte le modalità: estrarre markdown e riassunti da documenti, immagini, audio e video usando
prebuilt-documentSearch,prebuilt-imageSearch,prebuilt-audioSearch, eprebuilt-videoSearch -
Domain-Specific Analisi - Estrarre i campi strutturati dalle fatture utilizzando
prebuilt-invoice - Funzionalità avanzate del documento - Estrazione di grafici, collegamenti ipertestuali, formule e annotazioni dai documenti
- Analizzatori personalizzati - Creare analizzatori personalizzati con schemi di campo per esigenze di estrazione specializzate
- Classificazione dei documenti - Creare e utilizzare classificatori per categorizzare i documenti
- Gestione degli Analizzatori - Ottenere, elenca, aggiorna, copia e elimina gli analizzatori
- Gestione dei risultati - Recupero file di risultati dall'analisi video e eliminazione dei risultati
Estrarre contenuti markdown dai documenti
Usa l'analizzatore prebuilt-documentSearch per estrarre contenuti a sconto dai documenti:
import { ContentUnderstandingClient } from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
const documentUrl = "https://example.com/sample_invoice.pdf";
// Analyze document using prebuilt-documentSearch
const poller = client.analyze("prebuilt-documentSearch", [{ url: documentUrl }]);
const result = await poller.pollUntilDone();
// Extract markdown content
if (result.contents && result.contents.length > 0) {
const content = result.contents[0];
console.log("Markdown Content:");
console.log(content.markdown);
// Access document-specific properties
if (content.kind === "document") {
console.log(`Pages: ${content.startPageNumber} - ${content.endPageNumber}`);
}
}
Estrazione dei campi strutturati dalle fatture
Usa l'analizzatore prebuilt-invoice per estrarre i campi di fattura strutturati:
import {
ContentUnderstandingClient,
type DocumentContent,
type ContentFieldUnion,
} from "@azure/ai-content-understanding";
import { DefaultAzureCredential } from "@azure/identity";
const endpoint = process.env["CONTENTUNDERSTANDING_ENDPOINT"]!;
const client = new ContentUnderstandingClient(endpoint, new DefaultAzureCredential());
const invoiceUrl = "https://example.com/invoice.pdf";
// Analyze invoice using prebuilt-invoice analyzer
const poller = client.analyze("prebuilt-invoice", [{ url: invoiceUrl }]);
const result = await poller.pollUntilDone();
if (result.contents && result.contents.length > 0) {
const content = result.contents[0] as DocumentContent;
// Helper function to extract field values
const getFieldValue = (field: ContentFieldUnion | undefined): string | undefined => {
if (!field) return undefined;
if ("valueString" in field) return field.valueString;
if ("valueDate" in field) return field.valueDate;
if ("valueNumber" in field) return String(field.valueNumber);
return undefined;
};
// Extract invoice fields
const customerName = getFieldValue(content.fields?.["CustomerName"]);
const invoiceTotal = getFieldValue(content.fields?.["InvoiceTotal"]);
const invoiceDate = getFieldValue(content.fields?.["InvoiceDate"]);
console.log(`Customer Name: ${customerName ?? "(None)"}`);
console.log(`Invoice Total: ${invoiceTotal ?? "(None)"}`);
console.log(`Invoice Date: ${invoiceDate ?? "(None)"}`);
}
Vedi la directory samples per esempi completi.
Risoluzione dei problemi
Problemi comuni
Errore: "Access negato a causa di una chiave di abbonamento invalida o di un endpoint API errato"
- Verifica che l'URL del tuo endpoint sia corretto e includa la barra di scena
- Assicurati che la tua chiave API sia valida o che le tue credenziali Microsoft Entra ID abbiano i permessi corretti
- Assicurati di avere il ruolo Cognitive Services User assegnato al tuo account
Errore: "Distribuzione del modello non trovata" o "Distribuzione del modello predefinito non configurata"
- Assicurati di aver distribuito i modelli richiesti (gpt-4.1, gpt-4.1-mini, text-embedding-3-large) in Microsoft Foundry
- Verifica di aver configurato le implementazioni predefinite dei modelli (vedi Configura le implementazioni dei modelli)
- Controlla che i nomi delle tue implementazioni corrispondano a quelli configurati nelle impostazioni predefinite
Errore: "Operazione fallita" o timeout
- Le operazioni di comprensione dei contenuti sono asincrone e possono richiedere tempo per essere completate
- Assicurati di cercare correttamente i risultati sull'oggetto
pollUntilDone()poller - Controlla lo stato operativo per maggiori dettagli sul guasto
Registrazione
L'abilitazione della registrazione può aiutare a individuare informazioni utili sugli errori. Per visualizzare un log di richieste e risposte HTTP, impostare la variabile di ambiente AZURE_LOG_LEVEL su info. In alternativa, la registrazione può essere abilitata in tempo reale chiamando setLogLevel nel @azure/logger:
import { setLogLevel } from "@azure/logger";
setLogLevel("info");
Per istruzioni più dettagliate su come abilitare i log, puoi consultare il pacchetto @azure/logger docs.
Testing
Questo SDK include test completi che possono essere eseguiti in diverse modalità.
Avvio rapido
# Install dependencies
pnpm install
# Build the SDK
npx turbo build --filter=@azure/ai-content-understanding...
# Run tests in playback mode (no Azure resources needed)
pnpm test
Modalità di prova
- Modalità di riproduzione (predefinita): Utilizza interazioni HTTP preregistrate, senza risorse Azure richieste
- Record Mode: Viene eseguito contro i servizi di Azure live e registra le interazioni per una riproduzione futura
- Modalità Live: Viene eseguito contro i servizi di Azure live senza registrazione
Preparare l'ambiente per test live/record
Copia
test/sample.envatest/.env:cp test/sample.env test/.envModifica
test/.enve compila i tuoi valori reali:-
CONTENTUNDERSTANDING_ENDPOINT: Il tuo endpoint risorsa Microsoft Foundry -
CONTENTUNDERSTANDING_KEY: La tua chiave API (opzionale se usi DefaultAzureCredential) - Nomi di distribuzione dei modelli (necessari per gli analizzatori preassemblati)
-
Esegui i test in modalità record
Per registrare nuove interazioni di test o aggiornare quelle esistenti:
# Run tests in record mode
TEST_MODE=record pnpm test
Esegui i test in modalità riproduzione
Per eseguire test senza risorse Azure (usando interazioni preregistrate):
# Simply run tests (playback is the default mode)
pnpm test
# Or explicitly set playback mode
TEST_MODE=playback pnpm test
Ambito di pacchetto / flussi di lavoro più rapidi
Compila solo questo pacchetto e le sue dipendenze:
npx turbo build --filter=@azure/ai-content-understanding... --token 1Esegui solo i test Node per iterazioni più rapide (saltare i test browser):
TEST_MODE=record pnpm test:node # or TEST_MODE=playback pnpm test:node
Variabili di ambiente
Puoi impostare le credenziali in diversi modi:
Preferito: Crea
test/.envcopiandotest/sample.enve riempiendo i tuoi valoriFallback: Posiziona a
.envalla radice del pacchetto (stessa directory dipackage.json)Esportazione della shell: Esporta le credenziali direttamente nella tua shell:
export CONTENTUNDERSTANDING_ENDPOINT="https://<your-resource>.services.ai.azure.com/" export CONTENTUNDERSTANDING_KEY="<your_key_here>" TEST_MODE=record pnpm test:node
Consigli per il debug
Quando si esegue test in modalità record, osserva le righe di debug stampate dalla configurazione del test:
DEBUG ENV ENDPOINT DEFINED: true
DEBUG ENV KEY DEFINED: true
Importante: NON fare commit con chiavi reali. Tieni
test/sample.envcome modello e assicuratitest/.envche sia nel tuo.gitignore.
Test di risoluzione dei problemi
-
"key must be a string non vuot": Il processo di test non riusciva a trovare il tuo
CONTENTUNDERSTANDING_KEY. Assicuratitest/.envche il package-root.envsia presente e contenga la chiave (o esportala nella tua shell) prima di eseguire i test. "Richiesta non valida: Assicurati che il tuo servizio/regione supporti l'analizzatore utilizzato dai test e che la access di rete sia disponibile per input basati su URL.
Analisi locale dei campioni
Le directory di campioni sono escluse dallo spazio di lavoro pnpm per evitare conflitti di dipendenze. Per eseguire campioni con la versione locale del pacchetto per lo sviluppo:
Nota: Eseguire
pnpm linkepnpm installall'interno delle cartelle di campioni verranno aggiornati i file locali comepackage.jsonepnpm-lock.yamlsotto le directory dei campioni. Questi cambiamenti sono solo per test locali e non dovrebbero essere registrati. Se li modifichi per errore, usaligit restore <path>per tornare indietro.
Costruisci il pacchetto:
npx turbo build --filter=@azure/ai-content-understanding...Collega il pacchetto locale nelle directory di campioni:
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript pnpm link ../../../ cd ../javascript pnpm link ../../../Installa le dipendenze nelle directory di campioni:
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript pnpm install cd ../javascript pnpm install
Alternativa (nessuna modifica package.json/lockfile)
Se vuoi usare il pacchetto locale senza modificare il campione package.json o pnpm-lock.yaml, installa da un tarball compatto senza salvare:
Costruisci il pacchetto:
npx turbo build --filter=@azure/ai-content-understanding...Crea un tarball locale:
cd sdk/contentunderstanding/ai-content-understanding pnpm pack --pack-destination /tmpInstalla il tarball nei campioni (nessun salvataggio, nessun lockfile):
cd sdk/contentunderstanding/ai-content-understanding/samples/v1/typescript npm install --no-save --no-package-lock /tmp/azure-ai-content-understanding-*.tgz cd ../javascript npm install --no-save --no-package-lock /tmp/azure-ai-content-understanding-*.tgz
Esecuzione di un campione
Dopo aver installato le dipendenze, puoi eseguire campioni individuali.
Impostare le variabili ambientali:
Copia il sample.env file per creare un .env file nella radice della directory di esempio. Esegui i seguenti comandi dalla radice del pacchetto (sdk/contentunderstanding/ai-content-understanding):
# For TypeScript samples
cp sample.env samples/v1/typescript/.env
# For JavaScript samples
cp sample.env samples/v1/javascript/.env
Poi modifica il .env file e compila i tuoi valori reali:
CONTENTUNDERSTANDING_ENDPOINT=https://<your-resource>.services.ai.azure.com/
CONTENTUNDERSTANDING_KEY=<your-api-key>
Nota: Il
.envfile dovrebbe trovarsi alla radice della cartella campione (allo stesso livello dipackage.json), non all'internosrc/di .dist/
Esempi di TypeScript:
cd samples/v1/typescript
npm run build
node dist/analyzeBinary.js
Esempi di JavaScript:
cd samples/v1/javascript
node analyzeBinary.js
Per istruzioni complete di configurazione e esempi disponibili, vedi:
Passaggi successivi
- Esplora la directory sample per esempi di codice completi
- Leggi la documentazione Azure AI Content Understanding per informazioni dettagliate sul servizio
Contributing
Se desideri contribuire a questa libreria, leggi la guida contributi per saperne di più su come costruire e testare il codice.
Progetti correlati
Azure SDK for JavaScript