Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Questo articolo illustra i prompt e la progettazione dei prompt come concetti chiave per creare potenti funzionalità di intelligenza artificiale generative che possono essere usate in Copilot Studio.
Importante
- I prompt usano modelli basati su Azure Foundry.
- Questa funzionalità potrebbe essere soggetta a limiti di utilizzo o limitazione della larghezza di banda della rete della capacità.
Prerequisiti
- Il tuo ambiente è nell'elenco delle aree geografiche disponibili.
- È necessario Copilot Crediti.
- Microsoft Dataverse viene installato nell'ambiente.
Cos'è un prompt
Un prompt è composto principalmente da un'istruzione in linguaggio naturale che indica a un modello di IA generativa di svolgere un compito. Il modello segue la richiesta di determinare la struttura e il contenuto del testo che deve generare. Il prompt engineering è il processo di creazione e perfezionamento della richiesta utilizzata dal modello.
Un'esperienza di creazione di prompt permette ai creatori di costruire, testare e salvare prompt riutilizzabili. In questa esperienza, puoi anche utilizzare variabili di input e dati di conoscenza per fornire dati contestuali dinamici in tempo reale. Puoi condividere questi prompt con altri e usarli come agenti, flussi di lavoro o app.
Questi suggerimenti possono essere utilizzati per una varietà di attività o scenari aziendali, come riassumere contenuti, classificare dati, estrarre entità, tradurre lingue, valutare opinioni o formulare una risposta a un reclamo. Ad esempio, è possibile richiedere di selezionare gli elementi di azione dai messaggi di posta elettronica aziendali e usarli in un flusso di lavoro Power Automate per creare un'automazione dell'elaborazione della posta elettronica.
In Copilot Studio, i prompt possono essere usati come strumenti agente per migliorare l'esperienza di chat o abilitare automazione avanzata di intelligenza artificiale o nodi del flusso di lavoro per integrare le azioni di intelligenza artificiale in automazione deterministica.
Supervisione umana
La supervisione umana è un passo importante quando si lavora con contenuti generati da un modello di IA generativa. Tali modelli sono addestrati su enormi quantità di dati e possono contenere errori e bias. Un essere umano dovrebbe esaminarlo prima di pubblicarlo online, inviarlo a un cliente o utilizzarlo per prendere decisioni aziendali. La supervisione umana ti aiuta a identificare potenziali errori e pregiudizi. Inoltre, assicurati che il contenuto sia pertinente al caso d'uso previsto e si allinei con i valori dell'azienda.
La revisione umana può anche aiutare a identificare eventuali problemi con il modello stesso. Ad esempio, se il modello genera contenuto non pertinente al caso d'uso previsto, potrebbe essere necessario modificare la richiesta.
Intelligenza artificiale responsabile
Ci impegniamo a creare un'intelligenza artificiale responsabile a livello di progettazione. Il nostro lavoro è guidato da una serie di principi fondamentali: equità, affidabilità e sicurezza, privacy e sicurezza, inclusività, trasparenza e responsabilità. Stiamo mettendo in pratica questi principi in tutta l'azienda per sviluppare e implementare un'intelligenza artificiale che abbia un impatto positivo sulla società. Adottiamo un approccio globale, combinando ricerca innovativa, ingegneria eccezionale e governance responsabile. Insieme alla ricerca leader di OpenAI sull'allineamento dell'intelligenza artificiale, stiamo promuovendo un framework per l'implementazione sicura delle nostre tecnologie di intelligenza artificiale che ha lo scopo di aiutare a guidare il settore verso risultati più responsabili.
Altre informazioni sulla trasparenza sono disponibili nella nota Transparency per Azure OpenAI.