Merk
Tilgang til denne siden krever autorisasjon. Du kan prøve å logge på eller endre kataloger.
Tilgang til denne siden krever autorisasjon. Du kan prøve å endre kataloger.
Denne artikkelen forklarer ledetekster og prompt engineering som nøkkelkonsepter for å hjelpe deg med å utvikle kraftige generative AI-funksjoner som kan brukes i Copilot Studio.
Viktig!
- Ledetekster bruker modeller drevet av Azure Foundry.
- Denne funksjonen kan være underlagt bruksbegrensninger eller kapasitetsbegrensning.
Forutsetninger
- Miljøet er på listen over tilgjengelige områder.
- Du trenger Copilot Credits.
- Microsoft Dataverse er installert i miljøet.
Hva er en prompt
En prompt består hovedsakelig av en naturlig språkundervisning som forteller en generativ AI-modell å utføre en oppgave. Modellen følger spørringen for å bestemme strukturen og innholdet i teksten den må generere. Spørringsteknikk er prosessen med å lage og avgrense spørringen som brukes av modellen.
En promptbyggeropplevelse lar skapere bygge, teste og lagre gjenbrukbare prompter. I denne erfaringen kan du også bruke inputvariabler og kunnskapsdata for å gi dynamiske kontekstdata under kjøring. Du kan dele disse promptene med andre og bruke dem som agenter, arbeidsflyter eller apper.
Disse spørringene kan brukes til mange oppgaver eller forretningsscenarioer, for eksempel oppsummering av innhold, kategorisering av data, utpakking av enheter, oversette språk, vurdere sentiment eller formulere et svar på en kommentar. Du kan for eksempel be om å velge ut handlingselementer fra firmaets e-postmeldinger og bruke det i en Power Automate arbeidsflyt til å bygge en automatisering av e-postbehandling.
I Copilot Studio kan ledetekster brukes som agentverktøy for å forbedre chatteopplevelsen eller aktivere avanserte ai-automatiseringer eller arbeidsflytnoder for å sette ai-handlinger i deterministiske automatiseringer.
Menneskelig oversikt
Menneskelig tilsyn er et viktig steg når man arbeider med innhold generert fra en generativ AI-modell. Slike modeller trenes på enorme mengder data og kan inneholde feil og skjevheter. Et menneske bør se gjennom det før du publiserer det på nettet, sender det til en kunde eller baserer en forretningsbeslutning på det. Menneskelig tilsyn hjelper deg å identifisere potensielle feil og skjevheter. Det sørger også for at innholdet er relevant for det tiltenkte brukstilfellet og samsvarer med selskapets verdier.
En gjennomgang av mennesker kan også bidra til å identifisere eventuelle problemer med selve modellen. Hvis modellen for eksempel genererer innhold som ikke er relevant for det tiltenkte brukstilfellet, kan det hende at du må justere spørsmålet.
Ansvarlig kunstig intelligens
Vi går inn for å skape ansvarlig KI i form av design. Vårt arbeid styres av et kjernesett med prinsipper: rettferdighet, pålitelighet og sikkerhet, personvern og sikkerhet, fortrolighet, fortrolighet og ansvarlighet. Vi setter disse prinsippene ut i praksis over hele selskapet for å utvikle og distribuere kunstig intelligens som har en positiv innvirkning på samfunnet. Vi har en omfattende tilnærming som kombinerer nyskapende forskning, enestående teknikk og ansvarlig styring. Ved siden av OpenAI sin ledende forskning på KI-justering, fremmer vi et rammeverk for sikker distribusjon av vår egen KI-teknologi som har som mål å hjelpe bransjen med å komme i gang med mer ansvarlige resultater.
Lær mer om gjennomsiktighet i Transparency-notat for Azure OpenAI.