Del via


Ofte stillede spørgsmål om prompts

Disse ofte stillede spørgsmål beskriver AI-effekten af prompt builder.

Hvad er prompter?

Promptfunktionen i prompt builder giver brugerne en alsidig mulighed for at udvikle AI-drevne arbejdsgange, applikationer, datatransformation og tilpasning af copiloter. Det gør det muligt at oprette arbejdsprocesser og programmer, der opsummerer dokumenter, opretter kladdesvar, klassificerer tekst og oversætte sprog. Denne funktion er drevet af Azure OpenAI Service, som bruger GPT-teknologi (Generative Pre-trained Transformer). Disse modeller blev trænet på store mængder tekstdata, så de kunne generere tekst, der ligner menneskeskrevet indhold.

Få mere at vide i Transparency Note til Azure OpenAI Service.

Hvad er hensigten med at bruge prompter?

Prompter i prompt builder giver dig mulighed for at bygge intelligente programmer, arbejdsgange og udvide copiloter. De udnytter funktionerne i forudindstillede GPT-modeller, der eliminerer behovet for tilpasset modeltræning. Formålet kan f.eks. være at oprette en arbejdsproces, der indeholder en opsummering af indgående kundeklager. Derefter oprettes der en anmodning i et værktøj til administration af hændelser baseret på kategorien for den indgående klage. I dette eksempel kan udviklere instruere modellen i at kategorisere og opsummere den indgående klage for at oprette en ny hændelse.

Følgende liste indeholder de mest populære brugssager til denne tjeneste:

  • Opsummering af mails, samtaler, beskeder, dokumenter osv.
  • Forslag til kladdesvar på kundeforespørgsler, klager, e-mail osv.
  • Udtrækning af oplysninger fra kontrakter, mails, faktura, ordrer osv.
  • Klassificering af indhold i ønskede kategorier (f.eks. om en e-mail er en ordre, en reklamation eller en returnering).
  • Synspunktanalyse af en bestemt tekst (f.eks. identifikation af synspunkt i en produktgennemgang).

I alle disse tilfælde er brugerne ansvarlige for det endelige resultat af systemet. De er påkrævet for at gennemgå det genererede indhold for eventuelle unøjagtigheder og ufuldstændigheder, før det bruges.

Hvordan blev promptfunktionens parathed evalueret? Hvilke metrikker er brugt til at måle ydeevne?

Evalueringen af funktionen omfatter omfattende test på tværs af en række sikkerhedsparametre. Denne test sikrer, at funktionen er i overensstemmelse med vores organisations standarder og principper for ansvarlig kunstig intelligens. Tjenesten overvåges løbende af hensyn til potentielle sårbarheder. De ydelsesmetrikværdier, vi bruger, omfatter primært effektiviteten af indholdsfiltrering og graden af aftale mellem mennesker og maskine på filtreret versus ufiltreret indhold.

Hvilken form for indholdsmodering implementeres til prompter?

De store sprogmodeller trænes på internetdata, hvilket er fantastisk til at bygge en generel verdensmodel. Samtidig kan den nedarve skadeligt og forudindtaget indhold fra de samme kilder. Modellerne er trænet til at opføre sig sikkert og ikke producere skadeligt indhold (had og retfærdighed, seksuel, vold, selvskade), men nogle gange kan det skabe giftigt output. Prompt builder-prompter bruger Azure AI Content Safety tjeneste til at bage de nyeste funktioner til indstilling af indhold i AI-prompterne. Dette inkluderer tjenester til analyse af det genererede output med multi-alvorlighedsscannere med skadeligt indhold og beskyttelse mod angreb med hurtig injektion. Outputtet scannes også for afvisning af beskyttet materiale.

Skabere kan konfigurere indholdsmoderationsniveauet kun for skadeligt indhold. Lavere moderation øger risikoen for skadeligt indhold i promptens svar. Højere moderation mindsker den risiko, men kan reducere antallet af svar.

Lær mere på indholdsmoderationsniveau.

Hvad er begrænsningerne for promptfunktionen? Hvordan kan brugere minimere påvirkningen af promptbegrænsningerne, når de bruger systemet?

Anvendelsen af denne teknologi skal være i overensstemmelse med kravene i Code of conduct for Azure OpenAI Service. Denne teknologi må ikke bruges til at generere indhold, der er associeret med politisk propaganda, hadetale, misinformation, selvskade, diskrimination, eksplicit seksuelt materiale eller andet indhold, der er forbudt i henhold til adfærdskodeks. Ikke-understøttede applikationer af denne teknologi omfatter rådgivning, brug til juridisk, økonomisk, sundhedsrelateret vejledning eller fremtidige forudsigelser samt finansielle, videnskabelige eller matematiske beregninger og andre ikke-understøttede brug, der er nævnt i Transparency Note til Azure OpenAI Service.

AI-genereret indhold kan have fejl, og derfor bør oprettere informere slutbrugerne om deres løsning om, at AI opretter indholdsoprettelsen af denne model på en gennemsigtig måde. Klar kommunikation af genereret indhold hjælper med at undgå overdreven afhængighed. Udviklere skal også undersøge muligheden for manuel gennemgang for at sikre, at det AI-genererede indhold er nøjagtigt og passende, før det bruges.

Hvilke driftsmæssige faktorer og indstillinger gør det muligt at bruge systemet på en effektiv og ansvarlig måde?

Indhold, der genereres af AI-modellen, er i sagens natur probalistisk, og modelsvar kan derfor variere for det samme spørgsmål. Det svar, der oprettes, kan være forkert eller vildledende og kan medføre utilsigtede resultater fra flowet eller appen. Virksomhedskunder kan f.eks. modtage forkerte eller ukorrekte oplysninger, anbefalinger eller support. Udviklere bør implementere meningsfuldt menneskeligt tilsyn i deres flow og apps og teste deres prompter for at se, om de potentielt kan føre til skadelig funktionsmåde eller forbudt indhold som angivet i Microsofts ordensregler. Udviklere med lav kode skal også være gennemsigtige med hensyn til brugen af kunstig intelligens i deres apps og flow for at informere erhvervsbrugeren, hvilket angiver, at AI genererer indholdet. Derudover stemmer genererede svar muligvis ikke overens med udviklerens forventninger med lav kode på grund af længdebegrænsninger, indholdsfiltrering eller modelvalg.

Hvad kaldes GPT-modellen, hvor har den sin vært, og hvordan kan jeg få adgang til den?

Prompt builder understøtter GPT 4.1 mini-, GPT 4.1- og GPT 5-modeller, som hostes på Azure OpenAI Service. Du kan få adgang til disse modeller gennem prompterne i Power Platform, i dine programmer, flow og copiloter.

Få mere at vide i Hvad er nyt i Azure OpenAI Service?

Bruges mine data til at træne eller forbedre de store sprogmodeller, der er tilgængelige på promptgeneratoren?

Prompt builder-prompter kører på Azure OpenAI Service, der hostes af Microsoft. Kundedata bruges ikke til at oplære eller forbedre nogen af de Azure OpenAI Service foundation-modeller. Microsoft deler ikke dine kundedata med en tredjepart, medmindre du har givet tilladelse til at gøre det. Kundeprompter (input) med jordforbindelsesdata og modelsvar (output) bruges ikke til at oplære eller forbedre Azure OpenAI Service-basismodeller.

Er indholdet føjet til handlingen "Kør en prompt" offentligt tilgængeligt?

Fanen About for handlingen angiver Denne handling giver adgang til dine prompter, der bruger GPT-modellen, der kører på Azure OpenAI Service.

De prompter, du føjer til Kør en prompt handling i Power Automate er som standard private. De er kun synlige og brugbare i din organisation, og de er ikke tilgængelige for hele verden. Prompterne er private og er beregnet til intern brug i din virksomhed.

Nyoprettede prompter er private som standard. Det betyder, at de er synlige og brugbare i Power Automate, Power Apps og kun Microsoft Copilot Studio af den person, der oprettede dem. Det giver udvikleren tid til at teste og evaluere dem i apps eller arbejdsprocesser og sikre, at de er nøjagtige, inden de deles.

Hvis andre brugere af miljøet eller grupperne skal bruge din prompt i Power Apps eller Power Automate, skal du dele den.

Få mere at vide i Del din prompt.

Hvordan behandles billeder af personer i promptbuilder-prompter?

Prompt builder er ikke beregnet til at blive brugt til at identificere enkeltpersoner baseret på ansigtstræk eller biometriske data. Når du indsender billeder, der indeholder personer i promptgeneratoren, anvender systemet automatisk en ansigtssløringsfunktion, før billederne analyseres for at beskytte den enkeltes privatliv. Denne sløringsproces hjælper med at løse problemer med beskyttelse af personlige oplysninger ved at forhindre identifikation baseret på ansigtstræk. Med sløring er ingen ansigtsgenkendelse eller ansigtsskabelonmatchning involveret. I stedet er enhver identifikation af kendte personer afhængig af kontekstuelle tegn, f.eks. uniformer eller særlige omgivelser, ikke af deres ansigter. Denne foranstaltning til beskyttelse af personlige oplysninger bør ikke påvirke kvaliteten af de resultater, du modtager. Der kan lejlighedsvis refereres til ansigtssløring i systemets svar.

Få mere at vide i Ansigtssløring.

Potentielle skader, når du bruger billeder eller dokumenter i prompter

Prompt builder mindsker de fleste af de risici, der er involveret, når du bruger billeder eller dokumenter i prompter, men nogle risici kræver stadig ekstra omhu fra promptopretteren:

  • Billeder eller dokumenter kan indeholde skadelig tekst eller visuelle elementer, der kan påvirke dine downstreamprocesser.
  • Billeder eller dokumenter kan indeholde særlige og muligvis skjulte instruktioner, der kan kompromittere eller tilsidesætte den første prompt.
  • Billeder eller dokumenter kan indeholde instruktioner, der kan føre til generering af indhold, der er underlagt intellektuelle ejendomsrettigheder (IP).
  • Prompts kan producere partiske kommentarer til billeder eller dokumenter.
  • Udtrækning af oplysninger fra billeder eller dokumenter af lav kvalitet kan føre til forkerte oplysninger, også kendt som hallucination.

Hvordan adskiller o3-modellen sig fra GPT-modeller?

O3-modellen skiller sig ud fra GPT-modeller primært på grund af dens avancerede ræsonnementsfunktioner. Den genererer detaljerede interne tankekæder, før den reagerer, hvilket fører til forbedret ydeevne i matematik, kodning og analytiske opgaver. Denne tilgang resulterer dog i øgede beregningskrav og langsommere svartider sammenlignet med GPT-modeller. GPT-4o eller GPT-4.1 udmærker sig f.eks. ved generelle sprogopgaver og tilbyder hurtigere, omkostningseffektive svar, hvilket gør den velegnet til applikationer, hvor hurtige output er afgørende.

Hvad er prompter og AI-funktioner?

Tilskyndelser

Prompter giver udviklere frihed til at instruere den store sprogmodel (LLM) i at opføre sig på en bestemt måde eller udføre en bestemt opgave. Ved nøje at oprette et spørgsmål kan du oprette responser, der passer til dine forretningsbehov. Dermed transformeres LLM-modellen til et fleksibelt værktøj til at udføre forskellige opgaver.

Med en sprogmodel kan en prompt f.eks. guide modellen til at besvare et spørgsmål, udfylde tekst, oversætte sprog, opsummere et dokument og identificere opgaver, opgaver og handlingspunkter i tekst. Kompleksiteten af en brugerdefineret prompt kan variere fra en enkelt sætning til noget mere indviklet, afhængigt af opgaven.

AI-funktioner

Forhåndsbyggede AI-funktioner er forhåndskonfigurerede prompts, der oprettes af Microsoft-teamet, så de let kan hjælpe udviklere med at udføre almindelige opgaver. De tilbyder AI-funktioner, der er klar til brug, på tværs af forskellige brugssager, hvilket forenkler udvikleroplevelsen, så intelligens indføres i deres løsninger.

En sprogmodels færdigbyggede prompt kan f.eks. se sådan ud:

Uddrag handlingspunkterne til en nummereret liste fra følgende: [TextToExtract]

I dette tilfælde behøver brugeren kun at angive den tekst i [TextToExtract], de vil udtrække handlingspunkter fra. Den forudindstillede prompt tager sig af resten.