Dela via


Vanliga frågor och svar om uppmaningar

Dessa vanliga frågor och svar beskriver AI-effekten av prompt builder.

Vad är uppmaningar?

Prompts-funktionen i promptbyggaren erbjuder användarna en mångsidig förmåga att utveckla AI-drivna arbetsflöden, applikationer, datatransformation och anpassning av copilots. Det gör det möjligt att skapa arbetsflöden och program som sammanfattar dokument, skapa utkastsvar, kategorisera text och översätta språk. Den här funktionen drivs av Azure OpenAI Service, som använder Generative Pre-trained Transformer (GPT) teknik. Dessa modeller tränades på stora mängder textdata, vilket gjorde det möjligt för dem att generera text som liknar mänskligt skrivet innehåll.

Läs mer i Transparency Note for Azure OpenAI Service.

Vilka är de avsedda användningsfallen för promptar?

Uppmaningar i prompt builder ger dig möjlighet att skapa intelligenta applikationer, arbetsflöden och utöka copilots. De utnyttjar funktionerna hos de förtränade GPT-modellerna, vilket eliminerar behovet av anpassad modellutbildning. Syftet kan till exempel vara att skapa ett arbetsflöde som sammanfattar inkommande klagomål från kunder. Sedan skapas ett ärende i ett incidenthanteringsverktyg baserat på kategorin för det inkommande klagomålet. I det här exemplet kan utvecklare instruera modellen att kategorisera och sammanfatta det inkommande klagomålet för att skapa en ny incident.

Följande lista innehåller de mest populära användningsfallen för tjänsten:

  • Summering av e-postmeddelanden, konversationer, transkription, dokument o.s.v.
  • Förslag på utkastsvar på kundfrågor, klagomål, e-post osv.
  • Extraktion av information från kontrakt, e-postmeddelanden, faktura, order o.s.v.
  • Klassificering av innehåll i önskade kategorier, (t.ex. om ett e-postmeddelande är en order, ett klagomål eller en retur).
  • Sentimentanalys av en viss text (t.ex. identifiera sentiment i en produktgranskning).

I alla dessa fall är användarna ansvariga för det slutliga resultatet i systemet. De måste granska innehållet som genererats och se om det finns eventuella felaktigheter innan det används.

Hur utvärderades promptarnas beredskap? Vilka mått används för att mäta prestanda?

Utvärderingen av den här funktionen omfattar omfattande tester över en rad säkerhetsparametrar. Den här testningen säkerställer att funktionen överensstämmer med vår organisations standarder och principer för ansvarsfull AI. Tjänsten utvärderas också kontinuerligt för potentiella sårbarheter. De prestandamått vi använder omfattar i första hand innehållets effektivitet och i vilken grad vi är överens mellan människor och maskin om filtrerat eller ofiltrerat innehåll.

Vilken typ av innehållsmoderering implementeras för promptar?

De stora språkmodellerna tränas på internetdata, vilket är utmärkt för att bygga en allmän världsmodell. Samtidigt kan den ärva innehåll som är olämpligt, skadlig eller fördomsfullt från samma källor. Modellerna är tränade att agera säkert och inte producera skadligt innehåll (hat och rättvisa, sexuell, våld, självskada), men ibland kan det skapa giftigt resultat. Prompt builder-promptarna utnyttjar Azure AI Content Safety-tjänsten för att integrera de mest avancerade kapaciteterna för innehållsmoderering inom AI-promptarna. Detta inkluderar tjänster för att analysera det genererade resultatet med skadliga innehållsskannrar som hanterar flertal svårighetsgrader och skydd mot promptinjektionsattacker. Utdata skannas även för återgivning eller återanvändning av skyddat material.

Skapare kan konfigurera innehållsmodereringsnivån för endast skadligt innehåll. Lägre moderering ökar risken för skadligt innehåll i promptens svar. Högre moderering minskar risken, men kan minska antalet svar.

Läs mer på innehållsmoderationsnivå.

Vilka begränsningar finns för promptfunktionen? Hur kan användare minimera påverkan av promptbegränsningar när de använder systemet?

Användningen av den här tekniken måste vara i enlighet med kraven i Kod för beteende för Azure OpenAI Service. Denna teknik får inte användas för att skapa innehåll som är associerat med politisk propaganda, hatpropaganda, missinformation, självskadebeteende, diskriminering, explicit sexuellt material eller annat innehåll som är förbjudet enligt uppförandekoden. Program som inte stöds av den här tekniken omfattar rådgivning, användning för juridiska, finansiella, hälsorelaterade riktlinjer eller framtida förutsägelser, samt finansiella, vetenskapliga eller matematiska beräkningar och all annan användning som inte stöds som nämns i Transparency Note för Azure OpenAI Service.

AI-genererat innehåll kan ha misstag, därför bör skaparna informera slutanvändarna om sin lösning att AI skapar innehållsgenereringen av den här modellen på ett transparent sätt. Tydlig kommunikation av genererat innehåll hjälper till att undvika överberoende. Utvecklare bör också försäkra sig om att det finns möjlighet till mänsklig granskning för att se till att det AI-genererade innehållet är korrekt och lämpligt innan det används.

Vilka driftfaktorer och inställningar gör det möjligt att på ett effektivt och ansvarigt sätt använda systemet?

Innehåll som genereras av AI-modellen är probabilistisk och därför kan modellsvaren variera för samma prompt. Svaret som genereras kan vara felaktigt eller missvisande och kan orsaka oavsiktliga resultat från flödet eller appen. Företagskunder kan till exempel få felaktig eller felaktig information, rekommendationer eller support. Utvecklare bör implementera meningsfull mänsklig tillsyn i sina flöden och appar och testa sina prompter för att se om de kan leda till att skadligt beteende eller förbjudet innehåll genereras enligt listan i Microsofts regler för uppförande. Utvecklare med låg kod bör också vara transparenta när det gäller användningen av AI i sina appar och flöden för att informera företagsanvändaren, vilket indikerar att AI genererar innehållet. Dessutom kanske inte genererade svar matchar lågkodsutvecklarens förväntningar på grund av längdbegränsningar, innehållsfiltrering eller modellval.

Vad kallas GPT-modellen, var finns den och hur kan jag komma åt den?

Prompt Builder stöder GPT 4.1 mini-, GPT 4.1- och GPT 5-modeller som finns på Azure OpenAI Service. Du kan komma åt dessa modeller via prompterna i Power Platform, i dina program, flöden och copilots.

Läs mer i Vad är nytt i Azure OpenAI Service?

Används mina data för att träna eller förbättra de stora språkmodellerna som är tillgängliga i prompt builder?

Prompt builder-frågor körs på Azure OpenAI Service som hanteras av Microsoft. Kunddata används inte för att träna eller förbättra någon av de Azure OpenAI Service grundmodellerna. Microsoft delar inte dina kunddata med tredje part om du inte har gett behörighet att göra det. Kunduppmaningar (indata) med sina grunddata och modellsvaren (utdata) används inte för att träna eller förbättra Grundmodeller för Azure OpenAI Service.

Är innehållet som läggs till i åtgärden "Kör en prompt" offentligt tillgängligt?

Fliken About för åtgärden säger Den här åtgärden ger åtkomst till dina uppmaningar som utnyttjar GPT-modellen som körs på Azure OpenAI Service.

De uppmaningar som du lägger till i åtgärden Kör en fråga i Power Automate är privata som standard. De är bara synliga och användbara i din organisation och inte tillgängliga för omvärlden. Prompten är privat och ska användas internt i företaget.

Nyligen skapade frågor är privata som standard. Det innebär att de är synliga och användbara i Power Automate, Power Apps och Microsoft Copilot Studio endast av den person som skapade dem. Detta ger utvecklaren tid att testa och utvärdera dem i appar eller arbetsflöden och se till att de är korrekta innan de delas.

Om du vill att andra användare av miljön eller grupperna ska använda din uppmaning i Power Apps eller Power Automate måste du dela den.

Mer information finns i Dela din prompt.

Hur bearbetas bilder av personer i prompt builder-prompter?

Prompt Builder är inte avsett att användas för att identifiera individer baserat på ansiktsdrag eller biometriska data. När du skickar in bilder som innehåller personer i prompt builder tillämpar systemet automatiskt en funktion för att sudda ut ansiktet innan bilderna analyseras för att skydda den individuella integriteten. Det här suddiga steget hjälper till att hantera integritetsproblem genom att förhindra identifiering baserat på ansiktsdrag. Med oskärpa är ingen ansiktsigenkänning eller ansiktsmallsmatchning inblandad. I stället förlitar sig all identifiering av välkända individer på kontextuella ledtrådar, som uniformer eller unika miljöer, inte på deras ansikten. Den här sekretessåtgärden bör inte påverka kvaliteten på de resultat du får. Ansiktsoskärpa kan ibland refereras till i systemets svar.

Läs mer om Ansiktsoskärpa.

Potentiella skador vid användning av bilder eller dokument i prompter

Prompt builder minskar de flesta av riskerna som är involverade när du använder bilder eller dokument i prompter, men vissa risker kräver fortfarande extra försiktighet från promptskaparen:

  • Bilder eller dokument kan innehålla skadlig text eller visuella objekt som kan påverka dina efterföljande processer.
  • Bilder eller dokument kan innehålla särskilda och eventuellt dolda instruktioner som kan kompromettera eller åsidosätta den första prompten.
  • Bilder eller dokument kan innehålla instruktioner som kan leda till generering av innehåll som omfattas av immateriella rättigheter.
  • Prompter kan producera vinklade kommentarer på bilder eller dokument.
  • Att extrahera information från bilder eller dokument av låg kvalitet kan leda till felaktig information, även kallad hallucination.

Hur skiljer sig o3-modellen från GPT-modeller?

O3-modellen skiljer sig från GPT-modeller främst på grund av dess avancerade resonemangsförmåga. Den genererar detaljerade interna tankekedjor innan den svarar, vilket leder till förbättrad prestanda i matematik, kodning och analytiska uppgifter. Detta tillvägagångssätt leder dock till ökade beräkningskrav och långsammare svarstider jämfört med GPT-modeller. GPT-4o eller GPT-4.1, till exempel, utmärker sig i allmänna språkuppgifter och erbjuder snabbare, kostnadseffektiva svar, vilket gör den lämplig för appar där snabba resultat är avgörande.

Vad är uppmaningar och AI-funktioner?

Uppmaningar

Uppmaningar ger tillverkare friheten att instruera den stora språkmodellen (LLM) att bete sig på ett visst sätt eller att utföra en specifik uppgift. Genom att noggrant skapa en prompt kan du generera svar som passar just dina affärsbehov. LLM-modellen omvandlas då till ett flexibelt verktyg för olika uppgifter.

Med en språkmodell kan en prompt till exempel vägleda modellen att besvara en fråga, slutföra text, översätta språk, sammanfatta ett dokument och identifiera uppgifter, att göra och åtgärdsobjekt i text. Komplexiteten i en anpassad prompt kan vara allt från en enskild mening till något mer intrikat, beroende på uppgiften.

AI-funktioner

Fördefinierade AI-funktioner är förkonfigurerade promptar som skapats av Microsoft-teamet för att hjälpa utvecklare att utföra vanliga uppgifter på ett enkelt sätt. De erbjuder användningsklara AI-funktioner för olika användningsfall, vilket förenklar utvecklarupplevelsen för att infudera intelligens i lösningarna.

En språkmodells fördefinierade prompt kan till exempel se ut så här:

Extrahera åtgärdpunkterna som en numrerad lista från: [TextToExtract]

I det här fallet behöver användaren endast tillhandahålla den text [TextToExtract] från vilken användaren vill extrahera åtgärdspunkter. Den fördefinierade prompten tar hand om resten.