Dela via


Ändra modellversion och inställningar

Den här artikeln beskriver hur du ändrar modellversion och inställningar i promptverktyget. Modellversionen och inställningarna kan påverka den generativa AI-modellens prestanda och beteende.

Modellval

Du kan ändra modellen genom att välja Modell överst i promptverktyget. I listrutan kan du välja bland de generativa AI-modeller som genererar svar på din anpassade prompt.

Om du använder prompter i Power Apps eller Power Automate används prompt builder-krediter. Om du använder prompter i Copilot Studio används Copilot-krediter. Läs mer i Licensing and prompt builder credits i AI Builder-dokumentationen.

Översikt

Följande tabell beskriver de olika modellerna som finns tillgängliga.

GPT-modell Licensiering Funktionalitet Kategori
GPT-4.1 mini (standardmodell) Grundpris Tränad på data fram till juni 2024. Mata in upp till 128 000 tokens. Mini
GPT-4.1 Standardpris Tränad på data fram till juni 2024. Kontexten tillät upp till 128K tokens. Allmän
GPT-5-chatt Standardpris Tränad på data fram till september 2024. Kontexten tillät upp till 128K tokens. Allmän
Resonemang med GPT-5 Premiumpris Tränad på data fram till september 2024. Kontexten tillät upp till 400K tokens. Djup
GPT-5.2-chatt (experimentell) Standardpris Kontexten tillät upp till 128K tokens. Allmän
GPT-5.2-resonemang (experimentellt) Premiumpris Tränad på data fram till oktober 2024. Kontexten tillät upp till 400K tokens. Djup
Claude Sonnet 4.5 (experimentell) Standardpris Extern modell från Anthropic. Kontexten tillät upp till 200K tokens. Allmän
Claude Opus 4.5 (experimentell) Premiumpris Extern modell från Anthropic. Kontexten tillät upp till 200K tokens. Djup

GPT-4o mini och GPT-4o fortsätter att användas i amerikanska myndighetsregioner. Dessa modeller följer licensieringsregler och erbjuder funktioner som är jämförbara med GPT-4.1 mini respektive GPT-4.1.

Obs

Modeller har olika tillgänglighet mellan regioner och uppdateras regelbundet. Läs mer i Modelltillgänglighet efter region och uppdateringar.

Antropiska modeller är värderade utanför Microsoft och omfattas av antropiska termer och datahantering. Läs mer i Välj en extern modell som primär AI-modell.

Licensiering

I agenter, flöden eller appar använder uppmaningar som nyttjar modeller Copilot Credits, oberoende av vilket lanseringsstadium modellerna är i. Läs mer om faktureringspriser och hantering.

Om du har AI Builder-krediter använder systemet dem först när promptar används i Power Apps och Power Automate. Systemet förbrukar inte AI Builder-krediter när uppmaningar används i Copilot Studio. Läs mer i Översikt över licensiering i AI Builder-dokumentationen.

Utsläppsfaser

Modellerna går igenom olika releasestadier. Du kan prova nya, banbrytande experimentella och förhandsvisningsmodeller, eller välja en pålitlig, noggrant testad och allmänt tillgänglig modell.

Tagg Beskrivning
Experimentell Avsedd för experiment, inte för produktionsbruk. Omfattas av förhandsversionsvillkor och kan ha begränsningar gällande tillgänglighet och kvalitet.
Förhandsversion Blir så småningom en allmänt tillgänglig modell, men rekommenderas för närvarande inte för produktionsanvändning. Omfattas av förhandsversionsvillkor och kan ha begränsningar gällande tillgänglighet och kvalitet.
Ingen tagg Allmänt tillgänglig. Du kan använda den här modellen för skalning och produktionsanvändning. I de flesta fall har allmänt tillgängliga modeller inga begränsningar gällande tillgänglighet och kvalitet, men vissa kan fortfarande ha vissa begränsningar, till exempel regional tillgänglighet.
Viktigt: Anthropic Claude-modeller befinner sig i experimentstadiet, även om de inte visar någon tagg.
Standardvärde Standardmodellen för alla agenter och vanligtvis den allmänt tillgängliga modellen med bäst prestanda. Standardmodellen uppgraderas regelbundet när nya, mer kompatibla modeller blir allmänt tillgängliga. Agenter använder också standardmodellen som reserv om en vald modell är inaktiverad eller otillgänglig.

Experimentella och förhandsgranskningsmodeller kan visa variation i prestanda, svarskvalitet, latens eller meddelandekonsumtion. De kan gå ut eller vara otillgängliga. De omfattas av förhandsversionsvillkor.

Kategorisering

I följande tabell beskrivs de olika modellkategorierna.

Mini Allmän Djup
Föreställning Bra för de flesta uppgifter Överlägsen för komplexa uppgifter Tränad för resonemangsuppgifter
Hastighet Snabbare bearbetning Kan vara långsammare på grund av komplexitet Långsammare, då den resonerar före svar
Användningsfall Sammanfattning, informationsuppgifter, bild- och dokumentbearbetning Bild- och dokumentbearbetning, avancerade uppgifter för att skapa innehåll Dataanalys och resonemangsuppgifter, bild- och dokumentbearbetning

Välj en minimodell när du behöver en kostnadseffektiv lösning för måttligt komplexa uppgifter, har begränsade beräkningsresurser eller kräver snabbare bearbetning. Minimodeller är idealiska för projekt med budgetbegränsningar och applikationer som kundsupport eller effektiv kodanalys.

Välj en allmän modell när du hanterar mycket komplexa, multimodala uppgifter som kräver överlägsen prestanda och detaljerad analys. Det är det bättre valet för storskaliga projekt där noggrannhet och avancerade funktioner är avgörande. En allmän modell är också ett bra val när du har budget och beräkningsresurser för att stödja den. Allmänna modeller är också att föredra för långsiktiga projekt som kan öka i komplexitet med tiden.

Djupa modeller utmärker sig för projekt som kräver avancerade resonemangsförmågor. De passar för scenarier som kräver sofistikerad problemlösning och kritiskt tänkande. Djupa modeller utmärker sig i miljöer där nyanserat resonemang, komplext beslutsfattande och detaljerad analys är viktigt.

Välj bland modellerna baserat på regiontillgänglighet, funktionalitet, användningsfall och kostnader. Lär dig mer om vilka modeller som är tillgängliga i din region och modellavgångsscheman i Modelltillgänglighet efter region och uppdateringar. Läs mer om priser i tabellen AI Builder Kapacitetsfrekvens.

Modellinställningar

Du kan komma åt inställningspanelen genom att välja de tre prickarna (...) >Inställningar högst upp i promptbyggaren. Du kan också ändra följande inställningar:

  • Temperatur: Lägre temperaturer leder till förutsägbara resultat. Högre temperaturer ger mer varierande eller kreativa svar.
  • Upphämtning av poster: Antal poster som hämtats för dina kunskapskällor.
  • Inkludera länkar i svaret: När du väljer det här alternativet innehåller svaret länkcitat för de hämtade posterna.
  • Aktivera kodtolk: När den är vald aktiveras kodtolken för att generera och köra kod .
  • Innehållsmoderationsnivå: Den lägsta nivån ger flest svar, men de kan innehålla skadligt innehåll. Den högsta nivån av innehållsmoderering använder ett striktare filter för att begränsa skadligt innehåll och genererar färre svar.

Temperatur

Ställ in temperaturen för den generativa AI-modellen med reglagen. Den ligger mellan 0 och 1. Detta värde vägleder den generativa AI-modellen om hur mycket kreativitet (1) kontra deterministiskt svar (0) den ger.

Obs

Temperaturinställningen är inte tillgänglig för GPT-5-resonemangsmodellen. Därför inaktiveras skjutreglaget när du väljer GPT-5-resonemangsmodellen.

Temperaturen är en parameter som styr slumpmässigheten i det output som genereras av AI-modellen. En lägre temperatur leder till mer förutsägbara och konservativa utdata. I jämförelse möjliggör en högre temperatur mer kreativitet och variation i svaren. Det är ett sätt att finjustera balansen mellan slumpmässighet och determinism i modellens utdata.

Standardvärdet för temperaturen är 0, liksom i tidigare skapade prompter.

Temperatur Funktionalitet Används i
0 Mer förutsägbara och konservativa resultat.
Svaren blir mer enhetliga.
Frågor som kräver hög precision och mindre variationer.
1 Mer kreativitet och mångfald i svaren.
Mer varierade och ibland mer innovativa svar.
Uppmaningar som skapar nytt och innovativt innehåll.

Att justera temperaturen kan påverka modellens resultat, men det garanterar inte ett specifikt resultat. AI-svaren bygger på sannolikhet och kan variera med samma temperaturinställning.

Innehållsmodereringsnivå

Ställ in innehållsmodereringsnivån för prompten med reglagen. Med en lägre moderationsnivå kan din prompt ge fler svar. Dock kan ökningen av svar påverka tillåtelsen av skadligt innehåll (hat och rättvisa, sexuell, våld, självskada) i prompten.

Obs

Inställningen för innehållsmoderering är endast tillgänglig för hanterade modeller. Därför är skjutreglaget inte tillgängligt när du väljer Anthropic- eller Azure AI Foundry-modellerna.

Moderationsnivåerna varierar från låg till hög. Standardmodereringsnivån för prompts är Moderat.

Lägre moderering ökar risken för skadligt innehåll i dina prompts svar. Högre moderering minskar risken, men kan minska antalet svar.

Innehållsmodereringsnivå Beskrivning Möjliga användningsområden
Low Kan tillåta hat och rättvisa, sexuellt våld, innehåll av våld eller självskada som visar explicita och allvarliga skadliga instruktioner, handlingar, skador eller övergrepp. Inkluderar godkännande, glorifiering eller främjande av allvarliga skadliga handlingar, extrema eller olagliga former av skada, radikalisering eller icke-samtyckt maktutbyte eller missbruk. Används för bearbetning av uppmaningar som kan betraktas som skadligt innehåll (till exempel beskrivningar av våld eller medicinska ingrepp).
Moderat Kan tillåta hat och rättvisa, sexuellt, våldsamt eller självskadeinnehåll som använder stötande, förolämpande, hånfullt, hotfullt eller förnedrande språk mot specifika identitetsgrupper. Inkluderar skildringar av att söka och utföra skadliga instruktioner, fantasier, glorifiering, främjande av skada i medelintensitet. Standardfiltrering. Lämpligt för de flesta användningsområden.
High Kan tillåta hat och rättvisa, sexuellt, våldsamt eller självskadeinnehåll som uttrycker fördomsfulla, dömande eller åsiktsstarka åsikter. Inkluderar stötande språkbruk, stereotyper, användningsfall som utforskar en fiktiv värld (till exempel spel, litteratur) och skildringar med låg intensitet. Använd om du behöver mer filtrering som är mer restriktiv än på Moderat-nivån.

För att åsidosätta agentens innehållsmodereringsinställning när du använder prompten i en agent, ställ in inställningen Efter att ha kört i Fullbordan-skärmen i promptverktyget till Skicka specifikt svar (specificera nedan). Meddelandet som visas bör innehålla den anpassade variabeln Output.predictionOutput.text.

Skärmdump av skärmen 'Färdigställande' med inställningen 'Skicka specifikt svar (specificera nedan)'.