Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
Hvad er et program- eller platformkort?
Microsofts program- og platformkort er beregnet til at hjælpe dig med at forstå, hvordan vores AI-teknologi fungerer, de valg, programejere kan træffe, der påvirker programmets ydeevne og funktionsmåde, og vigtigheden af at overveje hele programmet, herunder teknologien, brugerne og miljøet. Programkort oprettes til AI-programmer, og platformkort oprettes til AI-platformtjenester. Disse ressourcer kan understøtte udvikling eller udrulning af dine egne programmer og kan deles med brugere eller interessenter, der påvirkes af dem.
Som en del af sin forpligtelse til ansvarlig ai overholder Microsoft seks kerneprincipper: retfærdighed, pålidelighed og sikkerhed, beskyttelse af personlige oplysninger og sikkerhed, inkluderelse, gennemsigtighed og ansvarlighed. Disse principper er integreret i ansvarlig AI-Standard, som hjælper teams med at designe, bygge og teste AI-programmer. Program- og platformkort spiller en vigtig rolle i driften af disse principper ved at tilbyde gennemsigtighed omkring egenskaber, tilsigtede anvendelser og begrænsninger. For at få yderligere indsigt opfordres læserne til at udforske Microsofts rapport over ansvarlig AI-gennemsigtighed. Kunder er forpligtet til at bruge tjenester i overensstemmelse med Microsoft Enterprise AI Services Code of Conduct for organisationer, hvilket beskriver, hvordan de kan interagere med ai på en ansvarlig måde.
Oversigt
Copilot Studio er en platform, der gør det muligt for organisationer at bygge, tilpasse og udrulle AI-drevne agenter for at automatisere opgaver, besvare spørgsmål og strømline forretningsprocesser. Formålet er at gøre avanceret kunstig intelligens tilgængelig for en lang række brugere, lige fra forretningsanalytikere og it-teknikere til udviklere. Ved at levere intuitive værktøjer til oprettelse af samtaleagenter og integration af dem på websteder, Microsoft Teams og andre kanaler hjælper det med at løse almindelige udfordringer, f.eks. gentaget manuelt arbejde, automatisering af kundesupport og datadrevet beslutningstagning. Det giver fordele som øget effektivitet, forbedrede brugeroplevelser og skalerbar automatisering.
Platformen er udviklet til virksomhedskunder, løsningsudviklere og it-teams, der ønsker at udnytte generativ AI uden omfattende kodningsekspertise. Tiltænkte brugere omfatter organisationer, der søger at automatisere arbejdsprocesser, forbedre kundeengagementet eller yde selvbetjeningssupport. Copilot Studio understøtter både metoder med lav kode og pro-kode, så brugerne kan oprette agenter ved hjælp af instruktioner på naturligt sprog eller ved at udvide funktionaliteten med brugerdefinerede værktøjer og connectors. Denne fleksibilitet gør den velegnet til brancher lige fra økonomi og sundhedssektoren til uddannelse og detailhandel.
Nøgleord
I følgende tabel defineres nøgleord, der er relateret til Microsoft Copilot Studio.
| Periode | Beskrivelse |
|---|---|
| Agent | En AI-drevet samtalekomponent eller en autonom komponent, der er oprettet i Copilot Studio, som kan besvare spørgsmål, foretage handlinger eller automatisere forretningsprocesser ved hjælp af konfigurerede instruktioner, værktøjer og datakilder. |
| Agentorkestrering | Den proces, som Copilot Studio planlægger, distribuerer og koordinerer agenthandlinger, værktøjer og underagenter for at opfylde en brugeranmodning eller -opgave. |
| Brugerprompt | Input, som en bruger giver til en agent, typisk på et naturligt sprog, som starter en samtale eller opgave. |
| Grundstødning | Processen med at levere relevante virksomhedsdata eller eksterne data til en model, så agentsvar er kontekstafhængigt nøjagtige og justeret i forhold til organisationsoplysninger. |
| Videnskilde | En datakilde, der er forbundet til en agent – f.eks. Microsoft Graph data, Dataverse, uploadede dokumenter eller eksterne systemer – som du kan bruge til at give svar i jorden. |
| Værktøjet | En kaldbar funktion, som en agent bruger til at udføre handlinger ud over tekstoprettelse, f.eks. aktivering af API'er, kørsel Power Automate flow eller forespørgselssystemer. |
| Stikforbindelse | En færdigbygget eller brugerdefineret integration, der gør det muligt for Copilot Studio-agenter at få adgang til eksterne tjenester eller virksomhedssystemer. |
| Generativ AI | AI-teknikker, der gør det muligt for agenter at generere tekst, opsummeringer, planer eller beslutninger baseret på store sprogmodeller og den leverede kontekst. |
| Stor sprogmodel (LLM) | En model til maskinel indlæring, der er oplært i store datasæt, der muliggør forståelse og generering af naturligt sprog i Copilot Studio-agenter. |
| 1P-model | En basismodel, som Microsoft træner (prætræning og indledende finjustering fuldført af et hvilket som helst Microsoft-team). |
| 3P-model | En basismodel, som Microsoft ikke oplærer (prætræning og indledende finjustering udført af en anden part end Microsoft). |
| Copilot kreditter | Den forbrugsbaserede valuta, der måler forbruget af Copilot Studio-funktioner, herunder agentinteraktioner og værktøjsudførelse. |
| Kanal | En overflade, hvor du udruller og bruger en agent, f.eks. Microsoft Teams, et websted eller Microsoft 365 Copilot. |
| Evaluering | Processen med at vurdere agentens kvalitet, ydeevne, sikkerhed og pålidelighed ved hjælp af foruddefinerede eller brugerdefinerede testmetoder. |
| Ansvarlig AI | Microsofts politik-, forsknings- og engineeringspraksisser, der er baseret på vores principper for kunstig intelligens og er driftsklar via vores ansvarlige AI-standard. |
Vigtige funktioner eller egenskaber
De vigtigste funktioner og funktioner nedenfor beskriver, hvad Copilot Studio er designet til at gøre, og hvordan det fungerer på tværs af understøttede opgaver.
| Funktion | Beskrivelse |
|---|---|
| Agentoprettelse og -tilpasning | Copilot Studio gør det muligt for brugerne at bygge AI-drevne agenter – ofte kaldet "copilots", der automatiserer opgaver eller besvarer spørgsmål. Disse agenter kan tilpasses, så de afspejler din organisations tone, arbejdsprocesser og forretningsregler. |
| Fleksibilitet med lav kode og pro-kode | Brugerne kan starte med intuitive værktøjer med lav kode og senere udvide funktionaliteten ved hjælp af API'er, brugerdefinerede connectors og scripts. Denne fleksibilitet gør platformen tilgængelig for virksomhedsbrugere, samtidig med at den giver dybde til udviklere. Du kan få flere oplysninger under FAQ for agentoprettelsen ud fra oplevelsen med naturligt sprog og FAQ for Copilot. |
| Integration med Microsofts økosystem | Copilot Studio fungerer problemfrit sammen med Microsoft-tjenester som Teams, Power Platform og Microsoft Graph. Agenter kan få sikker adgang til organisationsdata og levere kontekstorienterede svar. |
| Opret forbindelse til eksterne kilder | Ud over Microsoft-tjenester understøtter Copilot Studio connectors og API'er til tredjepartssystemer. Denne funktion sikrer, at agenter kan hente data fra forskellige kilder, hvilket gør dem nyttige på tværs af flere forretningsprocesser. |
| Udløsere og handlinger (autonome agenter) | Agenter kan reagere på hændelser – f.eks. en ny post eller en kundeforespørgsel – og udføre opgaver automatisk. Dette hændelsesdrevne design reducerer den manuelle indsats og muliggør automatisering fra ende til anden. Du kan få flere oplysninger under Ofte stillede spørgsmål om brug af generativ orkestrering. |
| Planlægning og tilpasningsevne | Agenter kan planlægge arbejdsprocesser med flere trin og justere handlinger baseret på ændring af input eller betingelser. Denne tilpasning hjælper dem med at håndtere dynamiske forretningsscenarier i stedet for stive, foruddefinerede opgaver. Du kan finde flere oplysninger under Ofte stillede spørgsmål om brug af generativ orkestrering, Ofte stillede spørgsmål om prompts og Ofte stillede spørgsmål om generative svar. |
| Hukommelse til kontekstafhængige svar | Copilot Studio-agenter kan bevare konteksten fra tidligere interaktioner, så de kan give sammenhængende, tilpassede svar og opretholde kontinuitet på tværs af samtaler. |
| Udvidelsesmulighed | Udviklere kan forbedre agenter med brugerdefinerede plug-ins, connectors og avanceret logik. Denne udvidelse sikrer, at platformen kan skaleres, så den opfylder specialiserede eller komplekse krav. |
| Udrulning med flere kanaler | Udrul agenter på tværs af websteder, Teams og andre apps, så brugerne kan interagere med dem, uanset hvor de arbejder. |
| Ansvarlige ai- og sikkerhedsfunktioner | Indbyggede kontroller af beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder er i overensstemmelse med Microsofts ansvarlige AI-principper, hvilket hjælper organisationer med at udrulle agenter på en sikker og etisk måde. Hvis du vil vide mere om, hvordan du bruger AI-drevne funktioner på en ansvarlig måde, skal du se Responsible OFTE STILLEDE spørgsmål om KUNSTIG INTELLIGENS og Sikkerhed ofte stillede spørgsmål om Copilot Studio. |
Tiltænkt anvendelse
Copilot Studio kan bruges i flere scenarier på tværs af forskellige brancher. Eksempler på use cases omfatter:
- Automatisering af kundesupport: En detailvirksomhed kan oprette en agent, der besvarer almindelige kundespørgsmål, sporer ordrer og processer, der returneres via et websted eller en chat. Denne fremgangsmåde reducerer ventetider og frigør menneskelige agenter til at håndtere komplekse problemer, hvilket forbedrer kundetilfredsheden og driftseffektiviteten.
- Selvbetjening af medarbejdere i offentlige myndigheder: Et offentligt bureau kan udrulle en intern agent for at hjælpe medarbejderne med at finde HR-politikker, indsende anmodninger om orlov og kontrollere retningslinjer for overholdelse af angivne standarder. Ved at automatisere rutineforespørgsler sparer bureauet tid og sikrer, at medarbejderne har hurtig adgang til præcise oplysninger.
- Finansielle tjenester automatisering af arbejdsprocesser: En bank kan bruge Copilot Studio til at bygge en agent, der overvåger og leverer opdateringer til indgående forespørgsler og programmer. Denne fremgangsmåde fremskynder behandlingen, reducerer manuelle fejl og øger gennemsigtigheden for kunderne.
- Uddannelses- og studenterhjælp: Universiteter kan oprette agenter, der guider studerende gennem kursusregistrering, besvarer spørgsmål om deadlines og giver links til læringsressourcer. Denne fremgangsmåde hjælper studerende med nemt at navigere i administrative opgaver og reducerer arbejdsbelastningen for akademiske medarbejdere.
- Administration af medieindhold: En medievirksomhed kan udrulle en agent for at hjælpe redaktører ved at hente metadata fra flere kilder, organisere aktiver og foreslå relevante mærker til artikler. Denne fremgangsmåde fremskynder publicering af arbejdsprocesser og sikrer ensartethed på tværs af platforme.
- Lagerbeskeder for forbrugsvarer: En producent kan konfigurere en agent, der overvåger lagerniveauer og automatisk udløser handlinger for udsætning, når tærsklerne nås. Denne proaktive tilgang forhindrer lagerbeholdninger og holder forsyningskæderne kørende uden problemer.
Agentomfang: Disse agenter er generelt specialbyggede til definerede opgaver inden for deres domæne (f.eks. HR-forespørgsler, lånebehandling eller support til studerende). Selvom de kan håndtere flere relaterede handlinger, arbejder de inden for de grænser, der er angivet af organisationen, for at bevare kontrollen og overholdelse af angivne standarder.
Modeller og oplæringsdata
Copilot Studio udnytter en række AI-modeller til at styrke den oplevelse, som brugerne ser. Nogle eksempler omfatter OpenAI's GPT-5-serie, leveret af Azure OpenAI Service, Anthropic's Claude Sonnet 4 og xAI's Grok 4.1 Fast.
Microsoft oplærer ikke foundation-modeller ved hjælp af kundedata. For modeller, der er udviklet og oplært af tredjeparter, kan du finde flere oplysninger i Vælg en primær model til agent.
Ydeevne
Copilot Studio er udviklet til at fungere pålideligt i virksomhedsmiljøer, hvor agenter håndterer both-samtaleinteraktioner og automatiserede handlinger. Agenter kan besvare spørgsmål, give vejledning og også udføre arbejdsprocesser, der udløses af hændelser , f.eks. opdatering af poster, afsendelse af meddelelser eller orkestrering af forretningsprocesser med flere trin. Denne kombination af hjælp i realtid og automatisering i baggrunden gør Copilot Studio velegnet til forskellige forretningsscenarier.
Understøttede modaliteter
Input: Tekstprompter fra brugere og hændelsesbaserede udløsere fra forbundne systemer (f.eks. en ny post i en database eller en formularindsendelse).
Output: Tekstsvar til samtalescenarier og automatiserede handlinger, f.eks. oprettelse af opgaver, opdatering af data eller start af arbejdsprocesser.
Flersprogede funktioner
- Optimeret til engelsk med understøttelse af yderligere sprog baseret på konfiguration. Nøjagtigheden af samtaler er højest på engelsk, mens automatiseringsfunktioner forbliver sproguafhængige, fordi de er afhængige af strukturerede udløsere og handlinger.
Betingelser for pålidelig drift
Agenter fungerer bedst, når prompter er tydelige, og forbindelser til datakilder og systemer er konfigureret korrekt.
Stabil forbindelse og overholdelse af organisationens datapolitikker er afgørende for sikker og ensartet ydeevne.
Ydeevnen kan forringes, hvis eksterne systemer ikke er tilgængelige, eller hvis sprog, der ikke understøttes, bruges til samtaleopgaver.
Sikkerhed og pålidelighed
- Indbyggede ansvarlige AI-kontroller sikrer beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder for både samtalearbejdsprocesser og automatiserede arbejdsprocesser. Disse sikkerhedsforanstaltninger hjælper organisationer med med sikkerhed at udrulle agenter på tværs af deres scenarier.
Begrænsninger
Det er afgørende at forstå Copilot Studios begrænsninger for at bestemme, om det bruges inden for sikre og effektive grænser. Selvom vi opfordrer kunderne til at udnytte Copilot Studio i deres innovative løsninger eller programmer, er det vigtigt at bemærke, at Copilot Studio ikke var designet til alle mulige scenarier. Vi opfordrer brugerne til enten at henvise til Microsoft Enterprise AI Services Code of Conduct (for organisationer) eller afsnittet Code Conduct i Microsoft-serviceaftalen (for enkeltpersoner) samt følgende overvejelser, når de vælger en use case:
Integration og kompatibilitet: Selvom Copilot Studio integreres med Microsoft-tjenester og understøtter connectors til eksterne systemer, kan der være begrænsninger med tredjepartsapps eller meget tilpassede miljøer. Avancerede automatiseringsscenarier kan kræve yderligere udvikling eller understøttes muligvis ikke fuldt ud.
Tilpasning og fleksibilitet: Copilot Studio tilbyder indstillinger med lav kode og pro-kode, men tilpasningen har grænser. Nogle arbejdsprocesser eller svar kan være stive eller ikke helt i overensstemmelse med unikke organisatoriske krav, især i regulerede domæner.
Afhængighed af forbindelse og dataadgang: Agenter er afhængige af stabil internetforbindelse og adgang til konfigurerede datakilder. Afbrydelser i forbindelsen eller ændringer af eksterne API'er og connectors kan påvirke ydeevnen eller forårsage, at arbejdsprocesser mislykkes.
Brugertræning og -indføring: Effektiv brug kræver, at brugerne forstår både egenskaber og begrænsninger. Der kan være en læringskurve, og brugerne bør gennemse automatiserede handlinger for nøjagtighed.
Ressourceintensitet: Kørsel af avancerede AI-modeller og automatiseringer kan kræve betydelige beregningsressourcer. Ydeevnen kan blive påvirket i ressourcebegrænsede miljøer eller under spidsbelastning.
Bias, stereotyping og ikke-grundet indhold: På trods af ansvarlige AI-kontrolelementer kan indhold, der er genereret af kunstig intelligens, stadig afspejle forskelle, stereotyper eller ikke-registrerede oplysninger. Brugerne skal altid gennemse svar og handlinger, især i følsomme scenarier eller scenarier med høj indsats.
Multilingual support: Copilot Studio-funktioner understøtter multiplesprog. Copilot Studio blev udviklet og testet primært på engelsk. Brug af sprog, der ikke understøttes, kan påvirke ydeevnen, og brugerne bør være forsigtige, når de arbejder uden for det ønskede sprogområde.
Evalueringer
Evalueringer af ydeevne og sikkerhed sikrer, at AI-systemer fungerer pålideligt og sikkert ved at vurdere faktorer som jordforbindelse, relevans og sammenhæng, samtidig med at risikoen for at generere skadeligt indhold identificeres. Følgende evalueringer blev udført med sikkerhedskomponenter, der allerede er på plads, som er beskrevet i afsnittet "Sikkerhedskomponenter & afhjælpninger" nedenfor.
Evalueringer af ydeevne og kvalitet
Evaluering af ydeevne for AI-programmer er afgørende for at forbedre deres pålidelighed i programmer i den virkelige verden. Målepunkter som jordforbindelse, relevans og sammenhæng hjælper med at vurdere nøjagtigheden og konsistensen af AI-genererede output, så de faktisk understøttes i scenarier med jordbaseret indhold, kontekstafhængigt passende og logisk struktureret. For Copilot Studio udførte vi performanceevalueringer for følgende målepunkter, som er tilgængelige via Microsoft Foundry:
Jordforbindelse
Sammenhæng
Flydende
Lighed
Risiko- og sikkerhedsevalueringer
Evaluering af potentielle risici, der er forbundet med AI-genereret indhold, er afgørende for at sikre mod indholdsrisici med varierende grader af alvorsgrad. Dette omfatter evaluering af et AI-programs forholdsord til generering af skadeligt indhold eller test af sårbarheder i forbindelse med jailbreak-angreb. I Copilot Studio udførte vi risiko- og sikkerhedsevalueringer for følgende målepunkter, der er tilgængelige via Microsoft Foundry:
Had og uretfærdighed
Seksuel
Vold
Selvbelastende
Beskyttet materiale
Indirekte fængselsbrud
Direkte jailbreak
Kodesårbarhed
Ikke-jordiske attributter
Metoder til evaluering af risici og sikkerhed
Copilot Studio evaluerer kun tekstbaserede interaktioner, og alle interne test fokuserer på, hvordan systemet håndterer tekstinput og genererer tekstoutput ved hjælp af automatiserede pipelines og LLM-baserede dommere til at måle kvalitet, sikkerhed og jordforbindelse. Disse evalueringer bruger udvalgte eller syntetiske tekstdatasæt, der afspilles i offlinepipelines og valideres i onlineskygge- og A/B-test, hvor hvert svar er scoret for relevans, jordforbindelse, fuldstændighed og passende undladelse baseret på de dommerkriterier, der er beskrevet i Copilot Studio's evalueringsdokumentation.
Systemet anvender også automatiserede sikkerheds evaluatorer, der kontrollerer for had og urimelighed, seksuelt indhold, vold, selvskade, beskyttet materiale, jailbreak-forsøg, koderelaterede skader og ugrundede attributter. Disse kategorier er udtrykkeligt angivet i Copilot Studios interne sikkerhedsvurderingsramme. Et ideelt evalueringsresultat er et resultat, hvor svarene er nøjagtige, fuldt funderet i den leverede viden, komplette, sikre på tværs af alle ni skadeskategorier og ikke viser nogen regressioner i opgavens succes eller kvalitet sammenlignet med tidligere modelversioner. De evalueringsdashboards og analyser, der bruges i arbejdsprocesser for produktteamet, måler disse resultater. Et suboptimalt resultat er et resultat, hvor svarene er irrelevante, ufuldstændige eller hallucinerede. Den indeholder usikkert indhold, værktøjer til misbrug, fejler jordforbindelseskontrol eller regresser på kvalitet eller ventetid sammenlignet med grundlinjer. Alle disse signaler identificeres som fejltilstande i Copilot Studios evalueringsrapporter og funktioner til kvalitetsscore.
Evalueringsdata for kvalitet og sikkerhed
Vores evalueringsdata er specialbygget til at vurdere ai-systemets ydeevne på tværs af vigtige områder af sikkerhed og kvalitet, simulerer scenarier og risici i den virkelige verden. Vi begynder med at identificere relevante evalueringsaspekter af bekymring baseret på tværfaglig forskning og ekspertinput. Vi oversætter disse bekymringer til målrettede evalueringsmål, der styrer formuleringen af evalueringsmålepunkter.
Af hensyn til sikkerheden opretter vi adversarial prompts for at fremkalde uønskede svar eller edge-case-svar. AI-assisterede annotatorer, der er oplært til at vurdere tilpasningen til Microsofts sikkerhedsstandarder, scorer disse svar. I forbindelse med kvalitet opretter vi rubricbaserede prompts, der er relevante for scenarier, f.eks. evaluering af programmer og agenter for hentnings-augmented generation (RAG). Vi organiserer datasæt fra forskellige kilder, herunder syntetiske og offentlige datasæt, for at simulere brugerscenarier i den virkelige verden.
Ved hjælp af de organiserede datasæt gennemgår begge evalueringer iterativ finjustering og menneskelig justering for at forbedre målepunktseffektiviteten og pålideligheden. Denne metode er grundlaget for gentagne, strenge vurderinger, der afspejler, hvordan kunderne bruger evalueringer til at skabe bedre og sikrere KUNSTIG INTELLIGENS.
Sikkerhedskomponenter og -afhjælpninger
I takt med at vi identificerer potentielle risici og misbrug via evalueringer og test, implementerer Microsoft afhjælpninger for at reducere skade og forbedre pålideligheden. Copilot Studio er bygget med sikkerhed, retfærdighed og sikkerhed i centrum, og vi overvåger og opdaterer løbende disse sikkerhedsforanstaltninger i takt med, at teknologi og brugerbehov udvikler sig. Nedenfor finder du vigtige komponenter og målinger, der er udviklet til at hjælpe organisationer med at udrulle agenter på en ansvarlig måde:
Ansvarlige AI-kontroller: Alle interaktioner gennemgår kontrol af beskyttelse af personlige oplysninger, sikkerhed og overholdelse af angivne standarder i overensstemmelse med Microsofts ansvarlige AI-principper. Disse omfatter AI-baserede klassificeringer til at registrere skadeligt indhold og metaprompting for at vejlede modeladfærden i forhold til sikre etisk output.
Jordforbindelse i data, der er tillid til: Svar og handlinger er forankret i organisationsdatakilder, som brugeren har tilladelse til at få adgang til. Dette reducerer risikoen for ikke-jordet eller fremstillet indhold og sikrer, at output er relevante og verificerbare.
Indholdssikkerhedsfiltre: Indbyggede klassificeringer markerer potentielt skadeligt indhold, f.eks. hadefuld tale, vold, seksuelt indhold eller ophavsretligt beskyttet materiale. Når systemet er markeret, kan det blokere svaret eller omdirigere brugeren til sikrere alternativer.
Prompt enrichment og Guardrails: Flertydige prompts er finjusteret for at reducere fejlfortolkning. Guardrails forhindrer agenter i at udføre handlinger uden for deres definerede omfang, så utilsigtede konsekvenser minimeres.
Vejledning til menneskeligt tilsyn: Brugerne rådes til at gennemse AI-genererede output og automatiserede handlinger, før de anvendes i scenarier med høj indsats. Denne praksis afhjælper risikoen for overtro og sikrer ansvarlighed.
Cybersikkerhedsforanstaltninger: Data krypteres under overførsel og i hvile. Copilot Studio overholder Microsofts sikkerhedsstandarder i virksomhedsklassen. Beskyttelse omfatter rollebaserede adgangskontroller, sikre API-integrationer og løbende sårbarhedsscanning for at beskytte mod trusler som f.eks. injektionsangreb eller uautoriseret adgang.
Kontinuerlig overvågning og feedback: Organisationer kan overvåge agentens ydeevne og indsende feedback via administratordashboards. Feedback hjælper Microsoft med at forbedre sikkerhedsfunktioner og håndtere nye risici. Få mere at vide om, hvordan du giver feedback.
Visse modeller har større risiko for at producere skadeligt indhold. Eksperimentelle modeller og prøveversionsmodeller anbefales f.eks. ikke til produktion, og kunderne bør udføre deres egne evalueringer, før de udrulles. Se Vælg en primær model til din agent.
Bedste fremgangsmåder til integration og installation af Copilot Studio
Ansvarlig kunstig intelligens er en delt forpligtelse mellem Microsoft og microsofts kunder. Selvom Microsoft bygger AI-systemer med sikkerhed, retfærdighed og gennemsigtighed centralt, spiller kunderne en vigtig rolle i forbindelse med udrulning og anvendelse af disse teknologier ansvarligt i deres egne kontekster. For at understøtte dette partnerskab tilbyder vi følgende bedste praksis for udrulningsmaskiner og slutbrugere for at hjælpe kunderne med at implementere ansvarlig ai effektivt.
Installatorer og slutbrugere skal:
Vær forsigtig, når du designer agentisk kunstig intelligens i følsomme domæner: Brugerne skal være forsigtige, når de designer og/eller udruller agentiske AI-programmer på følsomme domæner, hvor agenthandlinger ikke kan fortrydes eller i høj grad følger heraf. Installatorer og slutbrugere skal overholde kravene i Microsoft Enterprise AI Services Code of Conduct for organisationer.
Evaluer juridiske og lovmæssige overvejelser: Kunderne skal evaluere potentielle specifikke juridiske og lovmæssige forpligtelser, når de bruger AI-tjenester og -løsninger, hvilket muligvis ikke er passende til brug i alle brancher eller scenarier. Derudover er AI-tjenester eller -løsninger ikke designet til og må ikke bruges på måder, der er forbudt i henhold til service- og ordensregler. Brugerne skal udvise forsigtighed og sikre overholdelse af gældende love, bestemmelser og Microsofts Enterprise Code of Conduct for organisationer. Se afsnit 10 om bedste praksis for integration og udrulning af Copilot Studio for at få mere vejledning.
Slutbrugere skal:
Definer klare målsætninger:
Identificer det specifikke forretningsproblem, som agenten løser. Undgå at bruge "generelle" agenter, medmindre det er absolut nødvendigt. Fokuserede agenter er sikrere og nemmere at vedligeholde. En agent, der f.eks. fortolker og registrerer oplysninger fra fakturaer, løser det specifikke forretningsproblem med at organisere data fra fakturaer.
Dokumentér omfanget og grænserne – hvad agenten skal og ikke skal gøre.
Kortudløsere og handlinger:
Design hændelsesdrevet logik: Hvad udløser agenten (f.eks. en ny post, en brugerforespørgsel), og hvilke handlinger den udfører.
Brug foruddefinerede connectors til almindelige systemer, og valider API-tilladelser til eksterne integrationer.
Medtag fallback-handlinger for scenarier, hvor data eller forbindelse ikke er tilgængelig.
Inkorporer gelændere:
Implementer godkendelsestrin for handlinger med stor indvirkning, f.eks. finansielle transaktioner eller HR-ændringer.
Begræns automatisering til reversible opgaver, hvor det er muligt.
Konfigurer rollebaserede adgangskontrolelementer, så agenter kun handler inden for godkendte grænser.
Definer klare grænser for agenthandlinger, især i følsomme domæner, f.eks. økonomi, sundhedspleje eller juridiske tjenester. Brug godkendelsesarbejdsprocesser til opgaver med stor indvirkning.
Ground responser i data, der er tillid til:
Gør agentnøjagtigheden bedre ved at oprette forbindelse til relevante eksterne systemer (f.eks. Microsoft Graph, CRM, ERP) via sikre API'er og Microsoft Graph connectors..
Undgå udelukkende at være afhængig af modeloprettede indhold til vigtige beslutninger – altid jordoutput i verificerbare data.
Sørg for, at agenter kun får adgang til datakilder, der overholder organisationens politikker. Anvend rollebaserede adgangskontrolelementer, og overvåg tilladelser regelmæssigt.
Design til tilpasningsevne og udvidelse:
Brug betinget logik, så agenter kan håndtere variationer i arbejdsprocesser.
Byg modulopbyggede komponenter, der kan opdateres uden at omdesigne hele agenten.
Test grundigt:
Valider agenter i et sandkassemiljø før udrulningen.
Medtag kantcases og stresstest for at sikre stabilitet under forskellige forhold.
Simuler scenarier i den virkelige verden for at kontrollere, om der er utilsigtede funktionsmåder.
Overvåg og gentage:
Brug dashboards til at spore agentens ydeevne, implementering og fejlfrekvenser. Regelmæssig overvågning hjælper med at registrere drift af ydeevnen og opretholde pålideligheden.
Indsaml feedback fra brugere og interessenter regelmæssigt.
Opdater agenter i takt med, at forretningsprocesser udvikler sig, eller nye connectors bliver tilgængelige.
Anvend ansvarlige AI-principper:
Gennemse for partiskhed og retfærdighed i svar og handlinger.
Følg Microsofts AI Code of Conduct og organisationens politikker for overholdelse af angivne standarder.
Ud over de bedste fremgangsmåder, der er beskrevet tidligere, bør slutbrugerne også:
Udøve menneskeligt tilsyn, når det er relevant: Menneskeligt tilsyn er en vigtig sikkerhedsforanstaltning, når du interagerer med AI-systemer. Selvom vi løbende forbedrer vores AI-systemer, kan kunstig intelligens stadig lave fejl. De genererede output kan være unøjagtige, ufuldstændige, forudindtaget, forkert justeret eller irrelevante i forhold til dine tilsigtede mål. Dette kan ske på grund af forskellige årsager, f.eks. tvetydighed i input eller begrænsninger i de underliggende modeller. Brugerne bør derfor gennemse de svar, der genereres af Copilot Studio, og bekræfte, at de opfylder deres forventninger og krav.
Vær opmærksom på risikoen for overreeliance: Overreeliance på kunstig intelligens sker, når brugerne accepterer forkerte eller ufuldstændige AI-output, hovedsageligt fordi fejl i AI-output kan være svære at registrere. For slutbrugeren kan overreaktion resultere i nedsat produktivitet, tab af tillid, produktafgivelse, økonomisk tab, psykologisk skade, fysisk skade blandt andre. (f.eks. accepterer en læge et forkert AI-output). For Copilot Studio er der risiko for overreeliance, fordi [forklare begrænsningerne for produktet, der kan resultere i fejl eller give mindre nøjagtige resultater. Dette er normalt systemdesign, der gør det svært for brugerne at identificere, hvornår ai'en er forkert – se de tre UX-mål i Overreliance on AI: Risk Identification and Mitigation Framework | Microsoft Learn].
Vær forsigtig, når du designer agentisk kunstig intelligens i følsomme domæner: Brugerne skal være forsigtige, når de designer og/eller udruller agentiske AI-systemer i følsomme domæner, hvor agenthandlinger ikke kan fortrydes eller i høj grad følger heraf. Sådanne domæner omfatter, men er ikke begrænset til, finansiering og forsikring, sundhedspleje, juridisk service, essentiel offentlig service, beskæftigelse, uddannelse eller boliger. Der skal også tages yderligere forholdsregler, når du opretter selvbetjent kunstig intelligens som beskrevet yderligere i Microsofts ordensregler.
Deployere skal:
Microsoft indeholder værktøjer som f.eks. Copilot Studio-analyser, Rapporter i Power Platform Administration og integrerede overvågningsfunktioner, der kan hjælpe organisationer med at udrulle og administrere Copilot Studio-agenter. Disse værktøjer er designet til at hjælpe organisationer med at overvåge brugen, evaluere agentkvalitet og vurdere den driftsmæssige virkning af Copilot Studio-agenter. Eksempel:
Copilot indbyggede Analyse i Studio gør det muligt for udrulningsmedarbejdere at få vist oversigter over agentforbrug, samtalevolumen og engagement for at hjælpe med at administrere udrulninger og optimere agentkonfigurationer. Du kan få flere oplysninger i Copilot Studio analytik og overvågningsdokumentation.
Copilot Studio-analyse og -rapportering giver udviklere, administratorer og organisationens interessenter adgang til rapporter om agentens ydeevne, forbrugsmønstre og driftstilstand for at hjælpe med at måle effektiviteten og indvirkningen. Du kan finde flere oplysninger i Copilot Studio vejledning til overvågning og styring.
Copilot Studio-telemetri og integrerede overvågningsværktøjer gør det muligt for udrulningsmedarbejdere at analysere agentens funktionsmåde over tid og sammenligne forbrugstendenser med organisatoriske mål for at forstå forretningsværdien og registrere drift af ydeevnen. Du kan få flere oplysninger i Copilot Studio dokumentation til overvågning og evaluering.
Få mere at vide om Copilot Studio
Vi anbefaler, at du gennemser følgende dokumentation for at få yderligere vejledning i ansvarlig brug af Microsoft 365 Copilot:
oversigt over Copilot Studio