Freigeben über


Anwendungskarte: Microsoft Copilot Studio

Was ist eine Anwendungs- oder Plattform-Karte?

Die Anwendungs- und Plattformkarten von Microsoft sollen Ihnen helfen, zu verstehen, wie unsere KI-Technologie funktioniert, welche Anwendungsbesitzer die Anwendungsleistung und das Verhalten beeinflussen können und wie wichtig es ist, die gesamte Anwendung zu berücksichtigen, einschließlich der Technologie, der Menschen und der Umgebung. Anwendungskarten werden für KI-Anwendungen und Plattformkarten für KI-Plattformdienste erstellt. Diese Ressourcen können die Entwicklung oder Bereitstellung Ihrer eigenen Anwendungen unterstützen und für Benutzer oder Projektbeteiligte freigegeben werden, die von ihnen betroffen sind.

Im Rahmen seiner Verpflichtung zu verantwortungsvoller KI hält sich Microsoft an sechs Grundprinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusion, Transparenz und Verantwortlichkeit. Diese Prinzipien sind in die verantwortungsvolle KI-Standard eingebettet, die Teams beim Entwerfen, Erstellen und Testen von KI-Anwendungen unterstützt. Anwendungs- und Plattformkarten spielen eine wichtige Rolle bei der Operationalisierung dieser Prinzipien, indem transparenz in Bezug auf Funktionen, beabsichtigte Verwendungen und Einschränkungen geboten wird. Um weitere Einblicke zu erhalten, werden Leser ermutigt, den Bericht "Verantwortungsvolle KI-Transparenz" von Microsoft zu erkunden. Kunden müssen Dienste in Übereinstimmung mit dem Microsoft Enterprise AI Services Code of Conduct für Organisationen verwenden, in dem beschrieben wird, wie Sie verantwortungsbewusst mit KI interagieren.

Übersicht

Copilot Studio ist eine Plattform, die Es Organisationen ermöglicht, KI-gesteuerte Agents zu erstellen, anzupassen und bereitzustellen, um Aufgaben zu automatisieren, Fragen zu beantworten und Geschäftsprozesse zu optimieren. Ihr Ziel ist es, fortschrittliche künstliche Intelligenz für eine breite Palette von Benutzern zugänglich zu machen, von Business Analysts und IT-Experten bis hin zu Entwicklern. Durch die Bereitstellung intuitiver Tools zum Erstellen von Unterhaltungsagenten und deren Integration in Websites, Microsoft Teams und andere Kanäle hilft es, häufige Herausforderungen wie sich wiederholende manuelle Arbeit, Kundensupportautomatisierung und datengesteuerte Entscheidungsfindung zu lösen. Es bietet Vorteile wie erhöhte Effizienz, verbesserte Benutzererfahrungen und skalierbare Automatisierung.

Die Plattform wurde für Unternehmenskunden, Lösungsentwickler und IT-Teams entwickelt, die generative KI ohne umfassende Codierungskompetenz nutzen möchten. Zu den beabsichtigten Benutzern gehören Organisationen, die Workflows automatisieren, das Kundenbindung verbessern oder Self-Service-Support bereitstellen möchten. Copilot Studio unterstützt sowohl Low-Code- als auch Pro-Code-Ansätze, sodass Benutzer Agents mithilfe von Anweisungen in natürlicher Sprache oder durch Erweitern der Funktionalität mit benutzerdefinierten Tools und Connectors erstellen können. Diese Flexibilität eignet sich für Branchen, die von Finanzen und Gesundheitswesen bis hin zu Bildung und Einzelhandel reichen.

Schlüsselbegriffe

In der folgenden Tabelle werden schlüsselbegriffe im Zusammenhang mit Microsoft Copilot Studio definiert.

Begriff Beschreibung
Vertreter Eine KI-gestützte unterhaltungsbasierte oder autonome Komponente, die in Copilot Studio erstellt wurde, die Fragen beantworten, Aktionen ergreifen oder Geschäftsprozesse mithilfe von konfigurierten Anweisungen, Tools und Datenquellen automatisieren kann.
Agent-Orchestrierung Der Prozess, mit dem Copilot Studio Agentaktionen, Tools und Unter-Agents koordiniert, um eine Benutzeranfrage oder -aufgabe zu erfüllen.
Benutzeraufforderung Eingabe, die ein Benutzer einem Agent bereitstellt, in der Regel in natürlicher Sprache, der eine Unterhaltung oder Aufgabe initiiert.
Fundament Der Prozess der Bereitstellung relevanter Unternehmens- oder externer Daten für ein Modell, sodass Agentantworten kontextbezogen und an Organisationsinformationen ausgerichtet sind.
Wissensquelle Eine Datenquelle, die mit einem Agent verbunden ist, z. B. Microsoft Graph Daten, Dataverse, hochgeladene Dokumente oder externe Systeme, die Sie zum Geerbten von Antworten verwenden können.
Werkzeug Eine aufrufbare Funktion, die ein Agent verwendet, um Aktionen außerhalb der Textgenerierung auszuführen, z. B. aufrufende APIs, ausführen Power Automate Flüsse oder Abfragesysteme.
Konnektor Eine vordefinierte oder benutzerdefinierte Integration, die es Copilot Studio-Agents ermöglicht, auf externe Dienste oder Unternehmenssysteme zuzugreifen.
Generative KI KI-Techniken, mit denen Agents Text, Zusammenfassungen, Pläne oder Entscheidungen basierend auf großen Sprachmodellen und bereitgestellten Kontexten generieren können.
Großes Sprachmodell (LLM) Ein machine-learning-Modell, das auf großen Datasets trainiert wurde, die das Verständnis und die Generierung natürlicher Sprachen innerhalb von Copilot Studio-Agents ermöglicht.
1P-Modell Ein Basismodell, das Microsoft trainiert (Vorschulung und anfängliche Feinabstimmung, die von jedem Microsoft-Team abgeschlossen wurde).
3P-Modell Ein Basismodell, das von Microsoft nicht trainiert wird (Vorschulung und anfängliche Feinabstimmung, die von einer anderen Partei als Microsoft abgeschlossen wurde).
Copilot Gutschriften Die nutzungsbasierte Währung, die den Verbrauch Copilot Studio-Funktionen misst, einschließlich Agentinteraktionen und Toolausführung.
Kanal Eine Oberfläche, auf der Sie einen Agent bereitstellen und verwenden, z. B. Microsoft Teams, eine Website oder Microsoft 365 Copilot.
Evaluation Der Prozess der Bewertung von Agentqualität, Leistung, Sicherheit und Zuverlässigkeit mithilfe vordefinierter oder benutzerdefinierter Testmethoden.
Verantwortungsvolle KI Die Richtlinien-, Forschungs- und Ingenieurpraktiken von Microsoft, die auf unseren KI-Prinzipien basieren und durch unseren Standard für verantwortungsvolle KI operationalisiert werden.

Wichtige Features oder Funktionen

Die wichtigsten Features und Funktionen unten beschreiben, was Copilot Studio zu tun hat und wie es über unterstützte Aufgaben hinweg ausgeführt wird.

Merkmal Beschreibung
Agent-Erstellung und -Anpassung Copilot Studio ermöglicht Es Benutzern, KI-gestützte Agents zu erstellen, die häufig als "Copilots" bezeichnet werden, die Aufgaben automatisieren oder Fragen beantworten. Diese Agents können so angepasst werden, dass sie den Ton, Workflows und Geschäftsregeln Ihrer Organisation widerspiegeln.
Geringe Code- und Pro-Code-Flexibilität Benutzer können mit intuitiven Tools mit geringem Code beginnen und die Funktionalität später mithilfe von APIs, benutzerdefinierten Connectors und Skripts erweitern. Diese Flexibilität macht die Plattform für Geschäftsbenutzer zugänglich und bietet Entwicklern Tiefe.

Weitere Informationen finden Sie unter FAQ für die Erstellung des Agents aus der Erfahrung in natürlicher Sprache und FAQ für Copilot.
Integration in das Microsoft-Ökosystem Copilot Studio arbeitet nahtlos mit Microsoft-Diensten wie Teams, Power Platform und Microsoft Graph zusammen. Agents können sicher auf Organisationsdaten zugreifen und kontextabhängige Antworten bereitstellen.
Herstellen einer Verbindung mit externen Quellen Über Microsoft-Dienste hinaus unterstützt Copilot Studio Connectors und APIs für Drittanbietersysteme. Diese Funktion stellt sicher, dass Agents Daten aus verschiedenen Quellen abrufen können, wodurch sie für mehrere Geschäftsprozesse nützlich sind.
Trigger und Aktionen (autonome Agents) Agents können auf Ereignisse wie einen neuen Datensatz oder eine Kundenanfrage reagieren und Aufgaben automatisch ausführen. Dieses ereignisgesteuerte Design reduziert manuellen Aufwand und ermöglicht die End-to-End-Automatisierung.

Weitere Informationen finden Sie in den häufig gestellten Fragen zur Verwendung von generativen Orchestrierung.
Planung und Anpassungsfähigkeit Agents können mehrstufige Workflows planen und Aktionen basierend auf änderungen von Eingaben oder Bedingungen anpassen. Diese Anpassung hilft ihnen bei der Behandlung dynamischer Geschäftsszenarien anstelle von starren, vordefinierten Aufgaben.

Weitere Informationen finden Sie in den häufig gestellten Fragen zur Verwendung von generativen Orchestrierungen, häufig gestellten Fragen zu Aufforderungen und häufig gestellten Fragen für generative Antworten.
Speicher für kontextbezogene Antworten Copilot Studio-Agents können den Kontext aus vorherigen Interaktionen beibehalten, sodass sie kohärente, personalisierte Antworten bereitstellen und die Kontinuität zwischen Unterhaltungen beibehalten können.
Erweiterbarkeit Entwickler können Agents mit benutzerdefinierten Plug-Ins, Connectors und erweiterter Logik verbessern. Diese Erweiterbarkeit stellt sicher, dass die Plattform skaliert werden kann, um spezielle oder komplexe Anforderungen zu erfüllen.
Multichannel-Bereitstellung Stellen Sie Agents auf Websites, Teams und anderen Apps bereit, damit Benutzer von überall aus mit ihnen interagieren können.
Verantwortungsvolle KI- und Sicherheitsfeatures Integrierte Datenschutz-, Sicherheits- und Complianceprüfungen entsprechen den Prinzipien der verantwortungsvollen KI von Microsoft und helfen Organisationen dabei, Agents sicher und ethisch bereitzustellen. Weitere Informationen zur verantwortungsbewussten Verwendung kisbasierter Features finden Sie in Responsible AI FAQs und Security FAQs für Copilot Studio.

Beabsichtigte Verwendungen

Copilot Studio kann in mehreren Szenarien in einer Vielzahl von Branchen verwendet werden. Beispiele für Anwendungsfälle sind:

  • Automatisierung des Kundensupports: Ein Einzelhandelsunternehmen kann einen Agenten erstellen, der allgemeine Kundenfragen beantwortet, Bestellungen nachverfolgt und Prozesse über eine Website oder einen Chat zurückgibt. Dieser Ansatz reduziert Wartezeiten und befreit menschliche Agenten, komplexe Probleme zu bewältigen, die Kundenzufriedenheit und die betriebliche Effizienz zu verbessern.
  • Self-Service für Mitarbeiter in der Regierung: Eine Regierungsbehörde kann einen internen Agent bereitstellen, um Mitarbeitern bei der Suche nach Personalrichtlinien zu helfen, Urlaubsanfragen zu übermitteln und Compliancerichtlinien zu überprüfen. Durch die Automatisierung von Routineanfragen spart die Agentur Zeit und stellt sicher, dass Mitarbeiter schnell auf genaue Informationen zugreifen können.
  • Financial services workflow automation: Eine Bank kann Copilot Studio verwenden, um einen Agent zu erstellen, der eingehende Abfragen und Anwendungen überwacht und Updates bereitstellt. Dieser Ansatz beschleunigt die Verarbeitung, reduziert manuelle Fehler und verbessert die Transparenz für Kunden.
  • Bildungs- und Studentenhilfe: Universitäten können Agenten erstellen, die Studierende durch die Kursregistrierung führen, Fragen zu Stichtagen beantworten und Links zu Lernressourcen bereitstellen. Dieser Ansatz hilft Schülern, verwaltungstechnische Aufgaben einfach zu navigieren und den Arbeitsaufwand für akademische Mitarbeiter zu verringern.
  • Medieninhaltsverwaltung: Ein Medienunternehmen kann einen Agent bereitstellen, um Editoren zu unterstützen, indem Metadaten aus mehreren Quellen abgerufen, Ressourcen organisiert und relevante Tags für Artikel vorgeschlagen werden. Dieser Ansatz beschleunigt die Veröffentlichung von Workflows und sorgt für Konsistenz auf allen Plattformen.
  • Warenbestandswarnungen für Konsumgüter: Ein Hersteller kann einen Agenten einrichten, der Die Lagerbestände überwacht und automatisch Restocking-Aktionen auslöst, wenn Schwellenwerte erreicht werden. Dieser proaktive Ansatz verhindert Lagerbestände und sorgt dafür, dass Lieferketten reibungslos laufen.

Agentbereich: Diese Agents sind in der Regel für definierte Aufgaben innerhalb ihrer Domäne (z. B. Personalanfragen, Kreditverarbeitung oder Studentenunterstützung) vorgesehen. Sie können zwar mehrere verwandte Aktionen verarbeiten, sie arbeiten jedoch innerhalb von Grenzen, die von der Organisation festgelegt sind, um Die Kontrolle und Compliance aufrechtzuerhalten.

Modelle und Trainingsdaten

Copilot Studio nutzt eine Vielzahl von KI-Modellen, um die Benutzerfreundlichkeit zu verbessern. Einige Beispiele sind die GPT-5-Serie von OpenAI, die von Azure OpenAI Service, Anthropics Claude Sonnet 4 und xAI's Grok 4.1 Fast bereitgestellt wird.

Microsoft trainiert Foundation-Modelle nicht mithilfe von Kundendaten. Für Modelle, die von Drittanbietern entwickelt und geschult wurden, finden Sie weitere Informationen unter "Auswählen eines primären Modells für Agent".

Leistung

Copilot Studio ist darauf ausgelegt, zuverlässig in Unternehmensumgebungen zu arbeiten, in denen Agents both conversational interactions and automated actions verarbeiten. Agents können Fragen beantworten, Anleitungen bereitstellen und workflows ausführen, die durch Ereignisse ausgelöst werden – z. B. Aktualisieren von Datensätzen, Senden von Benachrichtigungen oder Orchestrieren von mehrstufigen Geschäftsprozessen. Diese Kombination aus Echtzeitunterstützung und Hintergrundautomatisierung eignet sich Copilot Studio für verschiedene Geschäftsszenarien.

Unterstützte Modalitäten

  • Eingabe: Textaufforderungen von Benutzern und ereignisbasierten Triggern von verbundenen Systemen (z. B. ein neuer Eintrag in einer Datenbank oder eine Formularübermittlung).

  • Ausgabe: Textantworten für Unterhaltungsszenarien und automatisierte Aktionen wie das Erstellen von Aufgaben, das Aktualisieren von Daten oder das Initiieren von Workflows.

Mehrsprachige Funktionen

  • Optimiert für Englisch, mit Unterstützung für zusätzliche Sprachen basierend auf der Konfiguration. Die Unterhaltungsgenauigkeit ist in Englisch am höchsten, während Automatisierungsfeatures sprachunabhängig bleiben, da sie auf strukturierte Trigger und Aktionen angewiesen sind.

Bedingungen für einen zuverlässigen Betrieb

  • Agents führen am besten aus, wenn Eingabeaufforderungen klar sind und Connectors zu Datenquellen und Systemen ordnungsgemäß konfiguriert sind.

  • Stabile Konnektivität und Einhaltung von Organisationsdatenrichtlinien sind für eine sichere und konsistente Leistung unerlässlich.

  • Die Leistung kann beeinträchtigt werden, wenn externe Systeme nicht verfügbar sind oder nicht unterstützte Sprachen für Unterhaltungsaufgaben verwendet werden.

Sicherheit und Zuverlässigkeit

  • Integrierte, verantwortungsvolle KI-Prüfungen sorgen für Datenschutz, Sicherheit und Compliance sowohl für Unterhaltungs- als auch für automatisierte Workflows. Diese Sicherheitsvorkehrungen unterstützen Organisationen bei der sicheren Bereitstellung von Agents in ihren Szenarien.

Einschränkungen

Das Verständnis der Einschränkungen von Copilot Studio ist entscheidend, um festzustellen, ob es innerhalb sicherer und effektiver Grenzen verwendet wird. Während wir Kunden ermutigen, Copilot Studio in ihren innovativen Lösungen oder Anwendungen zu nutzen, ist es wichtig zu beachten, dass Copilot Studio nicht für jedes mögliche Szenario entwickelt wurde. Wir empfehlen Benutzern, entweder auf den Microsoft Enterprise AI Services Code of Conduct (für Organisationen) oder den Abschnitt "Verhaltensregeln" im Microsoft-Servicevertrag (für Einzelpersonen) sowie auf die folgenden Überlegungen bei der Auswahl eines Anwendungsfalls zu verweisen:

  • Integration und compatibility: Während Copilot Studio in Microsoft-Dienste integriert und Connectors für externe Systeme unterstützt, kann es Einschränkungen bei Apps von Drittanbietern oder stark angepassten Umgebungen geben. Erweiterte Automatisierungsszenarien erfordern möglicherweise eine zusätzliche Entwicklung oder werden möglicherweise nicht vollständig unterstützt.

  • Customization and flexibility: Copilot Studio bietet low-code and pro-code options, but customization has boundaries. Einige Workflows oder Antworten sind möglicherweise starr oder nicht vollständig an eindeutige Organisationsanforderungen ausgerichtet, insbesondere in regulierten Domänen.

  • Abhängigkeit von Konnektivität und Datenzugriff: Agents basieren auf einer stabilen Internetverbindung und dem Zugriff auf konfigurierte Datenquellen. Unterbrechungen bei der Konnektivität oder Änderungen an externen APIs und Connectors können sich auf die Leistung auswirken oder dazu führen, dass Workflows fehlschlagen.

  • Benutzerschulungen und -einführung: Eine effektive Verwendung erfordert, dass Benutzer sowohl Funktionen als auch Einschränkungen verstehen. Möglicherweise gibt es eine Lernkurve, und Benutzer sollten automatisierte Aktionen auf Genauigkeit überprüfen.

  • Ressourcenintensität: Das Ausführen erweiterter KI-Modelle und -Automatisierungen kann erhebliche Rechenressourcen erfordern. Die Leistung kann in ressourcengeschränkten Umgebungen oder während der Spitzenauslastung beeinträchtigt werden.

  • Bias, Stereotyping und nicht geerdeter Inhalt: Trotz verantwortungsvoller KI-Steuerelemente können KI-generierte Inhalte weiterhin Verzerrungen, Stereotypen oder nicht geerdeten Informationen widerspiegeln. Benutzer sollten immer Antworten und Aktionen überprüfen, insbesondere in Sensiblen oder Szenarien mit hohem Einsatz.

  • Multilingual support: Copilot Studio features unterstützen multiple languages. Copilot Studio wurde hauptsächlich in Englisch entwickelt und getestet. Die Verwendung nicht unterstützter Sprachen wirkt sich möglicherweise auf die Leistung aus, und Die Benutzer sollten beim Arbeiten außerhalb des vorgesehenen Sprachumfangs Vorsicht walten lassen.

Evaluations

Leistungs- und Sicherheitsbewertungen stellen sicher, dass KI-Systeme zuverlässig und sicher funktionieren, indem Faktoren wie Erdheit, Relevanz und Kohärenz bewertet und gleichzeitig die Risiken für die Erzeugung schädlicher Inhalte identifiziert werden. Die folgenden Bewertungen wurden bereits mit Sicherheitskomponenten durchgeführt, die im Abschnitt "Sicherheitskomponenten & Gegenmaßnahmen" weiter unten beschrieben werden.

Leistungs- und Qualitätsbewertungen

Leistungsbewertungen für KI-Anwendungen sind unerlässlich, um ihre Zuverlässigkeit in realen Anwendungen zu verbessern. Metriken wie Erdheit, Relevanz und Kohärenz helfen dabei, die Genauigkeit und Konsistenz von KI-generierten Ausgaben zu bewerten, sodass sie tatsächlich in geerdeten Inhaltsszenarien unterstützt werden, kontextgerecht und logisch strukturiert sind. Für Copilot Studio haben wir performance Evaluationen für die folgenden Metriken durchgeführt, die über Microsoft Foundry verfügbar sind:

  • Verankerung

  • Kohärenz

  • Geläufigkeit

  • Ähnlichkeit

Risiko- und Sicherheitsbewertungen

Die Bewertung potenzieller Risiken im Zusammenhang mit KI-generierten Inhalten ist für den Schutz vor Inhaltsrisiken mit unterschiedlichem Schweregrad unerlässlich. Dazu gehört die Bewertung der Prädisposition einer KI-Anwendung zum Generieren schädlicher Inhalte oder Zum Testen von Sicherheitsrisiken für Jailbreak-Angriffe. Für Copilot Studio haben wir Risiko- und sicherheitsbewertungen für die folgenden Metriken durchgeführt, die über Microsoft Foundry verfügbar sind:

  • Hass und Unfairness

  • Sexuell

  • Gewalt

  • Selbstverletzung

  • Geschütztes Material

  • Indirekter Jailbreak

  • Direkter Jailbreak

  • Sicherheitsanfälligkeit in Code

  • Unfundierte Attribute

Risiko- und Sicherheitsbewertungsmethoden

Copilot Studio wertet nur textbasierte Interaktionen aus, und alle internen Tests konzentrieren sich darauf, wie das System Texteingaben verarbeitet und Textausgaben generiert, wobei automatisierte Pipelines und LLM-basierte Richter zur Messung von Qualität, Sicherheit und Erdung verwendet werden. Diese Auswertungen verwenden kuratierte oder synthetische Text-Datasets, die in Offlinepipelinen wiedergegeben und in Online-Schatten- und A/B-Tests überprüft werden, wobei jede Antwort auf Relevanz, Erdheit, Vollständigkeit und angemessene Enthaltung basierend auf den in der Evaluierungsdokumentation von Copilot Studio beschriebenen Bewertungskriterien bewertet wurde.

Das System wendet auch automatisierte Sicherheitsbewertungen an, die auf Hass und Unfairität, sexuelle Inhalte, Gewalt, Selbstschäden, geschütztes Material, Jailbreak-Versuche, codebezogene Schäden und nicht geerdete Attribute überprüfen. Diese Kategorien werden explizit im internen Sicherheitsbewertungsframework von Copilot Studio aufgeführt. Ein ideales Auswertungsergebnis ist ein Ergebnis, bei dem Antworten auf die bereitgestellten Kenntnisse, vollständig geerdet, vollständig in allen neun Schadenkategorien gesichert sind und im Vergleich zu früheren Modellversionen keine Regressionen im Aufgabenerfolg oder in der Qualität zeigen. Die Auswertungsdashboards und Analysen, die in Produktteamworkflows verwendet werden, messen diese Ergebnisse. Ein suboptimales Ergebnis ist ein Ergebnis, bei dem Antworten irrelevant, unvollständig oder halluziniert sind. Sie enthält unsichere Inhalte, missbraucht Tools, schlägt Erdheitsprüfungen fehl oder geht im Vergleich zu Basiswerten auf Qualität oder Latenz zurück. Alle diese Signale werden in Copilot Studio-Auswertungsberichte und Qualitätsbewertungsfunktionen als Fehlermodi identifiziert.

Auswertungsdaten für Qualität und Sicherheit

Unsere Auswertungsdaten sind kundenspezifisch aufgebaut, um die Leistung des KI-Systems in wichtigen Bereichen der Sicherheit und Qualität zu bewerten und reale Szenarien und Risiken zu simulieren. Zunächst identifizieren wir relevante Bewertungsaspekte von Beunruhigungen basierend auf multidisziplinären Forschungs- und Experteneingaben. Wir übersetzen diese Bedenken in gezielte Bewertungsziele, die die Formulierung von Bewertungsmetriken leiten.

Zur Sicherheit erstellen wir adversariale Eingabeaufforderungen, um unerwünschte oder Edge-Case-Antworten auszulösen. KI-unterstützte Annotatoren, geschult, um die Ausrichtung mit den Sicherheitsstandards von Microsoft zu bewerten, bewerten diese Antworten. Für Qualität erstellen wir Rubrikenbasierte Aufforderungen, die für Szenarien relevant sind, z. B. die Auswertung von Rag-Anwendungen (Retrieval Augmented Generation) und Agenten. Wir zusammenstellen Datasets aus verschiedenen Quellen, einschließlich synthetischer und öffentlicher Datasets, um reale Benutzerszenarien zu simulieren.

Mit den kuratierten Datasets durchlaufen beide Auswertungen iterative Verfeinerung und menschliche Ausrichtung zur Verbesserung der metrischen Wirksamkeit und Zuverlässigkeit. Diese Methodik bildet die Grundlage für wiederholbare, strenge Bewertungen, die widerspiegeln, wie Kunden Auswertungen verwenden, um eine bessere und sicherere KI zu schaffen.

Sicherheitskomponenten und Entschärfungen

Da wir potenzielle Risiken und Missbrauch durch Auswertungen und Tests identifizieren, implementiert Microsoft Maßnahmen zur Verringerung von Schäden und zur Verbesserung der Zuverlässigkeit. Copilot Studio basiert auf Sicherheit, Fairness und Sicherheit im Kern, und wir überwachen und aktualisieren diese Sicherheitsmaßnahmen kontinuierlich, da sich die Anforderungen der Benutzer und Technologie weiterentwickeln. Nachfolgend sind die wichtigsten Komponenten und Maßnahmen aufgeführt, die Organisationen bei der verantwortungsbewussten Bereitstellung von Agents unterstützen:

Verantwortungsvolle KI-Prüfungen: Jede Interaktion unterliegt Datenschutz-, Sicherheits- und Complianceprüfungen, die den Verantwortungs-KI-Prinzipien von Microsoft entsprechen. Dazu gehören KI-basierte Klassifizierer, um schädliche Inhalte und Metaprompting zu erkennen, um das Modellverhalten auf sichere, ethische Ausgaben zu lenken.

  • Grundlage für vertrauenswürdige Daten: Antworten und Aktionen sind in Organisationsdatenquellen verankert, auf die der Benutzer über die Berechtigung zum Zugriff verfügt. Dies reduziert das Risiko von nicht geerdeten oder hergestellten Inhalten und stellt sicher, dass Ausgaben relevant und überprüfbar sind.

  • Inhaltssicherheitsfilter: Integrierte Klassifizierer kennzeichnen potenziell schädliche Inhalte wie Hassrede, Gewalt, sexuelle Inhalte oder urheberrechtlich geschützte Inhalte. Wenn dies gekennzeichnet ist, kann das System die Antwort blockieren oder den Benutzer zu sichereren Alternativen umleiten.

  • Prompt Enrichment and Guardrails: Mehrdeutige Eingabeaufforderungen werden optimiert, um Fehlinterpretation zu reduzieren. Guardrails verhindern, dass Agenten Aktionen außerhalb ihres definierten Umfangs ausführen, wodurch unbeabsichtigte Folgen minimiert werden.

  • Leitfaden für die menschliche Aufsicht: Benutzer werden empfohlen, KI-generierte Ausgaben und automatisierte Aktionen zu überprüfen, bevor sie in Szenarien mit hohem Einsatz angewendet werden. Diese Praxis mindert Risiken der Überlastung und stellt die Rechenschaftspflicht sicher.

  • Cybersicherheitsmaßnahmen: Daten werden während der Übertragung und im Ruhezustand verschlüsselt. Copilot Studio entspricht den Sicherheitsstandards der Unternehmensklasse von Microsoft. Zu den Schutzmaßnahmen gehören rollenbasierte Zugriffskontrollen, sichere API-Integrationen und kontinuierliche Überprüfung von Sicherheitsrisiken, um Bedrohungen wie Einfügungsangriffe oder nicht autorisierten Zugriff zu schützen.

  • Kontinuierliche Überwachung und Feedback: Organisationen können die Agentleistung überwachen und Feedback über Administratordashboards übermitteln. Feedback hilft Microsoft dabei, Sicherheitsfeatures zu verbessern und sich mit neuen Risiken zu befassen. Erfahren Sie, wie Sie Feedback geben.

Bestimmte Modelle haben höhere Risiken, schädliche Inhalte zu erzeugen. Experimentelle Modelle und Vorschaumodelle werden beispielsweise nicht für die Produktion empfohlen, und Kunden sollten vor der Bereitstellung eigene Auswertungen durchführen. Siehe Auswählen eines primären Modells für Ihren Agent.

Bewährte Methoden für die Integration und Bereitstellung von Copilot Studio

Verantwortungsvolle KI ist eine gemeinsame Verpflichtung von Microsoft und seinen Kunden. Während Microsoft KI-Systeme mit Sicherheit, Fairness und Transparenz im Kern erstellt, spielen Kunden eine wichtige Rolle bei der Bereitstellung und Verwendung dieser Technologien in ihren eigenen Kontexten. Um diese Partnerschaft zu unterstützen, bieten wir die folgenden bewährten Methoden für Bereitstellungen und Endbenutzer an, um Kunden bei der effektiven Implementierung verantwortungsvoller KI zu unterstützen.

Bereitstellungen und Endbenutzer sollten:

  • Seien Sie vorsichtig beim Entwerfen agentischer KI in sensiblen Domänen: Benutzer sollten beim Entwerfen und/oder Bereitstellen agentischer KI-Anwendungen in sensiblen Domänen Vorsicht walten lassen, in denen Agentaktionen unumkehrbar oder stark folgefähig sind. Bereitstellungen und Endbenutzer sollten die Anforderungen im Microsoft Enterprise AI Services-Verhaltenskodex für Organisationen erfüllen.

  • Bewerten Sie rechtliche und behördliche Überlegungen: Kunden müssen potenzielle spezifische rechtliche und behördliche Verpflichtungen bewerten, wenn Sie KI-Dienste und -Lösungen verwenden, die möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario geeignet sind. Darüber hinaus sind KI-Dienste oder -Lösungen nicht für sie ausgelegt und dürfen nicht auf eine Weise verwendet werden, die in den Nutzungsbedingungen und verhaltensregeln verboten ist. Die Benutzer müssen Vorsicht walten lassen und die Einhaltung der geltenden Gesetze, Vorschriften und des Unternehmenskodex von Microsoft für Organisationen sicherstellen. Weitere Anleitungen finden Sie in Abschnitt 10 zu bewährten Methoden für die Integration und Bereitstellung von Copilot Studio.

Endbenutzer sollten:

  • Klare Ziele definieren:

    • Identifizieren Sie das spezifische Geschäftsproblem, das der Agent löst. Vermeiden Sie die Verwendung von "allgemeinen" Agenten, es sei denn, es ist unbedingt erforderlich. Fokussierte Agenten sind sicherer und einfacher zu verwalten. Beispielsweise löst ein Agent, der Informationen aus Rechnungen interpretiert und erfasst, das spezifische Geschäftsproblem beim Organisieren von Daten aus Rechnungen.

    • Dokumentieren Sie den Bereich und die Grenzen – was der Agent tun sollte und nicht.

  • Kartentrigger und Aktionen:

    • Entwerfen ereignisgesteuerter Logik: Was löst den Agent aus (z. B. einen neuen Datensatz, eine Benutzerabfrage) und welche Aktionen er ausführt.

    • Verwenden Sie vordefinierte Connectors für allgemeine Systeme und überprüfen Sie API-Berechtigungen für externe Integrationen.

    • Schließen Sie Fallbackaktionen für Szenarien ein, in denen Daten oder Konnektivität nicht verfügbar sind.

  • Integrieren von Schutzschienen:

    • Implementieren Sie Genehmigungsschritte für Aktionen mit hohem Einfluss, z. B. Finanztransaktionen oder PERSONALänderungen.

    • Beschränken Sie die Automatisierung auf umkehrbare Vorgänge, sofern möglich.

    • Konfigurieren Sie rollenbasierte Zugriffssteuerungen, sodass Agents nur innerhalb autorisierter Grenzen agieren.

    • Definieren Sie klare Grenzen für Agentaktionen, insbesondere in sensiblen Domänen wie Finanzen, Gesundheitswesen oder Rechtsdienstleistungen. Verwenden Sie Genehmigungsworkflows für Aufgaben mit hohem Einfluss.

  • Grundantworten in vertrauenswürdigen Daten:

    • Verbessern Sie die Agentengenauigkeit, indem Sie relevante externe Systeme (z. B. Microsoft Graph, CRM, ERP) über sichere APIs und Microsoft Graph Connectors verbinden.

    • Vermeiden Sie es, sich ausschließlich auf modellgenerierte Inhalte für kritische Entscheidungen zu verlassen – immer Die Ausgabe wird in überprüfbaren Daten geerdet.

    • Stellen Sie sicher, dass Agents nur auf Datenquellen zugreifen, die den Organisationsrichtlinien entsprechen. Wenden Sie rollenbasierte Zugriffssteuerungen an, und überwachen Sie berechtigungen regelmäßig.

  • Entwurf für Anpassungsfähigkeit und Erweiterbarkeit:

    • Verwenden Sie bedingte Logik, damit Agents Variationen in Workflows verarbeiten können.

    • Erstellen Sie modulare Komponenten, die aktualisiert werden können, ohne den gesamten Agenten neu zu gestalten.

  • Testen Sie gründlich:

    • Überprüfen Sie Agents in einer Sandkastenumgebung vor der Bereitstellung.

    • Schließen Sie Kantenfälle und Stresstests ein, um die Stabilität unter unterschiedlichen Bedingungen zu gewährleisten.

    • Simulieren Sie reale Szenarien, um nach unbeabsichtigten Verhaltensweisen zu suchen.

  • Überwachen und durchlaufen Sie:

    • Verwenden Sie Dashboards, um die Leistung, Einführung und Fehlerraten von Agents nachzuverfolgen. Regelmäßige Überwachung hilft dabei, Leistungsabweichungen zu erkennen und Zuverlässigkeit aufrechtzuerhalten.

    • Sammeln Sie regelmäßig Feedback von Benutzern und Projektbeteiligten.

    • Aktualisieren Sie Agents, wenn sich Geschäftsprozesse entwickeln oder neue Connectors verfügbar werden.

  • Verantwortungsvolle KI-Prinzipien anwenden:

    • Überprüfung auf Voreingenommenheit und Fairness bei Antworten und Aktionen.

    • Folgen Sie den KI-Verhaltensregeln von Microsoft und den Richtlinien zur Einhaltung der Organisationscompliance.

Zusätzlich zu den zuvor beschriebenen bewährten Methoden sollten Endbenutzer auch:

  • Beaufsichtigung der Menschen bei Bedarf ausüben: Die menschliche Aufsicht ist ein wichtiger Schutz bei der Interaktion mit KI-Systemen. Während wir unsere KI-Systeme kontinuierlich verbessern, kann ki dennoch Fehler machen. Die generierten Ausgaben können ungenau, unvollständig, voreingenommen, falsch ausgerichtet oder irrelevant für Ihre beabsichtigten Ziele sein. Dies kann verschiedene Gründe haben, z. B. Mehrdeutigkeit in den Eingaben oder Einschränkungen der zugrunde liegenden Modelle. Benutzer sollten daher die von Copilot Studio generierten Antworten überprüfen und überprüfen, ob sie ihren Erwartungen und Anforderungen entsprechen.

  • Seien Sie sich des Risikos der Überlastung bewusst: Überlastung bei KI geschieht, wenn Benutzer falsche oder unvollständige KI-Ausgaben akzeptieren, hauptsächlich weil Fehler in KI-Ausgaben möglicherweise schwer zu erkennen sind. Für den Endbenutzer kann eine Überzuverlässigkeit unter anderem zu verminderter Produktivität, Vertrauensverlust, Produktabbruch, finanziellem Verlust, psychischen Schäden und körperlichen Schäden führen. (z. B. ein Arzt akzeptiert eine falsche KI-Ausgabe). Für Copilot Studio besteht das Risiko einer Überlastung, da [die Einschränkungen des Produkts erklären, die zu Fehlern führen oder weniger genaue Ergebnisse liefern können. Dies sind in der Regel Systemdesigns, die es Benutzern erschweren, zu identifizieren, wann die KI falsch ist – sehen Sie sich die drei UX-Ziele im Overreliance on AI an: Risk Identification and Mitigation Framework | Microsoft Learn].

  • Seien Sie vorsichtig beim Entwerfen agentischer KI in sensiblen Domänen: Benutzer sollten beim Entwerfen und/oder Bereitstellen agentischer KI-Systeme in sensiblen Domänen Vorsicht walten lassen, in denen Agentaktionen unwiderruflich oder stark folgefähig sind. Zu diesen Bereichen gehören, aber nicht beschränkt auf Finanz- und Versicherungen, Gesundheitswesen, Juristische Dienstleistungen, wesentliche Staatliche Dienstleistungen, Beschäftigung, Bildung oder Wohnungen. Zusätzliche Vorsichtsmaßnahmen sollten auch bei der Erstellung autonomer agentischer KI getroffen werden, wie weiter im Verhaltenskodex von Microsoft beschrieben.

Deployer sollten:

Microsoft bietet Tools wie Copilot Studio-Analysen, Power Platform Admin Center-Berichte und integrierte Überwachungsfunktionen, um Organisationen bei der Bereitstellung und Verwaltung von Copilot Studio-Agents zu unterstützen. Diese Tools sollen Organisationen dabei unterstützen, die Nutzung zu überwachen, die Agentqualität zu bewerten und die betrieblichen Auswirkungen von Copilot Studio-Agents zu bewerten. Beispiel:

  • Copilot Studio integrierte Analysefunktionen ermöglichen Bereitstellungen, um Zusammenfassungen der Agentnutzung, des Unterhaltungsvolumens und des Engagements anzuzeigen, um Bereitstellungen zu verwalten und Agentkonfigurationen zu optimieren. Weitere Informationen finden Sie in Copilot Studio analytics and monitoring documentation.

  • Copilot Studio-Analysen und -Berichte bieten Entscheidungsträgern, Administratoren und Organisationsbeteiligten Zugriff auf Berichte über die Agentleistung, Nutzungsmuster und betriebliche Integrität, um die Effektivität und Auswirkungen zu messen. Weitere Informationen finden Sie unter Copilot Studio monitoring and governance guidance.

  • mit Copilot Studio-Telemetrie- und integrierten Überwachungstools können Bereitstellungen das Agentverhalten im Laufe der Zeit analysieren und Nutzungstrends mit organisatorischen Zielen vergleichen, um den Geschäftswert zu verstehen und Leistungsabweichungen zu erkennen. Weitere Informationen finden Sie in Copilot Studio Performance Monitoring and Evaluation Documentation.

Weitere Informationen zu Copilot Studio

Weitere Anleitungen zur verantwortungsvollen Verwendung von Microsoft 365 Copilot empfehlen wir, die folgende Dokumentation zu überprüfen:

Ressourcen für Datensicherheit und Datenschutz

Erfahren Sie mehr über verantwortungsvolle KI