Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Retrieval Augmented Generation (RAG) in Microsoft Copilot Studio kombiniert die Denkfähigkeiten von Sprachmodellen mit vertrauenswürdigem, organisationsspezifischem Wissen. Es ermöglicht Agenten, genaue, kontextuelle und fundierte Antworten basierend auf dem Inhalt des Unternehmens zu liefern, anstatt sich ausschließlich auf den Modellspeicher zu verlassen.
In diesem Artikel erfahren Sie, wie Sie:
- Verstehen Sie, wie RAG die Zuverlässigkeit und Verankerung der KI erhöht.
- Beschreiben, wie Copilot Studio Wissen abruft und synthetisiert.
- Identifizieren Sie die unterstützten Wissensquellen und deren Einschränkungen.
- Erkennen Sie Governance-, Compliance- und KI-Sicherheitsaspekte an.
- Wenden Sie RAG-Konzepte beim Entwerfen von Agenten in Unternehmensumgebungen an.
Einführung in RAG
RAG ist ein Designmuster, das die Genauigkeit der KI verbessert, indem es zwei Fähigkeiten kombiniert:
- Informationsabruf: Durchsuchung von Unternehmensdatenquellen.
- Textgenerierung: Synthese der abgerufenen Informationen mittels eines Sprachmodells.
Dieser Ansatz reduziert falsche Informationen, erhöht das Vertrauen und erzeugt Antworten, die auf echten organisatorischen Inhalten basieren.
RAG-Architektur in Copilot Studio
Copilot-Studio-RAG-Pipeline basiert auf Azure AI-Diensten und integriert sich nahtlos in die Vertrauens-, Compliance- und Sicherheitsrichtlinien von Microsoft.
Kernkomponenten:
- Copilot Studio runtime: Verwaltet die Konversationspipeline
- Abfrageoptimierungs-Engine: Schreibt Abfragen um und interpretiert sie
- Search-Anbieter: Bing, SharePoint, Graph, Dataverse, Azure AI Search
- Zusammenfassungs-Engine: Erstellt fundierte, zitierte Antworten
- Moderationsschichten: Validiert Nachrichten und Zusammenfassungen
- State Store: Kurzzeitgedächtnis (weniger als 30 Tage; nicht für die Ausbildung genutzt)
- Telemetrie- und Feedback-Datenbanken: Bietet Einblicke und Überwachung
Funktionsweise von RAG in Copilot Studio
RAG in Copilot Studio folgt einem vierstufigen Prozess:
- Abfrageumformulierung
- Inhaltsabruf
- Zusammenfassung und Antwortgenerierung
- Sicherheits- und Governance-Validierung
1. Abfrage-Neuschreibung
Copilot Studio optimiert die Frage des Benutzers vor der Suche:
- Klärt Bedeutung
- Fügt kontextbezogene Signale hinzu (letzte 10 Kurven)
- Verbessert die Schlüsselwortzuordnung
- Generiert suchfreundliche Anfragen
Dieser Prozess erhöht die Abrufqualität, reduziert irrelevante Ergebnisse.
2. Inhaltsabruf
Nachdem die Abfrage neu geschrieben wurde, läuft das System sie mit allen von dir eingerichteten Wissensquellen aus. Copilot Studio erhält die drei wichtigsten Ergebnisse aus jeder Quelle, wobei die Relevanz mit der Leistung ausgeglichen wird. Das Verhalten jeder Wissensquelle variiert je nach Faktoren wie Authentifizierung, Indexierung, Dateiformaten und Speicherbeschränkungen.
Die folgende Tabelle fasst alle unterstützten Wissensquellen sowie deren Fähigkeiten, Einschränkungen und Authentifizierungsanforderungen zusammen:
| Wissensquelle | Description | Authentifizierung | Wichtige Fähigkeiten, Grenzen und Einschränkungen |
|---|---|---|---|
| Öffentliche Daten (Webseiten) | Von Bing indexierte Websites | Nichts |
|
| SharePoint/OneDrive | Interne Unternehmensinhalte (nur intern) | Microsoft Entra ID delegierte Authentifizierung |
|
| Hochgeladene Dateien | Dateien, die in den Dataverse-Speicher hochgeladen wurden | Nichts |
|
| Dataverse-Tabellen | Strukturierte Geschäftsunterlagen (nur intern) | Microsoft Entra ID delegierte Authentifizierung |
|
| Graphenverbinder | In Microsoft Graph indizierte Unternehmens-Apps (nur intern) | Microsoft Entra ID delegierte Authentifizierung |
|
| Echtzeit-Steckverbinder | Live-Daten von Systemen wie Salesforce, Zendesk, SQL (nur intern) | Der Benutzer muss eingeloggt sein |
|
| Azure AI Search | Vektorbasierte semantische Suche | Konfigurierter Endpunkt |
|
| Benutzerdefinierte Daten | Daten, die über APIs, Flows oder benutzerdefinierte Logik bereitgestellt werden | Nichts |
|
3. Zusammenfassung und Antwortgenerierung
- KI synthetisiert abgerufene Inhalte
- Verwendet benutzerdefinierte Anweisungen für Ton, Formatierung, Sicherheit oder Kürze
- Erzeugt Zitate zu den zugrunde liegenden Daten
- Personalisiert Antworten mithilfe des Benutzerkontexts (wie Sprache, Abteilung oder Region)
4. Sicherheit und Governance-Validierung
Jede Antwort durchläuft automatisierte Validierungsschichten:
- Moderation schädlicher, bösartiger, nicht konformer oder urheberrechtlich geschützter Antworten
- Erdungsvalidierung und Entfernung falscher Informationen
Es werden keine Kundendaten zum Trainieren von Sprachmodellen verwendet.
Wichtige Überlegungen bei der Verwendung von RAG
RAG eignet sich am besten für sachliche Fragen und Antworten, nicht für tiefgehende Dokumentenanalyse.
RAG ist ideal für:
- Fragen aus Wissensbasen beantworten
- Zusammenfassung von Richtlinien, FAQs und Verfahrensinhalten
- Abruf spezifischer Fakten aus Dateien oder internen Systemen
RAG ist nicht gedacht für:
- Vollständiger Dokumentenvergleich
- Bewertung der Einhaltung von Richtlinien
- Komplexe schlussfolgernde Prozesse bei umfangreichen, unstrukturierten Dokumenten
Generative KI-Sicherheits- und Compliance-Überlegungen
Generative KI-Features in Microsoft Copilot Studio sind darauf ausgelegt, leistungsstarke Unterhaltungs- und Begründungsfunktionen bereitzustellen und gleichzeitig starke Sicherheits-, Datenschutz- und Compliance-Kontrollen aufrechtzuerhalten.
Foundation-Modelle und Hosting
- Copilot Studio basiert auf Foundation-Modellen, die OpenAI trainiert.
- Copilot Studio verwendet eines der neuesten OpenAI-Modelle für generative Antworten.
- Modelle werden vollständig auf internen Azure AI Foundry-Diensten ausgeführt, die an der Microsoft Services Trust-Grenze ausgerichtet sind.
- Alle Modellnutzungen entsprechen den Prinzipien und Richtlinien von Microsoft Responsible AI .
Benutzerdefinierte Anweisungen
Maker können individuelle Anweisungen bereitstellen, um das Verhalten von Modellen zu gestalten, den Ton zu beeinflussen oder Formatierungsregeln hinzuzufügen. Diese Anweisungen helfen dabei, die generativen Reaktionen auf die Bedürfnisse der Organisation anzupassen, während sie dennoch Sicherheitsfilter und Compliance-Kontrollen respektieren.
Datenspeicherung und -Verarbeitung
- Datenspeicherung und -verarbeitung in Copilot Studio kann Daten möglicherweise über regionale Grenzen hinweg verschieben, wenn lokales Modellhosting nicht verfügbar ist.
- Wenn diese Datenverschiebung nicht zulässig ist, können Administratoren Umgebungseinstellungen verwenden, um bestimmte Features wie Azure Sprachmodelle oder Bing Search zu deaktivieren.
- Copilot Studio sammelt oder verwendet keine Kundendaten für Schulungssprachenmodelle.
Operationelle Datenverarbeitung
- Während des Betriebs speichert das System Gespräche vorübergehend in einem gesicherten, von Microsoft betriebenen Store.
- Der Zugriff autorisierter Microsoft-Mitarbeiter ist über Secure Access Workstations (SAWs) mit Just-In-Time (JIT)-Kontrollen eingeschränkt.
- Organisationen können den Zugriff zusätzlich über Customer Lockbox kontrollieren, was eine ausdrückliche Genehmigung benötigt, bevor Microsoft-Support-Ingenieure die Daten einsehen können.
Fehlerbehebung der Telemetrie
- Generative KI-Funktionen erzeugen zusätzliche Fehlerbehebungsdaten, allerdings nur für vom Ersteller initiierte Aktionen im Testbereich, insbesondere wenn der Ersteller einer Antwort einen Daumen hoch oder runter gibt.
- Außerhalb dieser expliziten Rückmeldungsschleife werden keine zusätzlichen Kundendaten protokolliert.
Missbrauchsüberwachung und Sicherheit
Da bereits mehrere Sicherheitsebenen generative KI-Features schützen, deaktiviert Copilot Studios generative KI Azure KI-Missbrauchsüberwachung um eine weitere Protokollierung von Kundendaten zu vermeiden.