Freigeben über


Verbessern Sie KI-Antworten durch den Einsatz von Retrieval Augmented Generation

Retrieval Augmented Generation (RAG) in Microsoft Copilot Studio kombiniert die Denkfähigkeiten von Sprachmodellen mit vertrauenswürdigem, organisationsspezifischem Wissen. Es ermöglicht Agenten, genaue, kontextuelle und fundierte Antworten basierend auf dem Inhalt des Unternehmens zu liefern, anstatt sich ausschließlich auf den Modellspeicher zu verlassen.

In diesem Artikel erfahren Sie, wie Sie:

  • Verstehen Sie, wie RAG die Zuverlässigkeit und Verankerung der KI erhöht.
  • Beschreiben, wie Copilot Studio Wissen abruft und synthetisiert.
  • Identifizieren Sie die unterstützten Wissensquellen und deren Einschränkungen.
  • Erkennen Sie Governance-, Compliance- und KI-Sicherheitsaspekte an.
  • Wenden Sie RAG-Konzepte beim Entwerfen von Agenten in Unternehmensumgebungen an.

Einführung in RAG

RAG ist ein Designmuster, das die Genauigkeit der KI verbessert, indem es zwei Fähigkeiten kombiniert:

  • Informationsabruf: Durchsuchung von Unternehmensdatenquellen.
  • Textgenerierung: Synthese der abgerufenen Informationen mittels eines Sprachmodells.

Dieser Ansatz reduziert falsche Informationen, erhöht das Vertrauen und erzeugt Antworten, die auf echten organisatorischen Inhalten basieren.

RAG-Architektur in Copilot Studio

Copilot-Studio-RAG-Pipeline basiert auf Azure AI-Diensten und integriert sich nahtlos in die Vertrauens-, Compliance- und Sicherheitsrichtlinien von Microsoft.

Kernkomponenten:

  • Copilot Studio runtime: Verwaltet die Konversationspipeline
  • Abfrageoptimierungs-Engine: Schreibt Abfragen um und interpretiert sie
  • Search-Anbieter: Bing, SharePoint, Graph, Dataverse, Azure AI Search
  • Zusammenfassungs-Engine: Erstellt fundierte, zitierte Antworten
  • Moderationsschichten: Validiert Nachrichten und Zusammenfassungen
  • State Store: Kurzzeitgedächtnis (weniger als 30 Tage; nicht für die Ausbildung genutzt)
  • Telemetrie- und Feedback-Datenbanken: Bietet Einblicke und Überwachung

Diagramm Copilot Studio RAG-Workflow mit Nachrichtenmoderation, Abfrageoptimierung, Abruf, Zusammenfassung und Überprüfungsschritten.

Funktionsweise von RAG in Copilot Studio

RAG in Copilot Studio folgt einem vierstufigen Prozess:

  1. Abfrageumformulierung
  2. Inhaltsabruf
  3. Zusammenfassung und Antwortgenerierung
  4. Sicherheits- und Governance-Validierung

1. Abfrage-Neuschreibung

Copilot Studio optimiert die Frage des Benutzers vor der Suche:

  • Klärt Bedeutung
  • Fügt kontextbezogene Signale hinzu (letzte 10 Kurven)
  • Verbessert die Schlüsselwortzuordnung
  • Generiert suchfreundliche Anfragen

Dieser Prozess erhöht die Abrufqualität, reduziert irrelevante Ergebnisse.

2. Inhaltsabruf

Nachdem die Abfrage neu geschrieben wurde, läuft das System sie mit allen von dir eingerichteten Wissensquellen aus. Copilot Studio erhält die drei wichtigsten Ergebnisse aus jeder Quelle, wobei die Relevanz mit der Leistung ausgeglichen wird. Das Verhalten jeder Wissensquelle variiert je nach Faktoren wie Authentifizierung, Indexierung, Dateiformaten und Speicherbeschränkungen.

Die folgende Tabelle fasst alle unterstützten Wissensquellen sowie deren Fähigkeiten, Einschränkungen und Authentifizierungsanforderungen zusammen:

Wissensquelle Description Authentifizierung Wichtige Fähigkeiten, Grenzen und Einschränkungen
Öffentliche Daten (Webseiten) Von Bing indexierte Websites Nichts
  • Websites müssen von Bing indexiert werden.
  • Bing kann nicht auf eine Region beschränkt sein.
  • Die Bestätigung des Website-Besitzes führt zu besseren Ergebnissen.
  • Öffentliche Webseiten: Maximal zwei Unterseiten Tiefe (/en/help/), keine direkten Seiten.
  • Benutzerdefinierte Bing-Suche: Eine Konfigurations-ID, die jedoch mit einer Formel festgelegt werden kann, Azure-Kosten, die von Microsoft übernommen werden, bis zu 400 URLs, benutzerdefinierte Bewertungsoptionen, eine maximale Tiefe von zwei Unterseiten (/en/help/), unterstützt direkte Seitenaufrufe.
SharePoint/OneDrive Interne Unternehmensinhalte (nur intern) Microsoft Entra ID delegierte Authentifizierung
  • Erfordert, dass der Benutzer mit Microsoft Entra ID authentifiziert wird, um delegierte Anrufe zu tätigen.
  • Passende Dateien (maximal 15 MB) werden abgerufen, um detaillierte Ausschnitte zusammenzufassen.
  • Sicherheitskürzung: Zurückgegebene Ergebnisse enthalten nur Inhalte, auf die der Nutzer Lesezugriff hat.
  • Das Premium-Feature "Erweiterte Suchergebnisse" verwendet die Mandantenintegration von Microsoft Graph für Nachrichten, Erhöhung der Ergebnisqualität und maximale Dateigröße (200 MB).
Hochgeladene Dateien Dateien, die in den Dataverse-Speicher hochgeladen wurden Nichts
  • Dateien (maximal 512 MB) werden im Dataverse-Dateispeicher gespeichert, mit maximal 500 Dateien pro Agent.
  • Dateien werden in der Dataverse-Suche indexiert und profitieren von Bild-/Tabellenerkennung in PDFs.
  • Standardmäßig enthalten Zitate keinen Link zur Datei, aber dieser Link kann mit Anpassungen hinzugefügt werden.
Dataverse-Tabellen Strukturierte Geschäftsunterlagen (nur intern) Microsoft Entra ID delegierte Authentifizierung
  • Dataverse-Tabellen (maximal 15) können mit Synonymen und einem Glossar konfiguriert werden, um die Suche zu verbessern.
  • Natursprachliche Abfragen werden in analytische Abfragen über strukturierte Daten umgewandelt.
Graphenverbinder In Microsoft Graph indizierte Unternehmens-Apps (nur intern) Microsoft Entra ID delegierte Authentifizierung
  • Erfordert, dass der Benutzer mithilfe von Microsoft Entra ID authentifiziert wird, um delegierte Anrufe zu tätigen.
  • Stellen Sie eine Verbindung mit anderen Unternehmenswissenquellen her, die im Microsoft Graph Index indiziert sind, z. B. ServiceNow KB, Confluence, benutzerdefinierte Unternehmenswebsitedaten und vieles mehr.
  • Das Premium-Feature „Erweiterte Suchergebnisse“ verwendet die auf Mandanten aufsetzende Microsoft Graph-Verankerung.
Echtzeit-Steckverbinder Live-Daten von Systemen wie Salesforce, Zendesk, SQL (nur intern) Der Benutzer muss eingeloggt sein
  • Copilot-Verbinder können strukturierte Daten aus Salesforce, ServiceNow, Zendesk, Azure SQL abrufen.
  • Der eingeloggte Nutzer muss Verbindungen zu den Zielsystemen herstellen.
Azure AI Search Vektorbasierte semantische Suche Konfigurierter Endpunkt
  • Gibt Ergebnisse aus einem verknüpften vektorisierten Azure AI Search Index zurück.
  • Die Verbindung wird nicht delegiert: Keine Sicherheitskürzung, keine Authentifizierungspflicht für den Benutzer.
Benutzerdefinierte Daten Daten, die über APIs, Flows oder benutzerdefinierte Logik bereitgestellt werden Nichts
  • Erfordert einen vorherigen Schritt zur Abfrage der Quelle (zum Beispiel durch Nutzung von Cloud-Flows, Connectors oder HTTP-Anfragen).
  • Ergebnisse werden als Eingaben an die generativen Antworten übermittelt, um eine Antwort für die Anfrage zusammenzufassen.
  • Eingabedaten müssen im Tabellenformat vorliegen, mit drei Eigenschaften: Content (typischerweise Ausschnitte relevanter Inhalte), ContentLocation (optional, typischerweise eine URL) und Title (optional).

3. Zusammenfassung und Antwortgenerierung

  • KI synthetisiert abgerufene Inhalte
  • Verwendet benutzerdefinierte Anweisungen für Ton, Formatierung, Sicherheit oder Kürze
  • Erzeugt Zitate zu den zugrunde liegenden Daten
  • Personalisiert Antworten mithilfe des Benutzerkontexts (wie Sprache, Abteilung oder Region)

4. Sicherheit und Governance-Validierung

Jede Antwort durchläuft automatisierte Validierungsschichten:

  • Moderation schädlicher, bösartiger, nicht konformer oder urheberrechtlich geschützter Antworten
  • Erdungsvalidierung und Entfernung falscher Informationen

Es werden keine Kundendaten zum Trainieren von Sprachmodellen verwendet.

Wichtige Überlegungen bei der Verwendung von RAG

RAG eignet sich am besten für sachliche Fragen und Antworten, nicht für tiefgehende Dokumentenanalyse.

RAG ist ideal für:

  • Fragen aus Wissensbasen beantworten
  • Zusammenfassung von Richtlinien, FAQs und Verfahrensinhalten
  • Abruf spezifischer Fakten aus Dateien oder internen Systemen

RAG ist nicht gedacht für:

  • Vollständiger Dokumentenvergleich
  • Bewertung der Einhaltung von Richtlinien
  • Komplexe schlussfolgernde Prozesse bei umfangreichen, unstrukturierten Dokumenten

Generative KI-Sicherheits- und Compliance-Überlegungen

Generative KI-Features in Microsoft Copilot Studio sind darauf ausgelegt, leistungsstarke Unterhaltungs- und Begründungsfunktionen bereitzustellen und gleichzeitig starke Sicherheits-, Datenschutz- und Compliance-Kontrollen aufrechtzuerhalten.

Foundation-Modelle und Hosting

  • Copilot Studio basiert auf Foundation-Modellen, die OpenAI trainiert.
  • Copilot Studio verwendet eines der neuesten OpenAI-Modelle für generative Antworten.
  • Modelle werden vollständig auf internen Azure AI Foundry-Diensten ausgeführt, die an der Microsoft Services Trust-Grenze ausgerichtet sind.
  • Alle Modellnutzungen entsprechen den Prinzipien und Richtlinien von Microsoft Responsible AI .

Benutzerdefinierte Anweisungen

Maker können individuelle Anweisungen bereitstellen, um das Verhalten von Modellen zu gestalten, den Ton zu beeinflussen oder Formatierungsregeln hinzuzufügen. Diese Anweisungen helfen dabei, die generativen Reaktionen auf die Bedürfnisse der Organisation anzupassen, während sie dennoch Sicherheitsfilter und Compliance-Kontrollen respektieren.

Datenspeicherung und -Verarbeitung

  • Datenspeicherung und -verarbeitung in Copilot Studio kann Daten möglicherweise über regionale Grenzen hinweg verschieben, wenn lokales Modellhosting nicht verfügbar ist.
  • Wenn diese Datenverschiebung nicht zulässig ist, können Administratoren Umgebungseinstellungen verwenden, um bestimmte Features wie Azure Sprachmodelle oder Bing Search zu deaktivieren.
  • Copilot Studio sammelt oder verwendet keine Kundendaten für Schulungssprachenmodelle.

Operationelle Datenverarbeitung

  • Während des Betriebs speichert das System Gespräche vorübergehend in einem gesicherten, von Microsoft betriebenen Store.
  • Der Zugriff autorisierter Microsoft-Mitarbeiter ist über Secure Access Workstations (SAWs) mit Just-In-Time (JIT)-Kontrollen eingeschränkt.
  • Organisationen können den Zugriff zusätzlich über Customer Lockbox kontrollieren, was eine ausdrückliche Genehmigung benötigt, bevor Microsoft-Support-Ingenieure die Daten einsehen können.

Fehlerbehebung der Telemetrie

  • Generative KI-Funktionen erzeugen zusätzliche Fehlerbehebungsdaten, allerdings nur für vom Ersteller initiierte Aktionen im Testbereich, insbesondere wenn der Ersteller einer Antwort einen Daumen hoch oder runter gibt.
  • Außerhalb dieser expliziten Rückmeldungsschleife werden keine zusätzlichen Kundendaten protokolliert.

Missbrauchsüberwachung und Sicherheit

Da bereits mehrere Sicherheitsebenen generative KI-Features schützen, deaktiviert Copilot Studios generative KI Azure KI-Missbrauchsüberwachung um eine weitere Protokollierung von Kundendaten zu vermeiden.