Freigeben über


Karte: Microsoft 365 Copilot

Hinweis

Am 17. Februar 2026 wurden die Informationen im Transparenzhinweis für Microsoft 365 Copilot zu diesem Artikel verschoben, und der Transparenzhinweis wurde eingestellt.

Was ist eine Anwendungs- oder Plattform-Karte?

Die Anwendungs- und Plattformkarten von Microsoft sollen Ihnen helfen, zu verstehen, wie unsere KI-Technologie funktioniert, welche Entscheidungen Anwendungsbesitzer treffen können, die die Leistung und das Verhalten der Anwendung beeinflussen können, und wie wichtig es ist, die gesamte Anwendung zu berücksichtigen, einschließlich der Technologie, der Menschen und der Umgebung. Anwendungskarten werden für KI-Anwendungen und Plattformkarten für KI-Plattformdienste erstellt. Diese Ressourcen können die Entwicklung oder Bereitstellung Ihrer eigenen Anwendungen unterstützen und für Benutzer oder Projektbeteiligte freigegeben werden, die von ihnen betroffen sind.

Im Rahmen seiner Verpflichtung zu verantwortungsvoller KI hält sich Microsoft an sechs Grundprinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusion, Transparenz und Verantwortlichkeit. Diese Prinzipien sind in die verantwortungsvolle KI-Standard eingebettet, die Teams beim Entwerfen, Erstellen und Testen von KI-Anwendungen unterstützt. Anwendungs- und Plattformkarten spielen eine schlüsselrolle bei der Operationalisierung dieser Prinzipien, indem sie Transparenz in Bezug auf Funktionen, beabsichtigte Verwendungen und Einschränkungen bieten. Für weitere Erkenntnisse wird den Lesern empfohlen, den Microsoft-Bericht zur Transparenz verantwortungsvoller KI und entweder den Microsoft Enterprise AI Services Code of Conduct (für Organisationen) oder den Abschnitt Code Conduct ( für Einzelpersonen) zu erkunden, in denen beide beschreiben, wie sie verantwortungsbewusst mit KI umgehen können.

Übersicht

Microsoft 365 Copilot ist ein KI-gestütztes Produktivitätstool, mit dem Sie Ihre Kreativität, Produktivität und Fähigkeiten verbessern können, indem Sie große Sprachmodelle (LLMs) und Inhalte verwenden, auf die Sie Zugriff haben. Es bietet intelligente Unterstützung in Echtzeit durch die Zusammenarbeit mit beliebten Microsoft 365-Apps und -Diensten wie Word, Excel, PowerPoint, Outlook, Teams und mehr.

Beispielsweise können Sie bei der Arbeit Microsoft 365 Copilot eine Teams-Besprechung zusammenfassen, die Sie verpasst haben. Zu Hause können Sie Microsoft 365 Copilot verwenden, um eine Bildschirmpräsentation mit Fotos aus Ihrem Familienurlaub zu generieren.

Weitere Informationen für Organisationen finden Sie unter Microsoft 365 Copilot Übersicht und Microsoft 365 Copilot Hub. Informationen zu Einzelpersonen finden Sie unter Microsoft 365 Copilot Hilfe und Lernen.

Schlüsselbegriffe

Die folgende Tabelle enthält ein Glossar mit Schlüsselbegriffen im Zusammenhang mit Microsoft 365 Copilot.

Ausdruck Beschreibung
Agents Agents wurden entwickelt, um Geschäftsprozesse mithilfe von KI zu automatisieren und auszuführen, basierend auf vordefinierten Anweisungen und dem Zugriff auf Organisationsdaten. Sie können im Namen von Einzelpersonen oder Teams unterstützen oder unabhängig handeln – von einfachen Prompt-and-Response-Interaktionen bis hin zur vollständig autonomen Aufgabenausführung. Weitere Informationen zur Verwendung von KI in Copilot-Agents finden Sie direkt in diesen Angeboten.
Inhalt von Interaktionen Der Begriff, der verwendet wird, um die Eingabeaufforderung des Benutzers und die Antwort Microsoft 365 Copilot auf diese Eingabeaufforderung zu beschreiben.
Angereicherte Eingabeaufforderung Eine Eingabeaufforderung wird erweitert, wenn der Eingabeaufforderung zusätzliche Anweisungen hinzugefügt werden, um Microsoft 365 Copilot beim Generieren einer spezifischeren und relevanteren Antwort zu unterstützen.
Erdung Erdung bezieht sich auf den Prozess der Bereitstellung von Eingabequellen für den LLM im Zusammenhang mit der Eingabeaufforderung. Indem Microsoft 365 Copilot den Zugriff auf Daten ermöglicht, die als Eingabequellen verwendet werden können, z. B. Daten aus Microsoft Graph oder Bing, können Microsoft 365 Copilot benutzern genauere, kontextbezogenere Antworten liefern.
Indizierung Microsoft verwendet sowohl die lexikalische als auch die semantische Indizierung von Microsoft Graph-Daten, um Antworten für Microsoft 365 Copilot in Unternehmensdaten zu erstellen. Die Indizierung interpretiert Eingabeaufforderungen, um kontextrelevante Antworten zu erzeugen.
Großes Sprachmodell (LLM) Große Sprachmodelle (Large Language Models, LLMs) sind in diesem Kontext KI-Modelle, die mit großen Mengen von Textdaten trainiert werden, um Wörter in Sequenzen vorherzusagen. LLMs können eine Vielzahl von Aufgaben ausführen, z. B. Textgenerierung, Zusammenfassung, Übersetzung, Klassifizierung und vieles mehr.
Microsoft Graph Microsoft Graph ist das Gateway zu Daten und Informationen in Microsoft 365. Sie enthält Informationen zu den Beziehungen zwischen Benutzern, Aktivitäten und den Daten einer organization.
Nachbearbeitung Die Verarbeitung Microsoft 365 Copilot erfolgt, nachdem eine Antwort vom LLM empfangen wurde. Diese Nachbearbeitung umfasst zusätzliche Erdungsaufrufe an Microsoft Graph, verantwortungsvolle KI, Sicherheit, Compliance und Datenschutzprüfungen.
Verarbeitung Die Verarbeitung einer Benutzeraufforderung in Microsoft 365 Copilot umfasst mehrere Schritte, einschließlich verantwortungsvoller KI-Überprüfungen, um Microsoft 365 Copilot relevante und umsetzbare Antworten liefert.
Eingabeaufforderung Eine Eingabeaufforderung ist der Text, der an Microsoft 365 Copilot gesendet wird, um eine bestimmte Aufgabe auszuführen oder Informationen bereitzustellen. Beispielsweise kann ein Benutzer die folgende Eingabeaufforderung eingeben: Schreiben Sie eine E-Mail, in der sie meinem Team zum Ende des Geschäftsjahres gratulieren.
Rote Teamtests Techniken, die von Experten verwendet werden, um die Einschränkungen und Sicherheitsrisiken eines Systems zu bewerten und die Wirksamkeit geplanter Risikominderungen zu testen. Rote Teamtests werden verwendet, um potenzielle Risiken zu identifizieren und unterscheiden sich von der systematischen Messung von Risiken.
Antwort Der inhalt, der vom LLM generiert und an Microsoft 365 Copilot als Antwort auf eine Eingabeaufforderung zurückgegeben wird.
Verantwortungsvolle KI Die Richtlinien-, Forschungs- und Ingenieurpraktiken von Microsoft, die auf unseren KI-Prinzipien basieren und durch unseren Standard für verantwortungsvolle KI operationalisiert werden.

Wichtige Features oder Funktionen

Die wichtigsten Features und Funktionen in der folgenden Tabelle beschreiben, worauf Microsoft 365 Copilot ausgelegt ist und wie es über unterstützte Aufgaben hinweg funktioniert.

Feature Beschreibung
Microsoft 365 Copilot in Word Microsoft 365 Copilot in Word transformiert das Schreiben mit Effizienz und Kreativität, sodass Benutzer Dokumente erstellen, zusammenfassen, verstehen, verfeinern und erhöhen können. Benutzer können auch erweiterte Funktionen wie das Visualisieren und Transformieren von Text in eine Tabelle verwenden. Einige andere Funktionen umfassen auch das Hinzufügen zu vorhandenen Eingabeaufforderungen, das Entwerfen eines Dokuments durch Verweisen auf andere Dokumente und das Ermitteln von Informationen zu Dokumenten.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Word.
Microsoft 365 Copilot in PowerPoint Microsoft 365 Copilot in PowerPoint können Benutzer mithilfe von Unternehmensvorlagen eine neue Präsentation aus einer Eingabeaufforderung oder Word Datei erstellen. Das Chatfeature aktiviert Zusammenfassung und Q&A, und mit der einfachen Befehlsfunktion können Benutzer Folien und Bilder hinzufügen oder Überformatänderungen vornehmen. PowerPoint-Dateien können auch zum Erden von Daten verwendet werden.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in PowerPoint.
Microsoft 365 Copilot in Excel Microsoft 365 Copilot in Excel unterstützt Benutzer mit Vorschlägen für Formeln, Diagrammtypen und Erkenntnisse zu Daten in Kalkulationstabellen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Excel.
Microsoft 365 Copilot in Outlook Microsoft 365 Copilot in Outlook hilft ihnen, den E-Mail-Posteingang zu verwalten und eine wirkungsvolle Kommunikation effizienter zu erstellen. Microsoft 365 Copilot in Outlook können einen E-Mail-Thread zusammenfassen, Aktionselemente, Antworten und Nachbesprechungen vorschlagen. Es kann auch Länge und Ton beim Verfassen einer E-Mail anpassen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Outlook.
Microsoft 365 Copilot in Teams Microsoft 365 Copilot in Teams können Unterhaltungen zusammenfassen, wichtige Diskussionspunkte organisieren und wichtige Aktionen zusammenfassen. Benutzer können Antworten auf bestimmte Fragen erhalten und sich über Dinge informieren, die sie in Besprechungen oder Chats verpasst haben.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Microsoft Teams.
Microsoft 365 Copilot in Loop Microsoft 365 Copilot in Loop ermöglicht es Benutzern, Inhalte zu erstellen, die durch direkte Bearbeitung oder Verfeinerung durch Copilot verbessert werden können.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Loop.
Microsoft 365 Copilot im Microsoft Clipchamp Videoplayer Microsoft 365 Copilot im Microsoft Clipchamp Videoplayer hilft, Informationen aus jedem Video mit einem Transkript abzurufen. Microsoft 365 Copilot im Clipchamp Videoplayer können eine Zusammenfassung des Videos bereitstellen, bestimmte Fragen beantworten, schnell zu bestimmten Themen oder Diskussionspunkten springen und Handlungsanrufe identifizieren.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot im Clipchamp Videoplayer.
Microsoft 365 Copilot in Whiteboard Microsoft 365 Copilot in Whiteboard hilft dabei, den Ideenfindungsprozess zu starten, um Ideen zu generieren, zu kategorisieren und zusammenzufassen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Whiteboard.
Microsoft 365 Copilot in OneNote Microsoft 365 Copilot in OneNote können Benutzer Pläne entwerfen, Ideen generieren, Listen erstellen und Informationen organisieren, die ihnen helfen, in der OneNote-App das zu finden, was sie benötigen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in OneNote.
Microsoft 365 Copilot in Microsoft Forms Microsoft 365 Copilot in Microsoft Forms bietet KI-gestützte Unterstützung bei Umfragen, Quizfragen und Umfragen. Copilot kann Benutzern dabei helfen, Ergebnisse zu entwerfen, zu überprüfen, zu senden und zu analysieren.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in Forms.
Microsoft 365 Copilot Chat Microsoft 365 Copilot Chat (früher als Geschäftschat bezeichnet) kombiniert die Leistungsfähigkeit von großen Sprachmodellen mit dem Internet, arbeitsbezogenen Inhalten und Kontexten und anderen Apps, um Benutzern bei der Entwurf von Inhalten zu helfen, sich über fehlende Informationen zu informieren und Antworten auf Fragen über Eingabeaufforderungen zu erhalten.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Microsoft 365 Copilot Chat.
Microsoft 365 Copilot im Rich-Text-Editor für SharePoint Microsoft 365 Copilot im Rich-Text-Editor von Microsoft SharePoint vereinfacht die Erstellung von Inhalten auf SharePoint-Seiten und -Beiträgen. Mit Copilot können Sie Text umschreiben, den Ton anpassen, Informationen verdichten und ideenverarbeiten.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in SharePoint.
Microsoft 365 Copilot in OneDrive Microsoft 365 Copilot in OneDrive ist ein innovatives KI-gestütztes Assistent, das Sie bei der Interaktion mit Ihren Dokumenten unterstützt, indem Sie Informationen extrahieren, die wichtigsten Unterschiede vergleichen, Dateien zusammenfassen und Erkenntnisse generieren.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot in OneDrive.
Microsoft 365 Copilot Blickkarten Blickkarten bieten eine schnelle Vorschau von Arbeitsentitäten, z. B. Dokumenten, um die Relevanz oder den Rückruf zu bewerten. Auf sie wird zugegriffen, indem Sie auf der Registerkarte Suchen der Microsoft 365 Copilot-App auf Dateien zeigen.
Power Platform-Connectors Power Platform Connectors ermöglichen Kunden den Zugriff auf Daten aus einer Sammlung von geschäftlichen und persönlichen Produktivitätsanwendungen in der Microsoft 365 Copilot Erfahrung.
Microsoft 365 Copilot-Connectors mit Microsoft 365 Copilot Connectors können Sie Ihre unstrukturierten Branchendaten in Microsoft Graph erfassen, sodass Microsoft 365 Copilot ihre gesamten Unternehmensinhalte berücksichtigen können.

Weitere Informationen finden Sie unter Übersicht über Microsoft 365 Copilot Connectors.
Microsoft Purview Microsoft Purview ist eine Lösung, die Organisationen dabei unterstützt, ihre Daten zu verwalten und zu schützen. Es bietet eine einheitliche Plattform für Datengovernance, Informationsschutz, Risikomanagement und Compliance. Kunden können die Microsoft Purview-Funktionen von Microsoft-Abonnements (z. B. Microsoft 365 E3- oder E5-Abonnements) auf Microsoft 365 Copilot Daten und Interaktionen erweitern.
Microsoft 365 Copilot Tuning Microsoft 365 Copilot Tuning ermöglicht Es Organisationen, große Sprachmodelle (LLMs) mithilfe ihrer eigenen Mandantendaten zu optimieren. Diese Modelle können verwendet werden, um domänenspezifische Aufgaben basierend auf dem einzigartigen Wissen der organization auszuführen.

Weitere Informationen finden Sie unter Häufig gestellte Fragen zu Copilot Tuning.
Microsoft Copilot Studio Microsoft Copilot Studio ist eine leistungsstarke Plattform zum Erstellen sicherer, skalierbarer und intelligenter Agents, die in Microsoft 365- und Branchensystemen funktionieren.

Weitere Informationen finden Sie unter Copilot Studio Übersicht.
Agent Builder-Feature in Microsoft 365 Copilot Das Feature Agent Builder in Microsoft 365 Copilot bietet eine einfache Schnittstelle, mit der Sie schnell und einfach deklarative Agents erstellen können, entweder in natürlicher Sprache oder manuell.

Weitere Informationen finden Sie unter Agent Builder in Microsoft 365 Copilot.
Microsoft 365 Copilot mit computerbasiertem Agent Microsoft 365 Copilot mit computerbasiertem Agent können Sie Browser- oder Desktopaufgaben automatisieren, sodass Ihre Eingabeaufforderungen mehr Von Ihren Inhalten und Kontexten nutzen können. Da der Agent Aufgaben in Ihrem Namen ausführen kann, kann ein erhöhtes Risiko für die Systemsicherheit oder den Datenschutz bestehen. Um dieses Risiko zu verringern, verfügt der Agent über mehrere Sicherheitsvorkehrungen, darunter modellgesteuerte Sicherheitsüberprüfungen für Inhalte und Aktionen sowie Mandantenadministratorsteuerelemente, die den computerbasierten Agent aktivieren oder deaktivieren und einschränken, auf welche Websites und Domänen der Agent zugreifen kann. Es wird empfohlen, diese Kontrollen anzuwenden und die Nutzung des Agents zu bewerten.

Erweiterbarkeit und Anpassung

Das Agent Builder-Feature in Microsoft 365 Copilot und Copilot Studio sind Tools zum Erstellen sicherer, skalierbarer und intelligenter Agents, die über Microsoft 365- und Branchensysteme hinweg funktionieren. Beide Tools ermöglichen es Ihnen, Agents zu erstellen, aber sie erfüllen unterschiedliche Anforderungen. Verwenden Sie das Feature Agent Builder, wenn Sie schnell einen Agent für sich selbst oder ein kleines Team erstellen möchten, indem Sie natürliche Sprache und vorhandene Inhalte verwenden. Wählen Sie Copilot Studio aus, wenn Sie einen Agent für eine breitere Zielgruppe benötigen oder wenn der Agent erweiterte Funktionen wie mehrstufige Workflows oder benutzerdefinierte Integrationen erfordert. Weitere Informationen finden Sie unter Auswählen zwischen Microsoft 365 Copilot und Copilot Studio zum Erstellen Ihres Agents und deklarativer Agents für Microsoft 365 Copilot.

Für Entwickler bietet das Microsoft 365 Agents SDK tools zum Erstellen von Agents, die eng mit Microsoft 365-Apps und -Diensten zusammenarbeiten.

Beabsichtigte Verwendung

Microsoft 365 Copilot können in mehreren Szenarien in einer Vielzahl von Branchen verwendet werden. Beispiele für Anwendungsfälle sind:

  • Chat- und Konversationsinteraktion und -erstellung: Benutzer können mit Microsoft 365 Copilot Chat interagieren und Antworten generieren, die aus vertrauenswürdigen Dokumenten wie interner Unternehmensdokumentation oder Dokumentation des technischen Supports stammen.
  • Suche: Benutzer können vertrauenswürdige Quelldokumente durchsuchen, z. B. interne Unternehmensdokumentationen.
  • Verdichtung: Benutzer können Inhalte übermitteln, die für vordefinierte Themen zusammengefasst werden, die in die Anwendung integriert sind. Beispiele hierfür sind die Zusammenfassung von Teams-Chats, E-Mails, Webseiten und Word Dokumenten.
  • Unterstützung beim Schreiben zu bestimmten Themen: Benutzer können neue Inhalte erstellen oder inhalte neu schreiben, die vom Benutzer als Schreibhilfe für Geschäftsinhalte oder vordefinierte Themen übermittelt wurden. Beispiel: Verfassen von E-Mails in Microsoft Outlook oder Schreiben von Inhalten in Microsoft Word.
  • Beschriftung oder Transkription: Benutzer können Audiodateien in Text transkribieren, um natürliche Sprache zu verstehen oder Analyseaufgaben wie zusammenfassungen zu ermöglichen. Beispiele hierfür sind Teams-Besprechungstranskripte und Videos im Microsoft Clipchamp Videoplayer.

Microsoft bietet detaillierte Anleitungen, die sich auf gängige Anwendungsfälle und Szenarien konzentrieren, damit Kunden die Einführung von Microsoft 365 Copilot-Funktionen in ihren Organisationen beschleunigen können. Weitere Informationen finden Sie unter Microsoft Scenario Library – Microsoft Adoption.

Modelle und Trainingsdaten

Microsoft 365 Copilot nutzt eine Vielzahl von KI-Modellen, um die Benutzerfreundlichkeit zu verbessern. Beispiele hierfür sind die von Azure OpenAI bereitgestellten Generative Pre-Trained Transformers (GPT) von OpenAI, z. B. Modelle der GpT-4- und GPT-5-Serie, und die Claude Opus 4.5 und Claude Sonnet 4.5 von Anthropic. Weitere Informationen zu den Daten, die zum Trainieren der Modelle hinter Microsoft 365 Copilot verwendet werden, finden Sie in den verknüpften Modellkarten, um die relevanten Datenzusammenfassungskarten zu finden.

Microsoft 365 Copilot verwendet eine Kombination aus LLMs, die von Azure OpenAI Service und Anthropic bereitgestellt werden, um Inhalte zusammenzufassen, vorherzusagen und zu generieren. Auf diese Weise können wir die spezifischen Anforderungen der einzelnen Features – z. B. Geschwindigkeit, Kreativität – auf das richtige Modell abstimmen, sodass Microsoft 365 Copilot intelligente Unterstützung in Echtzeit bereitstellen können, die es Benutzern ermöglicht, ihre Kreativität, Produktivität und Fähigkeiten zu verbessern. Weitere Informationen zu den LLMs, die Microsoft von OpenAI zur Verfügung gestellt werden, finden Sie in der öffentlichen Dokumentation unter Models – OpenAI API.

Leistung

In vielen KI-Systemen wird die Leistung häufig in Bezug auf die Genauigkeit definiert, d. h., wie oft das KI-System eine richtige Vorhersage oder Ausgabe bietet. Mit Microsoft 365 Copilot können zwei verschiedene Benutzer die gleiche Ausgabe betrachten und unterschiedliche Meinungen darüber haben, wie nützlich oder relevant sie ist, was bedeutet, dass die Leistung für diese Systeme flexibler definiert werden muss. Wir betrachten leistung im Allgemeinen so, dass die Anwendung die von den Benutzern erwartete Leistung bietet.

Funktionsweise von Microsoft 365 Copilot

  • Microsoft 365 Copilot empfängt eine Eingabeaufforderung von einem Benutzer in einer App, z. B. Word oder PowerPoint. Eine Liste der unterstützten Sprachen finden Sie unter Unterstützte Sprachen für Microsoft 365 Copilot.
  • Microsoft 365 Copilot verarbeitet dann die Eingabeaufforderung, wodurch die Spezifität der Eingabeaufforderung verbessert wird, um dem Benutzer zu helfen, Antworten zu erhalten, die für seine spezifische Aufgabe relevant und umsetzbar sind. Die Eingabeaufforderung kann Text aus Eingabedateien oder anderen Inhalten enthalten, die von Microsoft 365 Copilot mithilfe von Microsoft Graph erkannt wurden, und Microsoft 365 Copilot diese Aufforderung zur Verarbeitung an den LLM sendet. Microsoft 365 Copilot nur auf Daten zu, auf die ein einzelner Benutzer bereits Zugriff hat, z. B. basierend auf vorhandenen rollenbasierten Microsoft 365-Zugriffssteuerungen.
  • Microsoft 365 Copilot nimmt die Antwort des LLM und verarbeitet sie nach. Diese Nachbearbeitung umfasst andere Erdungsaufrufe an Microsoft Graph, verantwortungsvolle KI-Überprüfungen wie Inhaltsklassifizierer, Sicherheits-, Compliance- und Datenschutzprüfungen und Befehlsgenerierung.
  • Microsoft 365 Copilot gibt die Antwort an die App zurück, in der der Benutzer die Antwort überprüfen und bewerten kann.

Die Daten werden verschlüsselt, während sie gespeichert werden, und werden nicht zum Trainieren von anthropischen oder Azure OpenAI Service Foundation LLMs verwendet, einschließlich der von Microsoft 365 Copilot verwendeten. Weitere Informationen hierzu finden Sie unter Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot.

Wie Microsoft 365 Copilot Antworten ohne Webinhalte oder Organisationsdaten generiert

Microsoft 365 Copilot erfordert keine Webinhalte oder Organisationsdaten, um eine Antwort bereitzustellen, aber diese Informationen können dazu beitragen, die Qualität, Genauigkeit und Relevanz der Antwort zu verbessern. Wenn Microsoft 365 Copilot ohne Web- oder Organisationsdaten reagiert, basiert Microsoft 365 Copilot nur auf seinen LLMs, um Eingabeaufforderungen zu verstehen und Antworten zu generieren. Der Prozess umfasst die Analyse der Eingabe, die Nutzung der internen Wissensdatenbank des Modells und das Verfeinern der Antwort, um sie kontextbezogen angemessen zu gestalten.

Begrenzungen

Das Verständnis der Einschränkungen von Microsoft 365 Copilot ist entscheidend, um zu bestimmen, ob es innerhalb sicherer und effektiver Grenzen verwendet wird. Während wir Kunden ermutigen, Microsoft 365 Copilot in ihren innovativen Lösungen oder Anwendungen zu nutzen, ist es wichtig zu beachten, dass Microsoft 365 Copilot nicht für jedes mögliche Szenario konzipiert wurde. Wir empfehlen Benutzern, sich entweder auf den Microsoft Enterprise AI Services Code of Conduct (für Organisationen) oder den Abschnitt Code Conduct im Microsoft-Servicevertrag (für Einzelpersonen) sowie auf die folgenden Überlegungen zu beziehen, wenn sie einen Anwendungsfall auswählen:

  • Kompatibilität: Während Microsoft 365 Copilot für die nahtlose Zusammenarbeit mit Microsoft 365-Anwendungen konzipiert ist, kann es einschränkungen oder Probleme mit der Kompatibilität in bestimmten Umgebungen geben, insbesondere bei Apps von Drittanbietern (nicht von Microsoft) und benutzerdefinierten oder nicht standardmäßigen Konfigurationen.

  • Anpassung und Flexibilität: Während Microsoft 365 Copilot angepasst werden können, gibt es Einschränkungen hinsichtlich des Umfangs, der an bestimmte Organisationsanforderungen oder Workflows angepasst werden kann. Organisationen können feststellen, dass bestimmte Features oder Antworten starr sind oder nicht vollständig auf die Anforderungen der Organisation abgestimmt sind.

  • Abhängigkeit von internetkonnektivität: Microsoft 365 Copilot ist auf internetkonnektivität angewiesen, um zu funktionieren. Jede Unterbrechung der Konnektivität kann sich auf die Verfügbarkeit und Leistung des Diensts auswirken.

  • Benutzerschulung und -einführung: Die effektive Verwendung von Microsoft 365 Copilot erfordert, dass Benutzer ihre Funktionen und Einschränkungen verstehen. Es kann eine Lernkurve geben, und Benutzer müssen geschult werden, um effektiv mit dem Dienst zu interagieren und davon zu profitieren.

  • Ressourcenintensität: Die Ausführung erweiterter KI-Modelle erfordert erhebliche Rechenressourcen, die sich insbesondere in Umgebungen mit Ressourceneinschränkung auf die Leistung auswirken können. Bei Benutzern können während spitzen Nutzungszeiten Latenz- oder Leistungsprobleme auftreten.

  • Voreingenommenheit, Stereotypisierung und nicht geerdeter Inhalt: Trotz intensiver Schulung durch OpenAI und Anthropic und der Implementierung verantwortungsvoller KI-Steuerungen durch Microsoft für Benutzereingabeaufforderungen und LLM-Ausgaben sind KI-Dienste fehlbar und probabilistisch. Dies macht es schwierig, alle unangemessenen Inhalte umfassend zu blockieren, was zu potenziellen Voreingenommenheiten, Stereotypen oder Unermesslichkeiten in KI-generierten Inhalten führt. Weitere Informationen zu den bekannten Einschränkungen von KI-generierten Inhalten finden Sie im Transparenzhinweis für Azure OpenAI, der Verweise auf die LLMs hinter Microsoft 365 Copilot enthält. Weitere Informationen zu den bekannten Einschränkungen von KI-generierten Inhalten aus anthropischen Modellen finden Sie unter System Card: Claude Sonnet 4.5.

  • Unterstützte Sprachen: Derzeit unterstützt Microsoft 365 Copilot weniger Sprachen als Microsoft 365. Wenn die Sprache, die Sie in Ihrer Eingabeaufforderung verwenden oder anfordern, derzeit nicht unterstützt wird, erhalten Sie eine Fehlermeldung. Weitere Informationen finden Sie unter Unterstützte Sprachen für Microsoft 365 Copilot.

  • Potenzielle erhebliche physische oder psychische Verletzungen für eine Person. Vermeiden Sie die Verwendung oder den Missbrauch des Systems, die zu erheblichen körperlichen oder psychischen Verletzungen einer Person führen könnten. Szenarien, die Patienten diagnostizieren oder Medikamente verschreiben, können beispielsweise erhebliche Schäden verursachen.

  • Folgewirkungen auf Lebenschancen oder rechtliche status. Vermeiden Sie die Verwendung oder den Missbrauch des Systems, die sich auf Lebenschancen oder rechtliche status auswirken könnten. Beispiele hierfür sind Szenarien, in denen sich das KI-System auf die rechtlichen status, die gesetzlichen Rechte oder den Zugang zu Krediten, Bildung, Beschäftigung, Gesundheitsversorgung, Wohnen, Versicherungen, Sozialleistungen, Dienstleistungen, Möglichkeiten oder den Bedingungen auswirken kann, zu denen sie bereitgestellt werden.

  • Domänen oder Branchen mit hohem Einsatz. Berücksichtigen Sie anwendungsfälle in Domänen oder Branchen mit hohem Einsatz sorgfältig. Beispiele sind unter anderem medizinische oder finanzielle.

Bewertungen

Leistungs- und Sicherheitsbewertungen bewerten, ob KI-Anwendungen zuverlässig und sicher funktionieren, indem Faktoren wie Grundhaftigkeit, Relevanz und Kohärenz untersucht und gleichzeitig die Risiken der Generierung schädlicher Inhalte identifiziert werden. Die folgenden Bewertungen wurden mit bereits vorhandenen Sicherheitskomponenten durchgeführt, die auch unter Sicherheitskomponenten und Entschärfungen beschrieben werden.

Leistungs- und Qualitätsbewertungen

Leistungsbewertungen für KI-Anwendungen sind unerlässlich, um deren Zuverlässigkeit in realen Anwendungen zu verbessern. Metriken wie Antwortrelevanz, Genauigkeit und Bodengenauigkeit helfen bei der Bewertung der Genauigkeit und Konsistenz von KI-generierten Ausgaben, sodass sie in geerdeten Inhaltsszenarien sachlich unterstützt werden, kontextbezogen angemessen und logisch strukturiert sind. Für Microsoft 365 Copilot führen wir regelmäßig strenge Qualitätsbewertungen für mehrere Metriken wie Relevanz, Genauigkeit und Bodenbeschaffenheit durch.

Methoden zur Leistungs- und Qualitätsbewertung

Microsoft 365 Copilot wurde mithilfe von text- und bildbasierten Szenarien ausgewertet, die widerspiegeln, wie Benutzer in Microsoft 365-Apps arbeiten. Auswertungen für Metriken wie Bodenbeschaffenheit, Antwortqualität und Zitatrelevanz verwendeten etablierte LLM-as-judge-Methoden. Offline-Testsätze umfassten Faktenabfragen, Mehrdokumentverständnis, Zusammenfassung und repräsentative Unternehmensszenarien. Die Bewerter bewerteten, ob Antworten sachlich unterstützt, kontextbezogen angemessen und logisch strukturiert waren. Ideale Ergebnisse spiegeln genaue Erdung, klares Denken und konsistente Leistung in Variationen derselben Aufgabe wider. Zu den suboptimalen Ergebnissen gehören nicht unterstützte Ansprüche, fehlende oder irrelevante Zitate oder inkonsistente Ausgaben unter ähnlichen Eingabeaufforderungen.

Risiko- und Sicherheitsbewertungen

Die Bewertung potenzieller Risiken im Zusammenhang mit KI-generierten Inhalten ist für den Schutz vor Inhaltsrisiken mit unterschiedlichem Schweregrad unerlässlich. Dies umfasst die Bewertung der Veranlagung eines KI-Systems zur Generierung schädlicher Inhalte oder das Testen auf Sicherheitsrisiken für Jailbreak-Angriffe. Für Microsoft 365 Copilot sind einige der Von uns durchgeführten Risiko- und Sicherheitsbewertungen aufgeführt:

  • Hass und Unfairness
  • Sexuelle
  • Gewalt
  • Selbstverletzung
  • Geschütztes Material
  • Indirekter Jailbreak
  • Direkter Jailbreak
  • Sicherheitsrisiko im Code
  • Nicht geerdete Attribute

Risiko- und Sicherheitsbewertungsmethoden

Bei Risiko- und Sicherheitsbewertungen wurden textbasierte Angreiferaufforderungen und automatisierte Klassifizierer verwendet, um potenzielle Schäden wie Hass, sexuelle Inhalte, Gewalt, Selbstverletzung, geschütztes Material, Jailbreakversuche und nicht begründete Attribute zu bewerten. Tests kombinierten LLM-Richterauswertungen mit klassifiziererbasierter Erkennung und bei Bedarf manuellen Tests. Ideale Ergebnisse leiten unsichere Anforderungen um oder lehnen sie ab und sorgen für eine konsistente Begrenzungshaltung über Promptvariationen hinweg. Zu den suboptimalen Ergebnissen gehören das Erstellen schädlicher Inhalte, die inkonsistente Reaktion auf angreiferische Eingaben oder das Anfälligkeitsmerken für Jailbreak-Techniken.

Sicherheitskomponenten und Entschärfungen

Da wir potenzielle Risiken und Missbrauch durch Prozesse wie Red Team Testing identifiziert und gemessen haben, entwickelten wir Entschärfungen, um das Schadenspotenzial zu reduzieren. In der folgenden Liste werden einige dieser Entschärfungen beschrieben. Wir werden weiterhin die Microsoft 365 Copilot Erfahrungen auswerten, um die Produktleistung und Risikominderungen zu verbessern.

  • Stufenweise Freigabe, kontinuierliche Auswertung. Wir sind bestrebt, unseren verantwortungsvollen KI-Ansatz kontinuierlich zu lernen und zu verbessern, wenn sich unsere Technologien und unser Benutzerverhalten weiterentwickeln. Wir nehmen regelmäßig Änderungen an Microsoft 365 Copilot vor, um die Produktleistung zu verbessern, vorhandene Risikominderungen zu verbessern und als Reaktion auf unsere Erkenntnisse neue Risikominderungen zu implementieren.

  • Erdung in Geschäftsdaten. Ein bekanntes Risiko bei großen Sprachmodellen ist ihre Fähigkeit, nicht geerdeten Inhalt zu generieren– Inhalte, die korrekt erscheinen, aber nicht in Quellmaterialien vorhanden sind. Eine wichtige Entschärfung in Microsoft 365 Copilot besteht darin, KI-generierte Inhalte in relevanten Geschäftsdaten zu erfassen, auf die der Benutzer basierend auf seinen Berechtigungen Zugriff hat. Basierend auf der Eingabeaufforderung wird Microsoft 365 Copilot beispielsweise mit relevanten Geschäftsdokumenten bereitgestellt, um seine Antwort in diesen Dokumenten zu stützen. Bei der Zusammenfassung von Inhalten aus verschiedenen Quellen können Microsoft 365 Copilot jedoch Informationen in der Antwort enthalten, die in ihren Eingabequellen nicht vorhanden sind. Mit anderen Worten, es kann zu nicht geerdeten Ergebnissen führen. Benutzer sollten bei der Verwendung von Ausgaben von Microsoft 365 Copilot immer vorsichtig sein und ihr bestes Urteilsvermögen verwenden. Wir haben mehrere Maßnahmen ergriffen, um das Risiko zu verringern, dass Benutzer sich zu stark auf nicht durch KI generierte Inhalte verlassen können. Antworten in Microsoft 365 Copilot, die auf Geschäftsdokumenten basieren, enthalten nach Möglichkeit Verweise auf die Quellen, damit Benutzer die Antwort überprüfen und mehr erfahren können. Benutzern wird auch explizit mitgeteilt, dass sie mit einem KI-System interagieren, und es wird empfohlen, die Quellmaterialien zu überprüfen, damit sie ihr bestes Urteilsvermögen verwenden können.

  • KI-basierte Klassifizierer und Metaprompting zur Minimierung potenzieller Risiken oder Missbrauch. Die Verwendung von LLMs kann problematische Inhalte erzeugen, die zu Schäden führen können. Beispiele hierfür sind Ausgaben im Zusammenhang mit Selbstverletzung, Gewalt, grafischen Inhalten, Biosicherheitsproblemen, geschütztem Material, ungenauen Informationen, hasserfüllten Äußerungen oder Text, der sich auf illegale Aktivitäten beziehen könnte. Klassifizierer, wie sie in Azure AI Content Safety und Metaprompting verfügbar sind, sind zwei Beispiele für Entschärfungen, die in Microsoft 365 Copilot implementiert wurden, um das Risiko dieser Arten von Inhalten zu verringern. Klassifizierer klassifizieren Text, um verschiedene Arten potenziell schädlicher Inhalte in Eingabeaufforderungen oder generierten Antworten zu kennzeichnen. Microsoft 365 Copilot verwendet KI-basierte Klassifizierer und Inhaltsfilter. Flags führen zu potenziellen Gegenmaßnahmen, z. B. dass keine generierten Inhalte an den Benutzer zurückgegeben werden oder der Benutzer zu einem anderen Thema umgeleitet wird. Microsoft bietet bestimmte Steuerelemente zum Filtern von Inhalten für Administratoren und Benutzer, bei denen das Filtern von potenziell schädlichen oder vertraulichen Inhalten in Microsoft 365 Copilot Chat ihren Anforderungen nicht entspricht. Metaprompting umfasst die Bereitstellung von Anweisungen für das Modell, um sein Verhalten zu steuern, einschließlich, damit sich das System in Übereinstimmung mit den KI-Prinzipien von Microsoft und den Erwartungen der Benutzer verhält. Der Metaprompt kann z. B. eine Zeile wie "Kommunikation in der Sprache der Wahl des Benutzers" enthalten.

  • Aufforderungsanreicherung. In einigen Fällen kann die Eingabeaufforderung eines Benutzers mehrdeutig sein. In diesem Fall können Microsoft 365 Copilot die LLM verwenden, um weitere Details in der Eingabeaufforderung zu erstellen, um sicherzustellen, dass Benutzer die gesuchte Antwort erhalten. Eine solche Prompt-Anreicherung basiert nicht auf dem Wissen des Benutzers oder seiner vorherigen Suchvorgänge, sondern auf dem LLM.

  • Benutzerzentrierter Entwurf und Eingriffe in die Benutzerfreundlichkeit. Benutzerzentriertes Design und Benutzeroberflächen sind ein wesentlicher Aspekt des Microsoft-Ansatzes für verantwortungsvolle KI. Ziel ist es, das Produktdesign in den Bedürfnissen und Erwartungen der Benutzer zu verwurzeln. Da Benutzer zum ersten Mal mit Microsoft 365 Copilot interagieren, bieten wir verschiedene Touchpoints an, die ihnen helfen sollen, die Funktionen des Systems zu verstehen, ihnen mitzuteilen, dass Microsoft 365 Copilot von KI unterstützt wird, und um Einschränkungen zu kommunizieren.

  • KI-Offenlegung. Microsoft 365 Copilot bietet mehrere Touchpoints für eine aussagekräftige KI-Offenlegung, bei der Benutzer benachrichtigt werden, dass sie mit einem KI-System interagieren, sowie Möglichkeiten, mehr über Microsoft 365 Copilot zu erfahren. Wenn Sie beispielsweise Microsoft 365 Copilot in der Word-App verwenden, werden KI-generierte Inhalte zusammen mit dem Hinweis angezeigt, dass KI-generierte Inhalte Fehler enthalten können. Die Unterstützung von Benutzern mit diesem Wissen kann ihnen helfen, sich nicht übermäßig auf KI-generierte Ausgaben zu verlassen und sich über die Stärken und Einschränkungen des Systems zu informieren.

  • Medien provenienz. Für alle Bilder, die mit den Bearbeitungsfunktionen von Designer aus Microsoft 365 Copilot erstellt wurden, haben wir Inhaltsanmeldeinformationen implementiert, die auf dem C2PA-Standard basieren, um Personen zu helfen, zu erkennen, ob Bilder mit KI bearbeitet oder generiert wurden. Provenienzmetadaten können auf der Website mit den Inhaltsanmeldeinformationen angezeigt werden.

  • Feedback und laufende Auswertung. Die Microsoft 365 Copilot-Erfahrung baut auf vorhandenen Tools auf, mit denen Benutzer Feedback zu unseren Produkten übermitteln können. Benutzer können Feedback zu Inhalten übermitteln, die von Microsoft 365 Copilot generiert wurden, indem sie den Bereich verwenden, der nach dem Auswählen der Schaltflächen "Daumen nach oben" oder "Daumen nach unten" in Antworten angezeigt wird. Feedback von Benutzern wird verwendet, um unsere Angebote im Rahmen unserer Verpflichtung zur Verbesserung der Produktleistung zu verbessern. Kundenadministratoren können das im Microsoft 365 Admin Center übermittelte Feedback überprüfen. Im Rahmen unserer kontinuierlichen Bewertung und Verbesserung des Dienstes verbessern und testen wir auch die Leistung von Microsoft 365 Copilot und spezifischen Risikominderungen. Weitere Informationen finden Sie unter Bereitstellen von Feedback zu Microsoft Copilot mit Microsoft 365-Apps.

Unser Ansatz zum Zuordnen, Messen und Verwalten von Risiken wird sich weiterentwickeln, wenn wir mehr erfahren, und wir nehmen bereits Verbesserungen auf der Grundlage von Feedback vor, das wir von Kunden erhalten haben.

Bewährte Methoden für die Bereitstellung und Einführung von Microsoft 365 Copilot

Verantwortungsvolle KI ist eine gemeinsame Verpflichtung von Microsoft und seinen Kunden. Während Microsoft KI-Systeme mit Sicherheit, Fairness und Transparenz im Kern erstellt, spielen Kunden eine wichtige Rolle bei der Bereitstellung und Verwendung dieser Technologien in ihren eigenen Kontexten. Um diese Partnerschaft zu unterstützen, bieten wir die folgenden bewährten Methoden für Bereitstellungen und Endbenutzer an, um Kunden bei der effektiven Implementierung verantwortungsvoller KI zu unterstützen.

Bereitstellungs- und Endbenutzer sollten:

  • Seien Sie vorsichtig, und bewerten Sie die Ergebnisse, wenn Sie Microsoft 365 Copilot für Folgeentscheidungen oder in sensiblen Bereichen verwenden: Folgeentscheidungen können rechtliche oder erhebliche Auswirkungen auf den Zugang einer Person zu Bildung, Beschäftigung, Finanzdienstleistungen, staatlichen Leistungen, Gesundheitsleistungen, Wohnungen, Versicherungen, juristischen Dienstleistungen haben oder die zu physischen, psychischen oder finanziellen Schäden führen können. Sensible Bereiche wie Finanzdienstleistungen, Gesundheitswesen und Wohnungswesen erfordern aufgrund der möglichen unverhältnismäßigen Auswirkungen auf verschiedene Personengruppen besondere Sorgfalt. Wenn Sie KI für Entscheidungen in diesen Bereichen verwenden, stellen Sie sicher, dass betroffene Beteiligte verstehen, wie Entscheidungen getroffen werden, Beschwerdeentscheidungen treffen und alle relevanten Eingabedaten aktualisieren können.

  • Bewerten sie rechtliche und regulatorische Überlegungen: Kunden müssen potenzielle spezifische rechtliche und regulatorische Verpflichtungen bei der Verwendung von KI-Diensten und -Lösungen bewerten, die möglicherweise nicht für die Verwendung in jeder Branche oder in jedem Szenario geeignet sind. Darüber hinaus sind KI-Dienste oder -Lösungen nicht für und dürfen nicht in einer Weise verwendet werden, die in den geltenden Nutzungsbedingungen und relevanten Verhaltensregeln verboten ist.

  • Verweise auf Webinhalte zulassen. Wenn Microsoft 365 Copilot auf Webinhalte verweisen können, kann dies die Qualität, Genauigkeit und Relevanz Microsoft 365 Copilot Antworten verbessern, bei denen eine Antwort von aktuellen, öffentlichen Informationen aus dem Web profitieren würde. Beachten Sie jedoch, dass Microsoft 365 Copilot, wenn Microsoft 365 Copilot auf Webinhalte verweist, dies über den Bing-Suche-Dienst erfolgt, und die Datenverarbeitungsmethoden für Bing-Suche Abfragen unterscheiden sich von der Verarbeitung von Daten durch Microsoft 365 Copilot. Die Verwendung von Bing ist durch den Microsoft-Servicevertrag zwischen jedem Benutzer und Microsoft sowie durch die Microsoft-Datenschutzerklärung abgedeckt.

  • Erweitern der Erdung in Microsoft Graph Microsoft 365 Copilot verwendet Daten aus Microsoft Graph, um Antworten in organization spezifischen Daten wie E-Mails, Chats, Dateien und Kalendern zu erstellen. Durch die Erweiterung von Microsoft Graph mit Organisationsdaten aus Quellen wie CRM-Systemen oder externen Dateirepositorys können Organisationen zusätzliche kontextspezifische, relevante Informationen enthalten, die die Fülle und Genauigkeit der Microsoft 365 Copilot Antworten weiter verbessern.

Endbenutzer sollten:

Um die Leistung in Bezug auf die Genauigkeit Microsoft 365 Copilot Ausgabe zu verbessern, empfehlen wir Organisationen Folgendes zu berücksichtigen:

  • Schreiben Sie gute Eingabeaufforderungen. Das Schreiben guter Eingabeaufforderungen ist der Schlüssel, um mit Microsoft 365 Copilot bessere Ergebnisse zu erzielen. Genau wie es Techniken gibt, mit denen Menschen effektiv mit einem Menschen kommunizieren können, gibt es Richtlinien, die Benutzern helfen können, bessere Ergebnisse mit Microsoft 365 Copilot beim Schreiben von Eingabeaufforderungen zu erzielen. Beispiel: Schließen Sie Details ein, strukturieren Sie Eingabeaufforderungen, geben Sie positive Anweisungen an, durchlaufen sie und generieren Sie sie erneut, und überprüfen Sie immer KI-generierte Antworten. Weitere Informationen finden Sie unter Abrufen besserer Ergebnisse mit Copilot-Eingabeaufforderungen.

  • Führen Sie ggf. eine menschliche Aufsicht aus: Die menschliche Aufsicht ist ein wichtiger Schutz bei der Interaktion mit KI-Systemen. Während wir unsere KI-Systeme kontinuierlich verbessern, kann ki dennoch Fehler machen. Die generierten Ausgaben können ungenau, unvollständig, voreingenommen, falsch ausgerichtet oder irrelevant für Ihre beabsichtigten Ziele sein. Dies kann verschiedene Gründe haben, z. B. Mehrdeutigkeit in den Eingaben oder Einschränkungen der zugrunde liegenden Modelle. Daher sollten Benutzer die von Microsoft 365 Copilot generierten Antworten überprüfen und überprüfen, ob sie ihren Erwartungen und Anforderungen entsprechen.

  • Seien Sie sich des Risikos einer Überzulässigkeit bewusst: Überzulässigkeit bei KI tritt auf, wenn Benutzer falsche oder unvollständige KI-Ausgaben akzeptieren, hauptsächlich weil Fehler in KI-Ausgaben möglicherweise schwer zu erkennen sind. Für den Endbenutzer kann eine Überzuverlässigkeit unter anderem zu verminderter Produktivität, Vertrauensverlust, Produktabbruch, finanziellem Verlust, psychischen Schäden und körperlichen Schäden führen. (Ein Arzt akzeptiert z. B. eine falsche KI-Ausgabe). Für Microsoft 365 Copilot tragen wir dazu bei, dieses Risiko zu verringern, indem wir unseren Produkten Haftungsausschlüsse hinzufügen, aber Benutzer sollten dennoch sicherstellen, dass sie die Genauigkeit der Antworten überprüfen.

  • Seien Sie vorsichtig beim Entwerfen von agentischer KI in sensiblen Domänen: Benutzer sollten beim Entwerfen und/oder Bereitstellen von agentischen KI-Systemen in sensiblen Domänen, in denen Agent-Aktionen unumkehrbar oder äußerst folgerichtig sind, Vorsicht walten lassen. Zusätzliche Vorsichtsmaßnahmen sollten auch beim Erstellen autonomer agentischer KI getroffen werden, wie weiter im Microsoft Enterprise AI Services Code of Conduct (für Organisationen) oder im Abschnitt Code Conduct des Microsoft-Servicevertrags (für Einzelpersonen) beschrieben.

Deployer sollten:

Microsoft stellt Tools wie das Microsoft Copilot-Dashboard für Microsoft 365-Kunden und Berichte im Microsoft 365 Admin Center bereit. Diese Tools sollen Organisationen dabei unterstützen, die Nutzung, Einführung und die Auswirkungen von Microsoft 365 Copilot zu messen. Zum Beispiel:

  • Microsoft 365 Copilot Nutzungsbericht können Administratoren eine Zusammenfassung der Einführung, Aufbewahrung und Interaktion von Benutzern mit Microsoft 365 Copilot anzeigen, um Lizenzen zu verwalten und zu optimieren. Weitere Informationen finden Sie unter verwendung von Microsoft 365 Copilot.
  • Microsoft Copilot Dashboard bietet Führungskräften, Analysten und Delegierten Zugriff auf vordefinierte Berichte über organization breite Verwendung von Microsoft 365 Copilot und Copilot Chat, um die Einführung und Auswirkungen zu messen. Weitere Informationen finden Sie unter Herstellen einer Verbindung mit dem Microsoft Copilot-Dashboard für Microsoft 365-Kunden.
  • Copilot Business Impact ist in Viva Insights verfügbar, ermöglicht Es Analysten, die Nutzung von Microsoft 365 Copilot mit Geschäftsmetriken zu vergleichen, um den Geschäftswert zu verstehen. Weitere Informationen finden Sie unter Copilot business impact report( Copilot Business Impact Report).

Weitere Informationen zu Microsoft 365 Copilot

Weitere Anleitungen zur verantwortungsvollen Verwendung von Microsoft 365 Copilot finden Sie in der folgenden Dokumentation:

Weitere Informationen zu verantwortungsvoller KI