Freigeben über


Übersicht über Eingabeaufforderungen

In diesem Artikel werden Eingabeaufforderungen und die Aufforderungsentwicklung als wichtige Konzepte erläutert, mit denen Sie leistungsstarke generative KI-Funktionen erstellen können, die in Copilot Studio genutzt werden können.

Von Bedeutung

  • Aufforderungen verwenden Modelle, die von Azure Foundry unterstützt werden.
  • Für diese Funktion gelten möglicherweise Nutzungsbeschränkungen oder Kapazitätseinschränkungen.

Voraussetzungen

Was ist ein Prompt

Ein Prompt besteht hauptsächlich aus einer natürlichen Sprachanweisung, die einem generativen KI-Modell anweist, eine Aufgabe auszuführen. Das Modell folgt der Aufforderung, um die Struktur und den Inhalt des zu generierenden Textes zu bestimmen. Beim Prompt-Engineering handelt es sich um den Prozess des Erstellens und Verfeinerns der vom Modell verwendeten Eingabeaufforderung.

Eine Prompt-Builder-Erfahrung ermöglicht es Herstellern, wiederverwendbare Prompts zu erstellen, zu testen und zu speichern. In dieser Erfahrung können Sie auch Eingabevariablen und Wissensdaten verwenden, um während der Laufzeit dynamische Kontextdaten bereitzustellen. Du kannst diese Prompts mit anderen teilen und sie als Agenten, Workflows oder Apps nutzen.

Diese Eingabeaufforderungen können für viele Aufgaben oder Geschäftsszenarien eingesetzt werden, z. B. zum Zusammenfassen von Inhalten, zum Kategorisieren von Daten, zum Extrahieren von Entitäten, zum Übersetzen von Sprachen, zur Beurteilung der Stimmung oder zum Formulieren einer Antwort auf eine Beschwerde. Sie können beispielsweise eine Aufforderung zum Auswählen von Aktionselementen aus Ihren Unternehmens-E-Mails erstellen und in einem Power Automate Workflow verwenden, um eine Automatisierung der E-Mail-Verarbeitung zu erstellen.

Screenshot des Prompts-Editors im Prompt-Generator

In Copilot Studio können Eingabeaufforderungen als Agenttools verwendet werden, um die Chaterfahrung zu verbessern oder fortgeschrittene KI-Automatisierungen und Workflow-Knoten zu verwenden, um KI-Aktionen in deterministischen Automatisierungen einzubetten.

Menschliche Aufsicht

Menschliche Aufsicht ist ein wichtiger Schritt bei der Arbeit mit Inhalten, die aus einem generativen KI-Modell generiert werden. Solche Modelle werden auf riesigen Datenmengen trainiert und können Fehler und Verzerrungen enthalten. Bevor Sie es online stellen, an einen Kunden senden oder zur Entscheidungsfindung im Unternehmen verwenden, sollte es von einem Menschen überprüft werden. Die menschliche Aufsicht hilft Ihnen, potenzielle Fehler und Verzerrungen zu erkennen. Es stellt auch sicher, dass der Inhalt für den beabsichtigten Anwendungsfall relevant ist und mit den Werten des Unternehmens ausgerichtet ist.

Menschliche Überprüfung kann auch helfen, eventuelle Probleme mit dem Modell selbst zu identifizieren. Wenn das Modell beispielsweise Inhalte generiert, die für den beabsichtigten Anwendungsfall nicht relevant sind, müssen Sie die Eingabeaufforderung möglicherweise anpassen.

Verantwortungsvolle KI

Wir möchten eine von Anfang an verantwortungsbewusste KI erschaffen. Unsere Arbeit orientiert sich an einer Reihe grundlegender Prinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz, Inklusivität, Transparenz und Rechenschaftspflicht. Wir setzen diese Grundsätze unternehmensweit in die Praxis um, um KI zu entwickeln und einzusetzen, die sich positiv auf die Gesellschaft auswirkt. Wir verfolgen einen umfassenden Ansatz und kombinieren innovative Forschung, herausragende Technik und verantwortungsvolle Governance. Neben der Spitzenforschung von OpenAI zur KI-Ausrichtung entwickeln wir einen Rahmen für den sicheren Einsatz unserer eigenen KI-Technologien, der helfen soll, in der Branche verantwortungsvollere Ergebnisse zu erreichen.

Weitere Informationen zur Transparenz in Transparency-Hinweis für Azure OpenAI.