Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Diese häufig gestellten Fragen (FAQ) beschreiben die Auswirkungen von Prompt Builder auf die KI.
Was sind Eingabeaufforderungen?
Die Promptfunktion im Prompt-Builder bietet Benutzern eine vielseitige Funktion für die Entwicklung von KI-gestützten Workflows, Anwendungen, Datentransformation und Anpassung von KI-Copiloten. Es ermöglicht die Erstellung von Workflows und Anwendungen, die Dokumente zusammenfassen, Antwortentwürfe erstellen, Texte klassifizieren und Sprachen übersetzen. Diese Funktion wird vom Azure OpenAI Dienst unterstützt, der die Generative Pre-trained Transformer (GPT)-Technologie verwendet. Diese Modelle wurden auf riesigen Mengen von Textdaten trainiert, um Text zu generieren, der von Menschen geschriebenen Inhalten ähnelt.
Weitere Informationen finden Sie in Transparency Note for Azure OpenAI Service.
Was sind die beabsichtigten Anwendungsfälle von Eingabeaufforderungen?
Eingabeaufforderungen im Eingabeaufforderungsgenerator ermöglichen es Ihnen, intelligente Anwendungen und Workflows zu erstellen und Copiloten zu erweitern. Sie nutzen die Fähigkeiten vorab trainierter GPT-Modelle und machen ein benutzerdefiniertes Modelltraining überflüssig. Die Absicht könnte beispielsweise darin bestehen, einen Workflow zu erstellen, der eingehende Kundenbeschwerden zusammenfasst. Anschließend wird in einem Vorfallmanagement-Tool basierend auf der Kategorie der eingehenden Beschwerde ein Ticket erstellt. In diesem Beispiel können Ersteller das Modell anweisen, die eingehende Beschwerde zu kategorisieren und zusammenzufassen, um einen neuen Vorfall zu erstellen.
Die folgende Liste enthält die beliebtesten Anwendungsfälle für diesen Dienst:
- Zusammenfassung von E-Mails, Gesprächen, Transkripten, Dokumenten und mehr.
- Vorschläge für Antwortentwürfe auf Kundenanfragen, Beschwerden, E-Mails und mehr.
- Extraktion von Informationen aus Verträgen, E-Mails, Rechnungen, Bestellungen und mehr.
- Klassifizierung von Inhalten in gewünschte Kategorien (zum Beispiel, ob es sich bei einer E-Mail um eine Bestellung, eine Reklamation oder eine Retoure) handelt.
- Stimmungsanalyse eines bestimmten Textes (zum Beispiel Ermittlung der Stimmung einer Produktrezension).
In all diesen Fällen sind die Benutzenden für das Endergebnis des Systems verantwortlich. Sie sind verpflichtet, die generierten Inhalte vor der Verwendung auf mögliche Ungenauigkeiten oder Unvollständigkeiten zu überprüfen.
Wie wurde die Bereitschaft der Eingabeaufforderungsfunktion bewertet? Welche Metriken werden verwendet, um die Leistung zu messen?
Die Auswertung dieser Funktion erfordert umfassende Tests einer Reihe von Sicherheitsparametern. Diese Tests stellen sicher, dass die Funktion mit den Standards und Grundsätzen für verantwortungsvolle KI unserer Organisation übereinstimmt. Der Dienst wird außerdem kontinuierlich auf mögliche Schwachstellen überprüft. Die von uns verwendeten Leistungsmetriken umfassen in erster Linie die Effizienz der Inhaltsfilterung und den Grad der Übereinstimmung zwischen Mensch und Maschine bei gefilterten und ungefilterten Inhalten.
Welche Art der Inhaltsmoderation ist für Eingabeaufforderungen implementiert?
Die großen Sprachmodelle werden auf Internetdaten trainiert, was sich hervorragend für den Aufbau eines allgemeinen Weltmodells eignet. Gleichzeitig kann es toxische, schädliche und voreingenommene Inhalte aus denselben Quellen übernehmen. Die Modelle sind darauf trainiert, sich sicher zu verhalten und keine schädlichen Inhalte (Hass und Fairness, sexuelle, Gewalt, Selbstverletzung) zu produzieren, aber manchmal kann dies toxische Ergebnisse erzeugen. Prompt-Builder-Eingaben nutzen den Azure AI Content Safety Service, um Inhaltsmoderationsfunktionen auf dem neuesten Stand der Technik innerhalb der KI-Eingaben einzubetten. Dazu gehören Dienste zur Analyse der erzeugten Ergebnisse mit Scannern für schädliche Inhalte mit unterschiedlichen Schweregraden sowie Schutz vor Angriffen durch Prompt-Injektionen. Die Ausgabe wird auch auf die Nutzung von geschütztem Material überprüft.
Maker können das Inhaltsmoderationsniveau nur für schädliche Inhalte konfigurieren. Eine niedrigere Moderation erhöht das Risiko schädlicher Inhalte in den Antworten des Prompts. Eine höhere Moderation senkt dieses Risiko, könnte aber die Anzahl der Antworten verringern.
Erfahren Sie mehr auf der Ebene der Inhaltsmoderation.
Welche Einschränkungen bestehen bei der Eingabeaufforderungsfunktion? Wie können Benutzende die Auswirkungen der Eingabeaufforderungseinschränkungen bei der Verwendung des Systems minimieren?
Der Einsatz dieser Technologie muss den Anforderungen im Code des Verhaltens für Azure OpenAI Service entsprechen. Diese Technologie darf nicht zur Generierung von Inhalten verwendet werden, die mit politischer Propaganda, Hassreden, Fehlinformationen, Selbstverletzung, Diskriminierung, explizitem sexuellem Material oder anderen durch den Verhaltenskodex verbotenen Inhalten in Zusammenhang stehen. Nicht unterstützte Anwendungen dieser Technologie umfassen Beratung, Verwendung für rechtliche, finanzielle, gesundheitsbezogene Anleitungen oder zukünftige Prognosen sowie finanzielle, wissenschaftliche oder mathematische Berechnungen sowie alle anderen nicht unterstützten Verwendungen, die im Transparency Note for Azure OpenAI Service erwähnt werden.
KI-generierte Inhalte können Fehler haben, daher sollten Die Hersteller die Endbenutzer über ihre Lösung informieren, dass KI die Inhaltsgenerierung durch dieses Modell transparent erstellt. Eine klare Kommunikation der generierten Inhalte hilft, übermäßiges Vertrauen zu vermeiden. Erstellende sollte auch die Möglichkeit einer menschlichen Überprüfung einbeziehen, um sicherzustellen, dass der von der KI generierte Inhalt korrekt und angemessen ist, bevor er verwendet wird.
Welche betrieblichen Faktoren und Einstellungen lassen eine effektive und verantwortungsvolle Nutzung des Systems zu?
Vom KI-Modell generierte Inhalte sind probabilistischer Natur und daher können die Modellantworten für dieselbe Eingabeaufforderung unterschiedlich sein. Die generierte Antwort ist möglicherweise falsch oder irreführend und kann zu unbeabsichtigten Ergebnissen des Flows oder der App führen. Beispielsweise können Geschäftskunden falsche oder irreführende Informationen, Empfehlungen oder Support erhalten. Ersteller sollten eine sinnvolle menschliche Aufsicht in ihren Flows und Apps implementieren und ihre Eingabeaufforderungen auf das Potenzial testen, schädliches Verhalten oder verbotene Inhalte zu generieren, wie im Microsoft-Verhaltenskodex aufgeführt. Entwickler mit geringem Code sollten auch transparent über die Verwendung von KI in ihren Apps und Flüssen sein, um den Geschäftsbenutzer zu informieren, was darauf hinweist, dass KI den Inhalt generiert. Darüber hinaus entsprechen die generierten Antworten aufgrund von Längenbeschränkungen, Inhaltsfilterung oder Modellauswahl möglicherweise nicht den Erwartungen der Low-Code-Entwickelnden.
Wie heißt das GPT-Modell, wo wird es gehostet und wie kann ich darauf zugreifen?
Der Prompt-Builder unterstützt die Modelle GPT-4.1 Mini, GPT-4.1 und GPT-5, die im Azure OpenAI Service gehostet werden. Sie können über die Eingabeaufforderungen Power Platform in Ihren Anwendungen, Flows und Copilot auf diese Modelle zugreifen.
Weitere Informationen finden Sie in What's new in Azure OpenAI Service?
Werden meine Daten verwendet, um die großen Sprachmodelle zu trainieren oder zu verbessern, die im Eingabeaufforderungsgenerator verfügbar sind?
Eingaben des Prompt-Builders werden auf dem von Microsoft gehosteten Azure OpenAI Service ausgeführt. Kundendaten werden nicht verwendet, um eines der Azure OpenAI Service Foundation-Modelle zu trainieren oder zu verbessern. Microsoft gibt Ihre Kundendaten nicht an Dritte weiter, es sei denn, Sie haben dazu Ihre Einwilligung erteilt. Kundeneingaben mit ihren Kontextdaten und den Modellantworten werden nicht verwendet, um die Azure-OpenAI-Service-Foundation-Modelle zu trainieren oder zu verbessern.
Ist der Inhalt, der zur Aktion „Eine Eingabeaufforderung ausführen“ hinzugefügt wird, öffentlich zugänglich?
Die Registerkarte Über für die Aktion besagt: Diese Aktion bietet Zugriff auf Ihre Eingabeaufforderungen, die das GPT-Modell nutzen, das auf dem Azure OpenAI Service ausgeführt wird.
Die Eingabeaufforderungen, die Sie der Aktion Run a prompt in Power Automate hinzufügen, sind standardmäßig privat. Sie sind nur innerhalb Ihrer Organisation sicht- und nutzbar und nicht für die ganze Welt zugänglich. Die Eingabeaufforderungen sind privat und für den internen Gebrauch in Ihrem Unternehmen bestimmt.
Neu erstellte Eingabeaufforderungen sind standardmäßig privat. Dies bedeutet, dass sie in Power Automate, Power Apps Microsoft Copilot Studio und nur von der Person, die sie erstellt hat, sichtbar und nutzbar sind. Dies gibt den Erstellenden Zeit, sie in Apps oder Workflows zu testen und zu bewerten und sicherzustellen, dass sie richtig sind, bevor sie sie freigeben.
Wenn Sie möchten, dass andere Benutzer der Umgebung oder Gruppen Ihre Eingabeaufforderung in Power Apps oder Power Automate verwenden, müssen Sie sie freigeben.
Weitere Informationen finden Sie unter Teilen Ihrer Eingabeaufforderung.
Wie werden Bilder von Personen in Prompt-Builder-Prompts verarbeitet?
Der Prompt Builder ist nicht für die Identifizierung von Personen anhand von Gesichtsmerkmalen oder biometrischen Daten gedacht. Wenn Sie Bilder mit Personen in Prompt Builder einreichen, wendet das System automatisch eine Gesichtsunschärfefunktion an, bevor die Bilder analysiert werden, um die Privatsphäre des Einzelnen zu schützen. Dieser Schritt zur Unschärfe trägt dazu bei, Datenschutzbedenken auszuräumen, indem die Identifizierung anhand von Gesichtsmerkmalen verhindert wird. Beim Verwischen werden keine Gesichtserkennung und kein Abgleich von Gesichtsvorlagen eingesetzt. Stattdessen beruht jede Identifizierung bekannter Personen auf kontextuellen Hinweisen wie Uniformen oder einzigartigen Umgebungen, nicht auf ihren Gesichtern. Diese Datenschutzmaßnahme sollte sich nicht auf die Qualität der Ergebnisse auswirken, die Sie erhalten. Gelegentlich kann in den Antworten des Systems auf das Verwischen des Gesichts verwiesen werden.
Weitere Informationen finden Sie unter Gesichter unscharf machen.
Potenzielle Schäden beim Verwenden von Bildern oder Dokumenten in Eingabeaufforderungen
Der Eingabeaufforderungs-Generator mindert die meisten Risiken, die mit der Verwendung von Bildern oder Dokumenten in Eingabeaufforderungen verbunden sind, aber einige Risiken erfordern dennoch besondere Sorgfalt vom Ersteller der Eingabeaufforderung:
- Bilder oder Dokumente können schädlichen Text oder Inhalte enthalten, die sich auf Ihre nachgelagerten Prozesse auswirken könnten.
- Bilder oder Dokumente können spezielle und möglicherweise versteckte Anweisungen enthalten, die die ursprüngliche Eingabeaufforderung kompromittieren oder überschreiben könnten.
- Bilder oder Dokumente können Anweisungen enthalten, die zur Erstellung von Inhalten führen könnten, die dem geistigen Eigentum (IP) unterliegen.
- Eingabeaufforderungen können zu voreingenommenen Kommentaren zu Bildern oder Dokumenten führen.
- Das Extrahieren von Informationen aus qualitativ hochwertigen Bildern oder Dokumenten kann zu falschen Informationen führen, auch als Halluzination bezeichnet.
Worin unterscheidet sich das o3-Modell von den GPT-Modellen?
Das o3-Modell zeichnet sich gegenüber GPT-Modellen hauptsächlich durch seine fortschrittlichen Fähigkeiten im Bereich des logischen Denkens aus. Es erzeugt detaillierte interne Gedankengänge, bevor es antwortet, was zu einer verbesserten Leistung in Mathematik, Programmierung und analytischen Aufgaben führt. Diese Vorgehensweise führt jedoch zu erhöhten Rechenanforderungen und langsameren Reaktionszeiten im Vergleich zu GPT-Modellen. GPT-4o oder GPT-4.1 zum Beispiel zeichnet sich durch allgemeine Sprachaufgaben aus und bietet schnellere, kostengünstige Antworten, wodurch es sich für Anwendungen eignet, bei denen schnelle Ausgaben unerlässlich sind.
Was sind Eingabeaufforderungen und KI-Funktionen?
Aufforderungen
Eingabeaufforderungen geben Entwicklern die Freiheit, das Large Language Model (LLM) anzuweisen, sich auf eine bestimmte Weise zu verhalten oder eine bestimmte Aufgabe auszuführen. Durch die sorgfältige Ausarbeitung einer Eingabeaufforderung können Sie Antworten generieren, die Ihren spezifischen Geschäftsanforderungen entsprechen. Dadurch wird das LLM-Modell zu einem flexiblen Werkzeug zur Erfüllung verschiedener Aufgaben.
Bei einem Sprachmodell kann z. B. eine Eingabeaufforderung das Modell anleiten, eine Frage zu beantworten, Text zu vervollständigen, Sprachen zu übersetzen, ein Dokument zusammenzufassen und Aufgaben, To-Dos sowie Aktionsposten im Text zu identifizieren. Die Komplexität einer benutzerdefinierten Eingabeaufforderung kann je nach Aufgabe von einem einzelnen Satz bis zu etwas Komplizierterem reichen.
KI-Funktionen
Vorgefertigte KI-Funktionen sind vorkonfigurierte Eingabeaufforderungen, die vom Microsoft-Team erstellt wurden, um Entwickelnden dabei zu helfen, häufige Aufgaben einfach zu erledigen. Sie bieten gebrauchsfertige KI-Funktionen für verschiedene Anwendungsfälle, was es den Erstellenden erleichtert, Intelligenz in ihre Lösungen einzubringen.
Die vordefinierte Eingabeaufforderung eines Sprachmodells könnte z. B. wie folgt aussehen:
Extrahieren Sie die Aktionspunkte als nummerierte Liste aus: [TextToExtract]
In diesem Fall muss der Benutzer nur den Text in [TextToExtract] angeben, aus dem er Aktionspunkte extrahieren möchte. Den Rest erledigt die vorgefertigte Eingabeaufforderung.