Freigeben über


Azure OpenAI in Microsoft Foundry Models v1 REST-API-Referenz

API-Version: v1

Servervariablen:

Variable Default Description
endpoint Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com

Authentifizierung

API-Schlüssel

Übergeben Sie einen API-Schlüssel mit dem api-key Header.

Authentifizierungstoken

Übergeben Sie ein Authentifizierungstoken mit dem authorization Header.

Oauth2authoauth20

Ablauf: implizit

Autorisierungs-URL:https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Bereiche:

  • https://cognitiveservices.azure.com/.default

Batch

Batch erstellen

POST {endpoint}/openai/v1/batches

Erstellt und führt einen Batch aus einer hochgeladenen Datei mit Anforderungen aus.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anfrage-Kopf

Name Erforderlich Typ Description
Akzeptieren Richtig Schnur
Möglicher Wert: application/json

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Abschlussfenster enum Der Zeitrahmen, in dem der Batch verarbeitet werden soll. Derzeit wird nur 24h unterstützt.
Möglicher Wert: 24h
Ja
endpoint enum Der Endpunkt, der für alle Anforderungen im Batch verwendet werden soll. Derzeit /v1/chat/completions wird unterstützt.
Mögliche Werte: /v1/chat/completions, /v1/embeddings
Ja
input_file_id Schnur Die ID einer hochgeladenen Datei, die Anforderungen für den neuen Batch enthält.



Ihre Eingabedatei muss als JSON-Datei formatiert sein.
und muss mit dem Zweck batchhochgeladen werden.
Nein

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten von Batches

GET {endpoint}/openai/v1/batches

Listen Sie die Batches Ihrer Organisation auf.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.

Anfrage-Kopf

Name Erforderlich Typ Description
Akzeptieren Richtig Schnur
Möglicher Wert: application/json

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListBatchesResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Batch abrufen

GET {endpoint}/openai/v1/batches/{batch_id}

Ruft einen Batch ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
batch_id Pfad Ja Schnur Die ID des abzurufenden Batches.

Anfrage-Kopf

Name Erforderlich Typ Description
Akzeptieren Richtig Schnur
Möglicher Wert: application/json

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Batch abbrechen

POST {endpoint}/openai/v1/batches/{batch_id}/cancel

Hiermit wird ein laufender Batch abgebrochen.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
batch_id Pfad Ja Schnur Die ID des batches, der abgebrochen werden soll.

Anfrage-Kopf

Name Erforderlich Typ Description
Akzeptieren Richtig Schnur
Möglicher Wert: application/json

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Chat

Chatvervollständigung erstellen

POST {endpoint}/openai/v1/chat/completions

Erstellt eine Chatvervollständigung.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
audio OpenAI.CreateChatCompletionRequestAudio oder null Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit
modalities: ["audio"].
Nein
frequency_penalty Zahl oder Null Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf
ihrer bisherigen Häufigkeit im Text, wodurch die Modellzahlen verringert werden
Wahrscheinlichkeit, dass dieselbe Zeile wiederholt wird.
Nein
function_call string oder OpenAI.ChatCompletionFunctionCallOption Zugunsten von tool_choice eingestellt.
Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine
Meldung.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Nachricht auswählen kann
Funktion.
Angeben einer bestimmten Funktion über {"name": "my_function"} Kräfte
Modell zum Aufrufen dieser Funktion.
none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung
wenn Funktionen vorhanden sind.
Nein
Funktionen Array von OpenAI.ChatCompletionFunctions Zugunsten von tools eingestellt.
Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
Nein
logit_bias -Objekt oder Null Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.
Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im
Tokenizer) mit einem zugehörigen Bias-Wert von -100 bis 100. Mathematisch
die Verzerrung wird vor dem Sampling zu den logits hinzugefügt, die vom Modell generiert wurden.
Der genaue Effekt variiert je nach Modell, aber Werte sollten zwischen -1 und 1 liegen.
Verringern oder Erhöhen der Wahrscheinlichkeit der Auswahl; Werte wie -100 oder 100
sollte dies zu einem Verbot oder einer exklusiven Auswahl des betreffenden Tokens führen.
Nein
logprobs Boolescher Wert oder Null Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr,
gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das zurückgegeben wird in der
content von message.
Nein
max_completion_tokens ganze Zahl oder Null Eine obere Grenze für die Anzahl der Token, die für einen
Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken.
Nein
maximale_Anzahl_von_Tokens ganze Zahl oder Null Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können.
Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird.

Dieser Wert ist jetzt veraltet zugunsten von max_completion_tokens, und ist
nicht kompatibel mit o1-Serienmodellen.
Nein
messages Array von OpenAI.ChatCompletionRequestMessage Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig von
Abhängig vom Modell, das Sie verwenden, werden verschiedene Nachrichtentypen (Modalitäten) unterstützt.
wie Text, Bilder und Audio.
Ja
metadata OpenAI.Metadata oder NULL Nein
modalities OpenAI.ResponseModalities Ausgabetypen, die vom Modell generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview Modell kann auch verwendet werden, um
Audio generieren. Um anzufordern, dass dieses Modell
Sie können sowohl Text- als auch Audioantworten verwenden:
["text", "audio"]
Nein
Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Ja
n ganze Zahl oder Null Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. Nein
Parallele Werkzeugaufrufe OpenAI.ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
prediction OpenAI.PredictionContent Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die
wird neu generiert.
Nein
└– Inhalt Zeichenfolge oder Array von OpenAI.ChatCompletionRequestMessageContentPartText Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll.
Wenn generierte Token mit diesem Inhalt übereinstimmen würden, würde die gesamte Modellantwort
kann viel schneller zurückgegeben werden.
Ja
└– Typ enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist
aktuell immer content.
Möglicher Wert: content
Ja
presence_penalty Zahl oder Null Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf
ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit des Modells erhöht wird
um über neue Themen zu sprechen.
Nein
prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
prompt_cache_retention Zeichenfolge oder null Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
Antwortformat OpenAI.CreateChatCompletionRequestResponseFormat Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Einstellung für { "type": "json_schema", "json_schema": {...} } aktiviert
Strukturierte Ausgaben, die sicherstellen, dass das Modell mit Ihrem bereitgestellten JSON-Code übereinstimmt
Schema. Weitere Informationen in den strukturierten Ausgaben
Ausgaben
.
Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, der
stellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schema
wird für Modelle bevorzugt, die es unterstützen.
Nein
└– Typ OpenAI.CreateChatCompletionRequestResponseFormatType Ja
safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
seed ganze Zahl oder Null Dieses Feature befindet sich in der Betaversion.
Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
Nein
Stopp OpenAI.StopConfiguration Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.
Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Das
Der zurückgegebene Text enthält die Stoppsequenz nicht.
Nein
store Boolescher Wert oder Null Ob die Ausgabe dieser Chat-Anfrage dieser Chatabschlussanforderung für
die Verwendung in Modelldestillation oder Bewertungsprodukten gespeichert werden soll oder nicht.
Nein
Datenstrom Boolescher Wert oder Null Bei Festlegung auf "true" werden die Modellantwortdaten an den Client gestreamt.
da sie mithilfe von server-sent-Ereignissen generiert werden.
Nein
stream_options OpenAI.ChatCompletionStreamOptions oder NULL Nein
Temperatur Zahl oder Null Nein
tool_choice OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Nein
Werkzeuge Array von OpenAI.ChatCompletionTool oder OpenAI.CustomToolChatCompletions Eine Liste der Tools, die das Modell aufrufen kann. Sie können eine der beiden Optionen bereitstellen
Benutzerdefinierte Tools oder
Funktionstools.
Nein
top_logprobs ganze Zahl oder Null Nein
top_p Zahl oder Null Nein
user Zeichenfolge (veraltet) Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und dem Benutzer helfen kann,
Überwachen und Erkennen von Missbrauch.
Nein
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. Nein
Wortfülle OpenAI.Verbosity Begrenzt die Wortreichweite der Antwort des Modells. Niedrigere Werte führen zu
präzisere Antworten, während höhere Werte zu ausführlicheren Antworten führen.
Derzeit werden die Werte low, medium und high unterstützt.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt oder Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Beispiele

Example

POST {endpoint}/openai/v1/chat/completions

Abschlüsse

Abschluss erstellen

POST {endpoint}/openai/v1/completions

Erstellt einen Abschluss.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
best_of ganze Zahl oder Null Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.
Bei Verwendung mit n, best_of steuert die Anzahl der Abschlusskandidaten und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer sein als n.
Hinweis:* Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
Nein
echo Boolescher Wert oder Null Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. Nein
frequency_penalty Zahl oder Null Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
Weitere Informationen zu Häufigkeits- und Anwesenheitsstrafen.
Nein
logit_bias -Objekt oder Null Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen.
Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird.
Nein
logprobs ganze Zahl oder Null Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Tokens zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.
Der Höchstwert für logprobs ist 5.
Nein
maximale_Anzahl_von_Tokens ganze Zahl oder Null Die maximale Anzahl von Tokens, die bei der Vervollständigung generiert werden können.
Die Tokenanzahl ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten. Beispiel-Python-Code zum Zählen von Token.
Nein
Modell Schnur Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen, oder sie finden Sie in unserer Modellübersicht für Beschreibungen. Ja
n ganze Zahl oder Null Wie viele Vervollständigungen für jede Äußerung generiert werden sollen.
Hinweis:* Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden.
Nein
presence_penalty Zahl oder Null Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
Weitere Informationen zu Häufigkeits- und Anwesenheitsstrafen.
Nein
prompt Zeichenfolge oder Array von Zeichenfolge oder Null Nein
seed ganze Zahl oder Null Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.
Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen.
Nein
Stopp OpenAI.StopConfiguration Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.
Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Das
Der zurückgegebene Text enthält die Stoppsequenz nicht.
Nein
Datenstrom Boolescher Wert oder Null Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird. Example Python Code. Nein
stream_options OpenAI.ChatCompletionStreamOptions oder NULL Nein
suffix Zeichenfolge oder null Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.
Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt.
Nein
Temperatur Zahl oder Null Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
Nein
top_p Zahl oder Null Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides.
Nein
user Schnur Erfahren Sie mehr. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Beispiele

Example

POST {endpoint}/openai/v1/completions

Behälter

Auflisten von Containern

GET {endpoint}/openai/v1/containers

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ContainerListResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Container erstellen

POST {endpoint}/openai/v1/containers

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
expires_after OpenAI.CreateContainerBodyExpiresAfter Nein
└– Anker enum
Möglicher Wert: last_active_at
Ja
└– Minuten integer Ja
Datei-IDs Array von Zeichenfolgen IDs von Dateien, die in den Container kopiert werden sollen. Nein
Speicherbegrenzung enum Optionaler Speichergrenzwert für den Container. Wird standardmäßig auf 1g festgelegt.
Mögliche Werte: 1g, , 4g, 16g64g
Nein
Name Schnur Name des zu erstellenden Containers. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ContainerResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Container abrufen

GET {endpoint}/openai/v1/containers/{container_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur Die ID des abzurufenden Containers.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ContainerResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Container löschen

DELETE {endpoint}/openai/v1/containers/{container_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur Die ID des zu löschenden Containers.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Containerdateien auflisten

GET {endpoint}/openai/v1/containers/{container_id}/files

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur Die ID des Containers, aus dem Dateien auflisten werden sollen.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ContainerFileListResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Containerdatei erstellen

POST {endpoint}/openai/v1/containers/{container_id}/files

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur Die ID des Containers, in dem eine Datei erstellt werden soll.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
file Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. Nein
Datei-ID Schnur Name der zu erstellenden Datei. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ContainerFileResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Containerdatei abrufen

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur ID des Containers.
Datei-ID Pfad Ja Schnur Die ID der abzurufenden Datei.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ContainerFileResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Containerdatei löschen

DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur ID des Containers.
Datei-ID Pfad Ja Schnur Die ID der zu löschenden Datei.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen von Containerdateiinhalten

GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
container_id Pfad Ja Schnur ID des Containers.
Datei-ID Pfad Ja Schnur Die ID der Datei, aus der Inhalt abgerufen werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
application/octet-stream Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Unterhaltungen

Unterhaltung erstellen

POST {endpoint}/openai/v1/conversations

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Elemente Array von OpenAI.InputItem oder NULL Nein
metadata OpenAI.Metadata oder NULL Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Unterhaltung abrufen

GET {endpoint}/openai/v1/conversations/{conversation_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der abzurufenden Unterhaltung.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Unterhaltung aktualisieren

POST {endpoint}/openai/v1/conversations/{conversation_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der zu aktualisierenden Unterhaltung.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Unterhaltung löschen

DELETE {endpoint}/openai/v1/conversations/{conversation_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der zu löschenden Unterhaltung.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeletedConversationResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten von Unterhaltungselementen

GET {endpoint}/openai/v1/conversations/{conversation_id}/items

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, für die Elemente aufgeführt werden sollen.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden sollen. Der Standardwert ist desc.
after Anfrage Nein Schnur Eine Element-ID, nach der Elemente aufgeführt werden sollen (wird bei Paginierung verwendet)
einschließen Anfrage Nein Array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationItemList

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen von Unterhaltungselementen

POST {endpoint}/openai/v1/conversations/{conversation_id}/items

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, der das Element hinzugefügt werden soll.
einschließen Anfrage Nein Array Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Elemente Array von OpenAI.InputItem Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationItemList

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen eines Unterhaltungselements

GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, die das Element enthält.
item_id Pfad Ja Schnur Die ID des abzurufenden Elements.
einschließen Anfrage Nein Array Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationItem

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Unterhaltungselement löschen

DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
conversation_id Pfad Ja Schnur Die ID der Unterhaltung, die das Element enthält.
item_id Pfad Ja Schnur Die ID des zu löschenden Elements.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ConversationResource

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Evals

Bewertungen auflisten

GET {endpoint}/openai/v1/evals

Listet Auswertungen für ein Projekt auf.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
after Anfrage Nein Schnur Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl der Bewertungen, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge von Bewertungen nach Zeitstempel. Verwenden Sie asc für aufsteigende Reihenfolge oder
desc für absteigende Reihenfolge.
order_by Anfrage Nein Schnur
Mögliche Werte: created_at, updated_at
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Verwendung
created_at für die Erstellungszeit oder updated_at für die letzte Aktualisierung
kann.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalList

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Bewertung erstellen

POST {endpoint}/openai/v1/evals

Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.

Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenquellenkonfiguration OpenAI.CreateEvalCustomDataSourceConfig oder OpenAI.CreateEvalLogsDataSourceConfig oder OpenAI.CreateEvalStoredCompletionsDataSourceConfig Die Konfiguration für die Datenquelle, die für die Auswertung verwendet wird, wird ausgeführt. Bestimmt das Schema der daten, die in der Auswertung verwendet werden. Ja
metadata OpenAI.Metadata oder NULL Nein
Name Schnur Der Name der Auswertung. Nein
statusCode enum
Möglicher Wert: 201
Ja
Testkriterien Array von OpenAI.CreateEvalLabelModelGrader oder OpenAI.EvalGraderStringCheck oder OpenAI.EvalGraderTextSimilarity oder OpenAI.EvalGraderPython oder OpenAI.EvalGraderScoreModel oder EvalGraderEndpoint Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Bewertung abrufen

GET {endpoint}/openai/v1/evals/{eval_id}

Rufen Sie eine Bewertung anhand ihrer ID ab. Ruft eine Bewertung anhand ihrer ID ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Bewertung aktualisieren

POST {endpoint}/openai/v1/evals/{eval_id}

Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Bewertung.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein:
nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form.
Formatieren und Abfragen von Objekten über die API oder das Dashboard.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen
mit einer maximalen Länge von 512 Zeichen.
Nein
Name Schnur Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Eval

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Löschen einer Bewertung

DELETE {endpoint}/openai/v1/evals/{eval_id}

Löschen sie eine angegebene Bewertung.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen von Bewertungsausführungen

GET {endpoint}/openai/v1/evals/{eval_id}/runs

Dient zum Abrufen einer Liste von Läufen für eine angegebene Bewertung.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur
after Anfrage Nein Schnur
limit Anfrage Nein integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
status Anfrage Nein Schnur
Mögliche Werte: queued, , in_progresscompleted, , canceledfailed

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunList

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen einer Bewertungsausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs

Erstellen Sie eine neue Bewertungsausführung, die den Bewertungsprozess beginnt.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenquelle OpenAI.CreateEvalJsonlRunDataSource oder OpenAI.CreateEvalCompletionsRunDataSource oder OpenAI.CreateEvalResponsesRunDataSource Details zur Datenquelle der Ausführung. Ja
metadata OpenAI.Metadata oder NULL Nein
Name Schnur Name der Ausführung Nein

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen einer Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Rufen Sie eine bestimmten Bewertung ab, die nach ihrer ID ausgeführt wird.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abbrechen einer Bewertungsausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Brechen Sie eine bestimmte Bewertung ab, die nach ihrer ID ausgeführt wird.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRun

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Bewertungsausführung löschen

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}

Löschen Sie eine bestimmte Auswertung, die nach ihrer ID ausgeführt wird.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen von Ausgabeelementen der Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items

Rufen Sie eine Liste der Ausgabeelemente für eine angegebene Bewertungsausführung ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur
after Anfrage Nein Schnur
limit Anfrage Nein integer
status Anfrage Nein Schnur
Mögliche Werte: fail, pass
order Anfrage Nein Schnur
Mögliche Werte: asc, desc

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunOutputItemList

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen des Ausgabeelements der Bewertungsausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}

Rufen Sie ein bestimmtes Ausgabeelement aus einer Bewertung ab, die nach ihrer ID ausgeführt wird.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
eval_id Pfad Ja Schnur
run_id Pfad Ja Schnur
output_item_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.EvalRunOutputItem

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Dateien

Datei erstellen

POST {endpoint}/openai/v1/files

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
expires_after Objekt Ja
└– Anker AzureFileExpiryAnchor Ja
└─ Sekunden integer Ja
file Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. Ja
Zweck enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwenden
Mögliche Werte: assistants, , batch, fine-tuneevals
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Beispiele

Example

POST {endpoint}/openai/v1/files

Dateien auflisten

GET {endpoint}/openai/v1/files

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Zweck Anfrage Nein Schnur
limit Anfrage Nein integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
after Anfrage Nein Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFilesResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Datei abrufen

GET {endpoint}/openai/v1/files/{file_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Datei löschen

DELETE {endpoint}/openai/v1/files/{file_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteFileResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Datei herunterladen

GET {endpoint}/openai/v1/files/{file_id}/content

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Datei-ID Pfad Ja Schnur Die ID der Datei, die für diese Anforderung verwendet werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
application/octet-stream Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Embeddings

Einbettung erstellen

POST {endpoint}/openai/v1/embeddings

Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt.
Einschränkungen: min: 1
Nein
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.
Mögliche Werte: float, base64
Nein
Eingabe Zeichenfolge oder Array von Zeichenfolge oder Array von ganzzahligem Array oder Array von Arrays Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für alle Einbettungsmodelle), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Beispiel-Python-Code zum Zählen von Token. Zusätzlich zum Grenzwert pro Eingabetoken erzwingen alle Einbettungsmodelle maximal 300.000 Token, die über alle Eingaben in einer einzigen Anforderung summiert wurden. Ja
Modell Schnur Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen, oder sie finden Sie in unserer Modellübersicht für Beschreibungen. Ja
user Schnur Erfahren Sie mehr. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.CreateEmbeddingResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Beispiele

Example

POST {endpoint}/openai/v1/embeddings

Fine-tuning

Bewerter ausführen

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run

Führen Sie einen Bewerter aus.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Bewerter OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint Der Grader, der für den Feinabstimmungsauftrag verwendet wird. Ja
item OpenAI.RunGraderRequestItem Nein
model_sample Schnur Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen
des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.
Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel eine
gültige JSON-Zeichenfolge ist.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Überprüfen des Bewerters

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate

Überprüfen Sie einen Bewerter.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Bewerter OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ValidateGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Optimieren von Prüfpunktberechtigungen auflisten

GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Listenprüfpunktberechtigungen

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuned_model_checkpoint Pfad Ja Schnur Die ID des fein abgestimmten Modellprüfpunkts zum Abrufen von Berechtigungen.
project_id Anfrage Nein Schnur Die ID des Projekts, für das Berechtigungen abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für die letzte Berechtigungs-ID aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein integer Anzahl der abzurufenden Berechtigungen.
order Anfrage Nein Schnur
Mögliche Werte: ascending, descending
Die Reihenfolge, in der Berechtigungen abgerufen werden sollen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningCheckpointPermissionResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen der Berechtigung "Feinabstimmungsprüfpunkt"

POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions

Erstellen von Prüfpunktberechtigungen

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuned_model_checkpoint Pfad Ja Schnur Die ID des fein abgestimmten Modellprüfpunkts zum Erstellen einer Berechtigung.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
project_ids Array von Zeichenfolgen Die Projektbezeichner, auf die Der Zugriff gewährt werden soll. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningCheckpointPermissionResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Optimieren des Prüfpunktberechtigungs löschen

DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}

Prüfpunktberechtigung löschen

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuned_model_checkpoint Pfad Ja Schnur Die ID des fein abgestimmten Modellprüfpunkts zum Löschen einer Berechtigung.
permission_id Pfad Ja Schnur Die ID der zu löschenden Feinabstimmung des Modellprüfpunkts.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteFineTuningCheckpointPermissionResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen eines Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs

Erstellt einen Feinabstimmungsauftrag, der den Prozess der Erstellung eines neuen Modells aus einem bestimmten Datensatz startet.

Die Antwort enthält Details des in die Warteschlange gestellten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.CreateFineTuningJobRequestHyperparameters Nein
└- batch_size Zeichenfolge oder ganze Zahl Nein auto
└– Lernraten-Multiplikator Zeichenfolge oder Zahl Nein
└– n_epochs Zeichenfolge oder ganze Zahl Nein auto
Integrationen Array von OpenAI.CreateFineTuningJobRequestIntegrations oder null Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata OpenAI.Metadata oder NULL Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden
unterstützte Modelle.
Ja
seed ganze Zahl oder Null Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Zeichenfolge oder null Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.
Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Trainingsdaten enthält.
Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei.
Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.
Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet.
Weitere Details finden Sie im Fine-Tuning-Leitfaden.
Ja
Validierungsdatei Zeichenfolge oder null Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.
Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs-
Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der
Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.
Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.
Weitere Details finden Sie im Fine-Tuning-Leitfaden.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten von paginierten Feinabstimmungsaufträgen

GET {endpoint}/openai/v1/fine_tuning/jobs

Auflisten der Feinabstimmungsaufträge Ihrer Organisation

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
after Anfrage Nein Schnur Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsaufforderung.
limit Anfrage Nein integer Anzahl der abzurufenden Feinabstimmungsaufträge.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListPaginatedFineTuningJobsResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Feinabstimmungsauftrag abrufen

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}

Rufen Sie Informationen zu einem Feinabstimmungsauftrag ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abbrechen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel

Brechen Sie einen Feinabstimmungsauftrag sofort ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des abzubrechenden Feinabstimmungsauftrags.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten von Feinabstimmungsauftragsprüfpunkten

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints

Listen Sie die Prüfpunkte für einen Feinabstimmungsauftrag auf.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung.
limit Anfrage Nein integer Anzahl der abzurufenden Prüfpunkte.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobCheckpointsResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Feinabstimmung – Kopierprüfpunkt

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Erstellt eine Kopie eines Feinabstimmungsprüfpunkts für das angegebene Zielkonto und die angegebene Region.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur
fine_tuning_checkpoint_id Pfad Ja Schnur

Anfrage-Kopf

Name Erforderlich Typ Description
aoai-copy-ft-checkpoints Richtig Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein.
Akzeptieren Richtig Schnur
Möglicher Wert: application/json

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
destinationResourceId Schnur Die ID der zu kopierenden Zielressource. Ja
region Schnur Die Region, in die das Modell kopiert werden soll. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json CopyModelResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Feinabstimmung – Prüfpunkt abrufen

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy

Ruft den Status der Kopie eines Feinabstimmungsprüfpunkts ab.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur
fine_tuning_checkpoint_id Pfad Ja Schnur

Anfrage-Kopf

Name Erforderlich Typ Description
aoai-copy-ft-checkpoints Richtig Schnur
Möglicher Wert: preview
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion.
Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein.
Akzeptieren Richtig Schnur
Möglicher Wert: application/json

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json CopyModelResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten von Feinabstimmungsereignissen

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events

Rufen Sie Statusupdates für einen Feinabstimmungsauftrag ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen.
after Anfrage Nein Schnur Bezeichner für das letzte Ereignis aus der vorherigen Anforderung zur Paginierung.
limit Anfrage Nein integer Anzahl der abzurufenden Ereignisse.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListFineTuningJobEventsResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Feinabstimmungsauftrag anhalten

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause

Halten Sie einen Feinabstimmungsauftrag an.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des anzuhaltenden Feinabstimmungsauftrags.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Feinabstimmungsauftrag fortsetzen

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume

Setzen Sie einen angehaltenen Feinabstimmungsauftrag fort.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id Pfad Ja Schnur Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.FineTuningJob

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Modelle

Auflisten von Modellen

GET {endpoint}/openai/v1/models

Listet die derzeit verfügbaren Modelle auf und stellt grundlegende Informationen zu jedem Modell bereit, z. B. Besitzer und Verfügbarkeit.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListModelsResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Modell abrufen

GET {endpoint}/openai/v1/models/{model}

Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und Berechtigungen.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Modell Pfad Ja Schnur Die ID des Modells, das für diese Anforderung verwendet werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.Model

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Löschen des Modells

DELETE {endpoint}/openai/v1/models/{model}

Löscht eine Modellinstanz.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
Modell Pfad Ja Schnur Die ID des zu löschenden Modells.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteModelResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Echtzeit

Erstellen eines Echtzeitanrufs

POST {endpoint}/openai/v1/realtime/calls

Erstellen Sie einen neuen Realtime-API-Aufruf über WebRTC und erhalten Sie die SDP-Antwort, die zum Abschließen der Peerverbindung erforderlich ist.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Typ: mehrteilige Formulardaten (multipart/form-data)

Name Typ Description Erforderlich Default
Sdp Schnur WebRTC Session Description Protocol (SDP)-Angebot, das vom Aufrufer generiert wird. Ja
session OpenAI.RealtimeSessionCreateRequestGA Objektkonfiguration der Echtzeitsitzung. Nein
└– Audio OpenAI.RealtimeSessionCreateRequestGAAudio Konfiguration für Eingabe- und Ausgabeaudio. Nein
└- einschließen Array von Zeichenfolgen Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.
item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein.
Nein
└– Anweisungen Schnur Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind.
Nein
└– max_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
└─ Modell Schnur Das für diese Sitzung verwendete Realtime-Modell. Nein
└– output_modalities Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dass
dass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, um
Das Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern.
Nein ['audio']
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus
function/MCP tool.
Nein auto
└- Werkzeuge Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool Tools, die für das Modell verfügbar sind. Nein
└– Ablaufverfolgung string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein auto
└– Abschneiden OpenAI.RealtimeTruncation Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt.
Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist.
Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird.
Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
Nein
└– Typ enum Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.
Möglicher Wert: realtime
Ja

Antworten

Statuscode: 201

Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.

Inhaltstyp Typ Beschreibung
application/sdp Schnur

Antwortheader:

Header Typ Description
location Schnur Relative URL, die die Anruf-ID für nachfolgende Steuerelementanforderungen enthält.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Annehmen eines Echtzeitanrufs

POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept

Akzeptieren Sie einen eingehenden SIP-Anruf, und konfigurieren Sie die Echtzeitsitzung, die sie behandelt.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
call_id Pfad Ja Schnur Der Bezeichner für den Anruf, der im Webhook "realtime.call.incoming" bereitgestellt wird.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
audio OpenAI.RealtimeSessionCreateRequestGAAudio Nein
└– Eingabe OpenAI.RealtimeSessionCreateRequestGAAudioInput Nein
└─ Ausgabe OpenAI.RealtimeSessionCreateRequestGAAudioOutput Nein
einschließen Array von Zeichenfolgen Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.
item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein.
Nein
instructions Schnur Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind.
Nein
max_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
Modell Schnur Das für diese Sitzung verwendete Realtime-Modell. Nein
Ausgabemodalitäten Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dass
dass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, um
Das Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern.
Nein ['audio']
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus
function/MCP tool.
Nein
Werkzeuge Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool Tools, die für das Modell verfügbar sind. Nein
tracing string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein
truncation OpenAI.RealtimeTruncation Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt.
Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist.
Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird.
Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
Nein
type enum Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.
Möglicher Wert: realtime
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflegen eines Echtzeitanrufs

POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup

Beenden Sie einen aktiven Realtime-API-Aufruf, unabhängig davon, ob er über SIP oder WebRTC initiiert wurde.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
call_id Pfad Ja Schnur Der Bezeichner für den Anruf.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Echtzeitanruf verweisen

POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer

Übertragen Eines aktiven SIP-Anrufs an ein neues Ziel mithilfe des VERBs SIP REFER.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
call_id Pfad Ja Schnur Der Bezeichner für den Anruf, der im Webhook "realtime.call.incoming" bereitgestellt wird.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
target_uri Schnur URI, der im SIP-Refer-To-Header angezeigt werden soll. Unterstützt Werte wie
tel:+14155550123 oder sip:agent\@example.com.
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Ablehnen eines Echtzeitanrufs

POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject

Ablehnen eines eingehenden SIP-Anrufs durch Zurückgeben eines SIP-Statuscodes an den Anrufer.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
call_id Pfad Ja Schnur Der Bezeichner für den Anruf, der im Webhook "realtime.call.incoming" bereitgestellt wird.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
status_code integer SIP-Antwortcode, der an den Anrufer zurücksenden soll. Standardwerte sind 603 (Ablehnen)
ausgelassen.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen eines geheimen Clientschlüssels in Echtzeit

POST {endpoint}/openai/v1/realtime/client_secrets

Erstellen Sie einen geheimen Echtzeitclientschlüssel mit einer zugeordneten Sitzungskonfiguration.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
expires_after OpenAI.RealtimeCreateClientSecretRequestExpiresAfter Nein
└– Anker enum
Möglicher Wert: created_at
Nein
└─ Sekunden integer Einschränkungen: min: 10, max: 7200 Nein 600
session OpenAI.RealtimeSessionCreateRequestUnion Nein
└– Typ OpenAI.RealtimeSessionCreateRequestUnionType Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RealtimeCreateClientSecretResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen einer Echtzeitsitzung

POST {endpoint}/openai/v1/realtime/sessions

Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
client_secret OpenAI.RealtimeSessionCreateRequestClientSecret Ja
└– abläuft_am integer Ja
└– Wert Schnur Ja
input_audio_format Schnur Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. Nein
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription Nein
└─ Modell Schnur Nein
instructions Schnur Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind.
Nein
max_response_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
modalities Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio
legen Sie dies auf ["text"] fest.
Nein ['text'; 'audio']
output_audio_format Schnur Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw. Nein
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
speed number Die Geschwindigkeit der gesprochenen Antwort des Modells. 1.0 ist die Standardgeschwindigkeit. 0.25 ist
die Mindestgeschwindigkeit. 1,5 ist die maximale Geschwindigkeit. Dieser Wert kann nur geändert werden.
in between model turns, not while a response is in progress.
Einschränkungen: min: 0,25, max: 1,5
Nein 1
Temperatur number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8. Nein
tool_choice Schnur Gibt an, wie das Modell Tools auswählt. Optionen sind auto, , none, requiredoder
geben Sie eine Funktion an.
Nein
Werkzeuge Array von OpenAI.RealtimeSessionCreateRequestTools Tools (Funktionen), die für das Modell verfügbar sind. Nein
tracing Zeichenfolge oder Objekt Konfigurationsoptionen für die Ablaufverfolgung. Legen Sie auf NULL fest, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein
truncation OpenAI.RealtimeTruncation Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt.
Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist.
Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird.
Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
Nein
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection Nein
└– prefix_padding_ms integer Nein
└– Dauer_der_Stille_in_ms integer Nein
└– Schwellenwert number Nein
└– Typ Schnur Nein
type enum
Möglicher Wert: realtime
Ja
voice OpenAI.VoiceIdsShared Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RealtimeSessionCreateResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen einer Echtzeittranskriptionsitzung

POST {endpoint}/openai/v1/realtime/transcription_sessions

Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeittranskriptionen.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
einschließen Array von Zeichenfolgen Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:
item.input_audio_transcription.logprobs
Nein
input_audio_format enum Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Abtastrate sein,
Einzelkanal (Mono) und kleine Bytereihenfolge.
Mögliche Werte: pcm16, , g711_ulawg711_alaw
Nein
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction Nein
└– Typ OpenAI.NoiseReductionType Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. Nein
input_audio_transcription OpenAI.AudioTranscription Nein
└– Sprache Schnur Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in
ISO-639-1 (z. B. en) Format
verbessert die Genauigkeit und Latenz.
Nein
└─ Modell Schnur Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. Nein
└– Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals
Segment.
For whisper-1, the prompt is a list of keywords.
Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
Nein
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection Nein
└– prefix_padding_ms integer Nein
└– Dauer_der_Stille_in_ms integer Nein
└– Schwellenwert number Nein
└– Typ enum
Möglicher Wert: server_vad
Nein
type enum
Möglicher Wert: transcription
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RealtimeTranscriptionSessionCreateResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Antworten

Antwort erstellen

POST {endpoint}/openai/v1/responses

Erstellt eine Modellantwort.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
background Boolescher Wert oder Null Nein
-Unterhaltung OpenAI.ConversationParam oder NULL Nein
einschließen Array von OpenAI.IncludeEnum oder NULL Nein
Eingabe OpenAI.InputParam Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden.
Weitere Informationen:
- Texteingaben und -ausgaben
- Bildeingänge
- Dateieingaben
- Gesprächszustand
- Funktionsaufrufe
Nein
instructions Zeichenfolge oder null Nein
max_output_tokens ganze Zahl oder Null Nein
max_tool_calls ganze Zahl oder Null Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
Parallele Werkzeugaufrufe Boolescher Wert oder Null Nein
previous_response_id Zeichenfolge oder null Nein
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
prompt_cache_retention Zeichenfolge oder null Nein
reasoning OpenAI.Reasoning oder NULL Nein
safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
store Boolescher Wert oder Null Nein
Datenstrom Boolescher Wert oder Null Nein
stream_options OpenAI.ResponseStreamOptions oder NULL Nein
Temperatur Zahl oder Null Nein
Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
tool_choice OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
top_logprobs ganze Zahl oder Null Nein
top_p Zahl oder Null Nein
truncation Zeichenfolge oder null Nein
user Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt
text/event-stream Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Beispiele

Example

POST {endpoint}/openai/v1/responses

Antwort abrufen

GET {endpoint}/openai/v1/responses/{response_id}

Ruft eine Modellantwort mit der angegebenen ID ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur
include[] Anfrage Nein Array Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. Weitere Informationen finden Sie im Include-Parameter für die Erstellung von Antworten oben.
Datenstrom Anfrage Nein boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird.
starting_after Anfrage Nein integer Die Sequenznummer des Ereignisses, nach dem streaming gestartet werden soll.
include_obfuscation Anfrage Nein boolean Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt einem Feld obfuscation bei Streaming-Delta-Ereignissen zufällige Zeichen hinzu, um Nutzlastgrößen als Risikominderung für bestimmte Seitenkanalangriffe zu normalisieren. Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch dem Datenstrom einen geringen Mehraufwand hinzu. Sie können include_obfuscation auf FALSCH festlegen, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen Ihrer Anwendung und der OpenAI-API vertrauen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Antwort löschen

DELETE {endpoint}/openai/v1/responses/{response_id}

Löscht eine Antwort nach ID.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Antwort abbrechen

POST {endpoint}/openai/v1/responses/{response_id}/cancel

Bricht eine Modellantwort mit der angegebenen ID ab. Es können nur Antworten abgebrochen werden, die mit dem auf "true" festgelegten Hintergrundparameter erstellt wurden.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Listeneingabeelemente

GET {endpoint}/openai/v1/responses/{response_id}/input_items

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id Pfad Ja Schnur
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ResponseItemList

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Themen

Thread erstellen

POST {endpoint}/openai/v1/threads

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
messages Array von OpenAI.CreateMessageRequest Eine Liste der Nachrichten , mit der der Thread gestartet werden soll. Nein
metadata OpenAI.Metadata oder NULL Nein
tool_resources OpenAI.CreateThreadRequestToolResources oder NULL Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ThreadObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen und Ausführen

POST {endpoint}/openai/v1/threads/runs

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
assistant_id Schnur Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. Ja
instructions Zeichenfolge oder null Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
max_completion_tokens ganze Zahl oder Null Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
max_prompt_tokens ganze Zahl oder Null Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. Nein
Parallele Werkzeugaufrufe OpenAI.ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
Antwortformat OpenAI.AssistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im
Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Datenstrom Boolescher Wert oder Null Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. Nein
Temperatur Zahl oder Null Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Nein
thread OpenAI.CreateThreadRequest Optionen zum Erstellen eines neuen Threads. Wenn beim Ausführen eines Threads kein Thread bereitgestellt wird
anforderung, ein leerer Thread wird erstellt.
Nein
tool_choice OpenAI.AssistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Nein
tool_resources OpenAI.CreateThreadAndRunRequestToolResources oder NULL Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. Nein
Werkzeuge Array von OpenAI.AssistantTool Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
top_p Zahl oder Null Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
Nein
truncation_strategy OpenAI.TruncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Thread löschen

DELETE {endpoint}/openai/v1/threads/{thread_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteThreadResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Thread abrufen

GET {endpoint}/openai/v1/threads/{thread_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ThreadObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Thread ändern

POST {endpoint}/openai/v1/threads/{thread_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein
tool_resources OpenAI.ModifyThreadRequestToolResources oder NULL Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ThreadObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Nachrichten auflisten

GET {endpoint}/openai/v1/threads/{thread_id}/messages

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
limit Anfrage Nein integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
after Anfrage Nein Schnur
before Anfrage Nein Schnur
run_id Anfrage Nein Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListMessagesResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Nachricht erstellen

POST {endpoint}/openai/v1/threads/{thread_id}/messages

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attachments Array von OpenAI.CreateMessageRequestAttachments oder NULL Nein
Inhalt Zeichenfolge oder Array von OpenAI.MessageContentImageFileObject oder OpenAI.MessageContentImageUrlObject oder OpenAI.MessageRequestContentTextObject Ja
metadata OpenAI.Metadata oder NULL Nein
role enum Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind:
- user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Mögliche Werte: user, assistant
Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.MessageObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Nachricht löschen

DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
message_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteMessageResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Nachricht abrufen

GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
message_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.MessageObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Nachricht ändern

POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
message_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.MessageObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen einer Ausführung

POST {endpoint}/openai/v1/threads/{thread_id}/runs

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
additional_instructions Zeichenfolge oder null Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. Nein
additional_messages Array von OpenAI.CreateMessageRequest oder NULL Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. Nein
assistant_id Schnur Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. Ja
instructions Zeichenfolge oder null Überschreibt die Anweisungen des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
max_completion_tokens ganze Zahl oder Null Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
max_prompt_tokens ganze Zahl oder Null Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. Nein
Parallele Werkzeugaufrufe OpenAI.ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
Antwortformat OpenAI.AssistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im
Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Datenstrom Boolescher Wert oder Null Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. Nein
Temperatur Zahl oder Null Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Nein
tool_choice OpenAI.AssistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Nein
Werkzeuge Array von OpenAI.AssistantTool Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
top_p Zahl oder Null Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
Nein
truncation_strategy OpenAI.TruncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Ausführungen auflisten

GET {endpoint}/openai/v1/threads/{thread_id}/runs

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
limit Anfrage Nein integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
after Anfrage Nein Schnur
before Anfrage Nein Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListRunsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Ausführen abrufen

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Ausführen ändern

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abbrechen einer Ausführung

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Ausführen von Schritten auflisten

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
run_id Pfad Ja Schnur
limit Anfrage Nein integer
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
after Anfrage Nein Schnur
before Anfrage Nein Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListRunStepsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Get run step

GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
run_id Pfad Ja Schnur
step_id Pfad Ja Schnur

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunStepObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Senden von Toolausgaben zur Ausführung

POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
thread_id Pfad Ja Schnur
run_id Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
Datenstrom Boolescher Wert oder Null Nein
tool_outputs Array von OpenAI.SubmitToolOutputsRunRequestToolOutputs Eine Liste der Tools, für die die Ausgaben übermittelt werden Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.RunObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Vektorspeicher

Auflisten der Vektorspeicher

GET {endpoint}/openai/v1/vector_stores

Gibt eine Liste mit Vektorspeichern zurück.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoresResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen eines Vektorspeichers

POST {endpoint}/openai/v1/vector_stores

Erstellt einen Vektorspeicher.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. Nein
Beschreibung Schnur Eine Beschreibung für den Vektorspeicher. Kann verwendet werden, um den Zweck des Vektorspeichers zu beschreiben. Nein
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
Datei-IDs Array von Zeichenfolgen Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Nein
metadata OpenAI.Metadata oder NULL Nein
Name Schnur Der Name des Vektorspeichers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Beispiele

Example

POST {endpoint}/openai/v1/vector_stores

Abrufen des Vektorspeichers

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}

Ruft einen Vektorspeicher ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des abzurufenden Vektorspeichers.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Ändern des Vektorspeichers

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}

Ändert einen Vektorspeicher.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu ändernden Vektorspeichers.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
metadata OpenAI.Metadata oder NULL Nein
Name Zeichenfolge oder null Der Name des Vektorspeichers. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Löschen des Vektorspeichers

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}

Löschen Sie einen Vektorspeicher.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu löschenden Vektorspeichers.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteVectorStoreResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen eines Vektorspeicher-Dateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches

Erstellen Sie einen Vektorspeicher-Dateibatch.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. Nein
Datei-IDs Array von Zeichenfolgen Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Wenn attributes oder chunking_strategy bereitgestellt wird, werden sie auf alle Dateien im Batch angewendet. Gegenseitiger Ausschluss mit files Nein
files Array von OpenAI.CreateVectorStoreFileRequest Eine Liste von Objekten, die jeweils ein file_id Pluszeichen enthalten, optional attributes oder chunking_strategy. Verwenden Sie diese Vorgehensweise, wenn Sie Metadaten für bestimmte Dateien außer Kraft setzen müssen. Die globale attributes oder chunking_strategy wird ignoriert und muss für jede Datei angegeben werden. Gegenseitiger Ausschluss mit file_ids Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen des Vektorspeicher-Dateibatches

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}

Ruft einen Vektorspeicher-Dateibatch ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des abgerufenen Dateibatches

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abbrechen des Vektorspeicher-Dateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel

Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des zu abbrechenden Dateibatches.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileBatchObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten von Dateien im Vektorspeicher-Batch

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files

Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id Pfad Ja Schnur Die ID des Dateibatches, zu dem die Dateien gehören.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter Anfrage Nein Schnur
Mögliche Werte: in_progress, , completed, failedcancelled
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoreFilesResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Auflisten der Vektorspeicherdateien

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Gibt eine Liste mit Vektorspeicherdateien zurück.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit Anfrage Nein integer Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der
Standardwert ist 20.
order Anfrage Nein Schnur
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc
für absteigende Reihenfolge.
after Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. after ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before Anfrage Nein Schnur Ein Cursor für die Verwendung bei der Paginierung. before ist eine Objekt-ID, die die Position in der Liste definiert.
Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden,
Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter Anfrage Nein Schnur
Mögliche Werte: in_progress, , completed, failedcancelled
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.ListVectorStoreFilesResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Erstellen einer Vektorspeicherdatei

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. Nein
Datei-ID Schnur Eine Datei-ID , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen einer Vektorspeicherdatei

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Ruft eine Vektorspeicherdatei ab.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Datei gehört.
Datei-ID Pfad Ja Schnur Die ID der abgerufenen Datei.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Aktualisieren von Vektorspeicher-Dateiattributen

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur
Datei-ID Pfad Ja Schnur

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Ja

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreFileObject

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Löschen einer Vektorspeicherdatei

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Verwenden Sie zum Löschen der Datei den Endpunkt der Löschdatei.

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des Vektorspeichers, zu dem die Datei gehört.
Datei-ID Pfad Ja Schnur Die ID der zu löschenden Datei.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.DeleteVectorStoreFileResponse

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Abrufen von Vektorspeicherdateiinhalten

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content

Abrufen von Vektorspeicherdateiinhalten

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu durchsuchenden Vektorspeichers.
Datei-ID Pfad Ja Schnur Die ID der Datei, für die Inhalt abgerufen werden soll.

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreSearchResultsPage

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Vektorspeicher durchsuchen

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search

Vektorspeicher durchsuchen

URI-Parameter

Name Geben Sie in Erforderlich Typ Description
endpoint Pfad Ja Schnur Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com
API-Version Anfrage Nein Schnur Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id Pfad Ja Schnur Die ID des zu durchsuchenden Vektorspeichers.

Anforderungstext

Content-Type: application/json

Name Typ Description Erforderlich Default
filters OpenAI.ComparisonFilter oder OpenAI.CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. Nein
max_anzahl_ergebnisse integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen.
Einschränkungen: min: 1, max: 50
Nein 10
Anfrage Zeichenfolge oder Array von Zeichenfolgen Eine Abfragezeichenfolge für eine Suche Ja
Ranglistenoptionen OpenAI.VectorStoreSearchRequestRankingOptions Nein
└– Ranker enum
Mögliche Werte: none, , autodefault-2024-11-15
Nein
└─ Punktschwelle number Einschränkungen: min: 0, max: 1 Nein
rewrite_query boolean Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. Nein

Antworten

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Inhaltstyp Typ Beschreibung
Anwendung/json OpenAI.VectorStoreSearchResultsPage

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Inhaltstyp Typ Beschreibung
Anwendung/json Objekt

Antwortheader:

Header Typ Description
apim-request-id Schnur Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird.

Komponenten

AudioSegment

Name Typ Description Erforderlich Default
avg_logprob number Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. Ja
Kompressionsverhältnis number Das Komprimierungsverhältnis dieses Audiosegments. Ja
Ende number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. Ja
id integer Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. Ja
no_speech_prob number Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. Ja
seek integer Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist.
Suchpositionen werden in Hundertstel Sekunden ausgedrückt.
Das Modell kann mehrere Segmente von einer einzigen Suchposition aus verarbeiten, sodass die Suchposition zwar niemals einen späteren Zeitpunkt
als den Beginn des Segments darstellt, der Beginn des Segments jedoch einen deutlich späteren Zeitpunkt
als die zugehörige Suchposition des Segments darstellen kann.
Ja
Start number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. Ja
Temperatur number Die diesem Audiosegment zugeordnete Temperaturbewertung. Ja
Text Schnur Der übersetzte Text, der Teil dieses Audiosegments war. Ja
tokens Array mit ganzzahliger Zahl Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. Ja

AudioTaskLabel

Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.

Eigentum Wert
Beschreibung Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.
Typ Schnur
Werte transcribe
translate

AudioTranslationSegment

Erweiterte Informationen zu einem einzelnen Segment übersetzter Audiodaten. Segmente stellen in der Regel ungefähr 5-10 Sekunden Sprache dar. Segmentgrenzen treten in der Regel zwischen Wörtern, aber nicht unbedingt zwischen Sätzen auf.

Name Typ Description Erforderlich Default
avg_logprob number Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. Ja
Kompressionsverhältnis number Das Komprimierungsverhältnis dieses Audiosegments. Ja
Ende number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. Ja
id integer Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. Ja
no_speech_prob number Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. Ja
seek integer Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist.
Suchpositionen werden in Hundertstel Sekunden ausgedrückt.
Das Modell kann mehrere Segmente von einer einzigen Suchposition aus verarbeiten, sodass die Suchposition zwar niemals einen späteren Zeitpunkt
als den Beginn des Segments darstellt, der Beginn des Segments jedoch einen deutlich späteren Zeitpunkt
als die zugehörige Suchposition des Segments darstellen kann.
Ja
Start number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. Ja
Temperatur number Die diesem Audiosegment zugeordnete Temperaturbewertung. Ja
Text Schnur Der übersetzte Text, der Teil dieses Audiosegments war. Ja
tokens Array mit ganzzahliger Zahl Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. Ja

AzureAIFoundryModelsApiVersion

Eigentum Wert
Typ Schnur
Werte v1
preview

AzureAudioTranscriptionResponse

Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text transkribiert hat.

Name Typ Description Erforderlich Default
Dauer number Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Transkriptionsinformationen zu erzeugen. Nein
language Schnur Die gesprochene Sprache, die in den transkribierten Audiodaten erkannt wurde.
Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt.
Nein
segments Array von OpenAI.TranscriptionSegment Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. Nein
Aufgabe AudioTaskLabel Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. Nein
Text Schnur Der transkribierte Text für die bereitgestellten Audiodaten. Ja
words Array von OpenAI.TranscriptionWord Eine Sammlung von Informationen über den Zeitpunkt jedes verarbeiteten Worts. Nein

AzureAudioTranslationResponse

Ergebnis für einen Vorgang, der ein gesprochenes Audio in geschriebenen Text übersetzt hat.

Name Typ Description Erforderlich Default
Dauer number Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Übersetzungsinformationen zu erzeugen. Nein
language Schnur Die gesprochene Sprache, die in den übersetzten Audiodaten erkannt wurde.
Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt.
Nein
segments Array von AudioTranslationSegment Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. Nein
Aufgabe AudioTaskLabel Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. Nein
Text Schnur Der übersetzte Text für die bereitgestellten Audiodaten. Ja

AzureCompletionsSamplingParams

Samplingparameter zum Steuern des Verhaltens der Vervollständigungen.

Name Typ Description Erforderlich Default
max_completion_tokens integer Nein
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Tokens in der generierten Ausgabe. Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
Antwortformat OpenAI.ResponseFormatText oder OpenAI.ResponseFormatJsonSchema oder OpenAI.ResponseFormatJsonObject Nein
seed integer Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. Nein 42
Temperatur number Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. Nein 1
Werkzeuge Array von OpenAI.ChatCompletionTool Nein
top_p number Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. Nein 1

AzureContentFilterBlocklistIdResult

Ein Inhaltsfilterergebniselement, das eine vorhandene benutzerdefinierte Blocklisten-ID einem Wert zuordnet, der angibt, ob die entsprechende Blockliste dazu führte, dass Inhalte gefiltert wurden.

Name Typ Description Erforderlich Default
gefiltert boolean Gibt an, ob die zugeordnete Blockliste dazu führte, dass der Inhalt gefiltert wurde. Ja
id Schnur Die ID der benutzerdefinierten Blockliste, die dem gefilterten Status zugeordnet ist. Ja

AzureContentFilterBlocklistResult

Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.

Name Typ Description Erforderlich Default
details Objektarray Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja

AzureContentFilterCompletionTextSpan

Eine Darstellung eines Bereichs des Vervollständigungstexts, der von Azure OpenAI-Inhaltsfilterergebnissen verwendet wird.

Name Typ Description Erforderlich Default
completion_end_offset integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. Ja
completion_start_offset integer Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. Ja

AzureContentFilterCompletionTextSpanDetectionResult

Name Typ Description Erforderlich Default
details Array von AzureContentFilterCompletionTextSpan Detaillierte Informationen zu den erkannten Abschlusstextabschnitten. Ja
erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja

AzureContentFilterCustomTopicIdResult

Ein Inhaltsfilterergebniselement, das eine vorhandene benutzerdefinierte Themen-ID einem Wert zuordnet, der angibt, ob das entsprechende Thema dazu führte, dass Inhalte erkannt wurden.

Name Typ Description Erforderlich Default
erkannt boolean Gibt an, ob das zugeordnete benutzerdefinierte Thema dazu führte, dass der Inhalt erkannt wurde. Ja
id Schnur Die ID des benutzerdefinierten Themas, das dem erkannten Status zugeordnet ist. Ja

AzureContentFilterCustomTopicResult

Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen.

Name Typ Description Erforderlich Default
details Objektarray Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja

AzureContentFilterDetectionResult

Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.

Name Typ Description Erforderlich Default
erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja

AzureContentFilterForResponsesAPI

Name Typ Description Erforderlich Default
Blockiert boolean Geben Sie an, ob die Antwort blockiert ist. Ja
content_filter_offsets AzureContentFilterResultOffsets Ja
Content-Filtern-Egebnisse AzureContentFilterResultsForResponsesAPI Ja
└– benutzerdefinierte Sperrlisten AzureContentFilterBlocklistResult Eine Sammlung von binären Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– custom_topics AzureContentFilterCustomTopicResult Eine Sammlung von binären Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Fehler Objekt Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. Nein
└– Code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Ja
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Ja
└– Hass AzureContentFilterSeverityResult Eine Inhaltsfilterkategorie, die auf inhalte verweisen kann, die angriffe oder diskriminierende oder diskriminierende Inhalte verwenden
Sprache mit Verweis auf eine Person oder Identitätsgruppe basierend auf bestimmten Unterscheidungsattributen dieser Gruppen
einschließlich, aber nicht beschränkt auf Rasse, ethnische Zugehörigkeit, Nationalität, Geschlechtsidentität und Ausdruck, sexuelle Orientierung,
Religion, Einwanderungsstatus, Fähigkeitsstatus, persönliches Aussehen und Körpergröße.
Nein
└– indirekter_Angriff AzureContentFilterDetectionResult Ein Erkennungsergebnis, das Angriffe auf Systeme beschreibt, die von generativen KI-Modellen unterstützt werden, die jedes Mal auftreten können
eine Anwendung verarbeitet Informationen, die nicht direkt vom Entwickler der Anwendung erstellt wurden oder
der Benutzer.
Nein
└– Entsperrung AzureContentFilterDetectionResult Ein Erkennungsergebnis, das Benutzereinfügungsangriffe beschreibt, bei denen böswillige Benutzer absichtlich Exploits ausnutzen
Systemrisiken, um nicht autorisiertes Verhalten von der LLM zu entlocken. Dies kann zu unangemessenem Inhalt führen
Generierung oder Verstöße gegen vom System auferlegte Einschränkungen.
Ja
└– personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Ein Erkennungsergebnis, das Übereinstimmungen mit personenbezogenen Informationen mit konfigurierbaren Unterkategorien beschreibt. Nein
└– Profanität AzureContentFilterDetectionResult Ein Erkennungsergebnis, das angibt, ob roh, vulgär oder anderweitig Einspruchssprache in der
Inhalt.
Nein
└– protected_material_code Objekt Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. Nein
└- Zitat Objekt Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. Nein
└– URL Schnur Die mit der Lizenz verknüpfte URL. Nein
└– Lizenz Schnur Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
└– protected_material_text AzureContentFilterDetectionResult Ein Erkennungsergebnis, das eine Übereinstimmung mit Text beschreibt, der durch das Urheberrecht oder einen anderen Status geschützt ist. Nein
└– Selbstverletzung AzureContentFilterSeverityResult Eine Inhaltsfilterkategorie, die die Sprache beschreibt, die sich auf physische Handlungen bezieht, die absichtlich verletzen, verletzt werden sollen,
schaden sie dem Körper oder töten sich selbst.
Nein
└─ sexuell AzureContentFilterSeverityResult Eine Inhaltsfilterkategorie für Sprache im Zusammenhang mit anatomischen Organen und Genitalien, romantische Beziehungen, Handlungen
dargestellt in erotischen oder liebevollen Begriffen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich derer, die als ein
Angriff oder ein erzwungener sexueller Gewaltakt gegen willens, Prostitution, Pornografie und Missbrauch.
Nein
└– task_adherence AzureContentFilterDetectionResult Ein Erkennungsergebnis, das angibt, ob der Ausführungsfluss den Plan noch hält. Ja
└– ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nein
└– Gewalt AzureContentFilterSeverityResult Eine Inhaltsfilterkategorie für Sprache im Zusammenhang mit körperlichen Handlungen, die verletzt, verletzt, beschädigt oder getötet werden sollen
jemand oder etwas; beschreibt Waffen, Waffen und verwandte Entitäten, z. B. Herstellungen, Verbände,
Rechtsvorschriften usw.
Nein
source_type Schnur Der Name des Quelltyps der Nachricht. Ja

AzureContentFilterHarmExtensions

Erweiterungen für Schadenkategorien, die zusätzliche Konfigurationsoptionen bereitstellen.

Name Typ Description Erforderlich Default
pii_sub_categories Array von AzurePiiSubCategory Konfiguration für PIIHarmSubCategory(s). Nein

AzureContentFilterImagePromptResults

Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs.

Name Typ Description Erforderlich Default
custom_blocklists AzureContentFilterBlocklistResult Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Objektarray Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. Ja
└– ID Schnur Die ID der benutzerdefinierten Blockliste ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja
custom_topics AzureContentFilterCustomTopicResult Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Objektarray Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└– erkannt boolean Ein Wert, der angibt, ob das Thema erkannt wird. Ja
└– ID Schnur Die ID des benutzerdefinierten Themas ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja
hate AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
jailbreak AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Ja
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
Profanität AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
Selbstverletzung AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
sexual AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
Gewalt AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureContentFilterImageResponseResults

Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs.

Name Typ Description Erforderlich Default
hate AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
Selbstverletzung AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
sexual AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
Gewalt AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureContentFilterPersonallyIdentifiableInformationResult

Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten.

Name Typ Description Erforderlich Default
erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
redacted_text Schnur Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. Nein
sub_categories Array von AzurePiiSubCategoryResult Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). Nein

AzureContentFilterResultForChoice

Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.

Name Typ Description Erforderlich Default
custom_blocklists AzureContentFilterBlocklistResult Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Objektarray Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. Ja
└– ID Schnur Die ID der benutzerdefinierten Blockliste ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja
custom_topics AzureContentFilterCustomTopicResult Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Objektarray Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└– erkannt boolean Ein Wert, der angibt, ob das Thema erkannt wird. Ja
└– ID Schnur Die ID des benutzerdefinierten Themas ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja
Fehler Objekt Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. Nein
└– Code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Ja
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Ja
hate AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten. Nein
└– redacted_text Schnur Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. Nein
└─ Unterkategorien Array von AzurePiiSubCategoryResult Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). Nein
Profanität AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
protected_material_code Objekt Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. Nein
└- Zitat Objekt Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. Nein
└– URL Schnur Die mit der Lizenz verknüpfte URL. Nein
└– Lizenz Schnur Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
protected_material_text AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
Selbstverletzung AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
sexual AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nein
Gewalt AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureContentFilterResultForPrompt

Ein Inhaltsfilterergebnis, das einem einzelnen Eingabeaufforderungselement in einem generativen KI-System zugeordnet ist.

Name Typ Description Erforderlich Default
Content-Filtern-Egebnisse Objekt Die Inhaltsfilterkategoriedetails für das Ergebnis. Nein
└– benutzerdefinierte Sperrlisten AzureContentFilterBlocklistResult Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Objektarray Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. Ja
└– ID Schnur Die ID der benutzerdefinierten Blockliste ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja
└– custom_topics AzureContentFilterCustomTopicResult Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Objektarray Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└– erkannt boolean Ein Wert, der angibt, ob das Thema erkannt wird. Ja
└– ID Schnur Die ID des benutzerdefinierten Themas ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja
└– Fehler Objekt Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. Nein
└– Code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Ja
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Ja
└– Hass AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
└– indirekter_Angriff AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Ja
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
└– Entsperrung AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Ja
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
└– Profanität AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
└– Selbstverletzung AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
└─ sexuell AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
└– Gewalt AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
prompt_index integer Der Index der Eingabeaufforderung, die den zugehörigen Inhaltsfilterergebniskategorien zugeordnet ist. Nein

AzureContentFilterResultOffsets

Name Typ Description Erforderlich Default
check_offset integer Ja
end_offset integer Ja
start_offset integer Ja

AzureContentFilterResultsForResponsesAPI

Name Typ Description Erforderlich Default
custom_blocklists AzureContentFilterBlocklistResult Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. Nein
└– Einzelheiten Objektarray Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. Nein
└- gefiltert boolean Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. Ja
└– ID Schnur Die ID der benutzerdefinierten Blockliste ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Ja
custom_topics AzureContentFilterCustomTopicResult Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. Nein
└– Einzelheiten Objektarray Die Paare einzelner Themen-IDs und ob sie erkannt werden. Nein
└– erkannt boolean Ein Wert, der angibt, ob das Thema erkannt wird. Ja
└– ID Schnur Die ID des benutzerdefinierten Themas ausgewertet. Ja
└- gefiltert boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Ja
Fehler Objekt Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. Nein
└– Code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. Ja
└– Nachricht Schnur Eine lesbare Nachricht, die dem Fehler zugeordnet ist. Ja
hate AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
indirect_attack AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
jailbreak AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Ja
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
personally_identifiable_information AzureContentFilterPersonallyIdentifiableInformationResult Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten. Nein
└– redacted_text Schnur Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. Nein
└─ Unterkategorien Array von AzurePiiSubCategoryResult Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). Nein
Profanität AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
protected_material_code Objekt Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. Nein
└- Zitat Objekt Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. Nein
└– URL Schnur Die mit der Lizenz verknüpfte URL. Nein
└– Lizenz Schnur Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
protected_material_text AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Nein
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
Selbstverletzung AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
sexual AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja
task_adherence AzureContentFilterDetectionResult Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war.
gefiltert.
Ja
└– erkannt boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Ja
└- gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Ja
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult Nein
Gewalt AzureContentFilterSeverityResult Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war.
Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie.
Nein
└- gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
└– Schweregrad enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureContentFilterSeverityResult

Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde.

Name Typ Description Erforderlich Default
gefiltert boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Ja
severity enum Der markierte Schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Ja

AzureFileExpiryAnchor

Eigentum Wert
Typ Schnur
Werte created_at

AzureFineTuneReinforcementMethod

Name Typ Description Erforderlich Default
Bewerter OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint Ja
Hyperparameter OpenAI.FineTuneReinforcementHyperparameters Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter. Nein
Antwortformat ResponseFormatJSONSchemaRequest Nein
└– json_schema Objekt JSON-Schema für das Antwortformat Ja
└– Typ enum Typ des Antwortformats
Möglicher Wert: json_schema
Ja

AzurePiiSubCategory

Konfiguration für einzelne PIIHarmSubCategory(en) innerhalb des Harm Extensions Frameworks.

Name Typ Description Erforderlich Default
Erkennen boolean Gibt an, ob die Erkennung für diese Unterkategorie aktiviert ist. Ja
filter boolean Gibt an, ob Inhalte, die diese Unterkategorie enthalten, blockiert werden sollen. Ja
Redact boolean Gibt an, ob Inhalte, die diese Unterkategorie enthalten, redacted werden sollen. Ja
sub_category Schnur Die konfigurierte PIIHarmSubCategory. Ja

AzurePiiSubCategoryResult

Ergebnisdetails für einzelne PIIHarmSubCategory(s).

Name Typ Description Erforderlich Default
erkannt boolean Gibt an, ob die gekennzeichnete Inhaltsunterkategorie im Inhalt erkannt wurde. Ja
gefiltert boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion für diese Unterkategorie geführt hat. Ja
redigiert boolean Gibt an, ob der Inhalt für diese Unterkategorie redigiert wurde. Ja
sub_category Schnur Die PIIHarmSubCategory, die ausgewertet wurde. Ja

AzureResponsesSamplingParams

Samplingparameter zum Steuern des Verhaltens von Antworten.

Name Typ Description Erforderlich Default
maximale_Anzahl_von_Tokens integer Die maximale Anzahl von Tokens in der generierten Ausgabe. Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
seed integer Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. Nein 42
Temperatur number Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. Nein 1
Text OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText Nein
Werkzeuge Array von OpenAI.Tool Nein
top_p number Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. Nein 1

AzureUserSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.

Name Typ Description Erforderlich Default
application_name Schnur Der Name der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. Nein
end_user_id Schnur Dieser Bezeichner ist die Microsoft Entra ID (früher Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. Nein
end_user_tenant_id Schnur Die Mandanten-ID von Microsoft 365, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung multitenant ist. Nein
source_ip Schnur Erfasst die IP-Adresse des ursprünglichen Clients. Nein

CopiedAccountDetails

Name Typ Description Erforderlich Default
destinationResourceId Schnur Die ID der Zielressource, in die das Modell kopiert wurde. Ja
region Schnur Die Region, in die das Modell kopiert wurde. Ja
status enum Der Status des Kopiervorgangs.
Mögliche Werte: Completed, , FailedInProgress
Ja

CopyModelRequest

Name Typ Description Erforderlich Default
destinationResourceId Schnur Die ID der zu kopierenden Zielressource. Ja
region Schnur Die Region, in die das Modell kopiert werden soll. Ja

CopyModelResponse

Name Typ Description Erforderlich Default
checkpointedModelName Schnur Die ID des kopierten Modells. Ja
copiedAccountDetails Array von "CopiedAccountDetails" Die ID der Zielressourcen-ID, in die sie kopiert wurde Ja
fineTuningJobId Schnur Die ID des Feinabstimmungsauftrags, aus dem der Prüfpunkt kopiert wurde. Ja

CreateVideoBody

Name Typ Description Erforderlich Default
Modell Schnur Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll Ja
prompt Schnur Textaufforderung, die das zu generierende Video beschreibt.
Einschränkungen: minLength: 1
Ja
Sekunden VideoSeconds Unterstützte Clipdauern, gemessen in Sekunden. Nein 4
Größe VideoSize Ausgabeabmessungen, die als {width}x{height}. Nein 720x1280

CreateVideoBodyWithInputReference

Die Eigenschaften einer Anforderung eines Auftrags zur Videogenerierung mit Mediendateien.

Name Typ Description Erforderlich Default
input_reference Objekt Optionaler Bildverweis, der die Generierung führt. Ja
Modell Objekt Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll Ja
prompt Objekt Textaufforderung, die das zu generierende Video beschreibt. Ja
Sekunden Objekt Clipdauer in Sekunden. Der Standardwert ist 4 Sekunden. Nein
Größe Objekt Ausgabeauflösung, die als Breite x Höhe formatiert ist. Der Standardwert ist 720 x 1280. Nein

CreateVideoRemixBody

Parameter zum Remixen eines vorhandenen generierten Videos.

Name Typ Description Erforderlich Default
prompt Schnur Aktualisierte Textaufforderung, die die Remixgenerierung leitet.
Einschränkungen: minLength: 1
Ja

DeletedVideoResource

Bestätigungsnutzlast, die nach dem Löschen eines Videos zurückgegeben wurde.

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, dass die Videoressource gelöscht wurde. Ja Richtig
id Schnur Bezeichner des gelöschten Videos. Ja
Objekt Schnur Der Objekttyp, der die Löschantwort signalisiert. Ja video.deleted

Fehler

Name Typ Description Erforderlich Default
code Schnur Ja
Nachricht Schnur Ja

EvalGraderEndpoint

Name Typ Description Erforderlich Default
headers -Objekt oder Null Optionale HTTP-Header, die in Anforderungen an den Endpunkt eingeschlossen werden sollen Nein
Name Schnur Der Name des Graders Ja
Schwellenwert erreichen Zahl oder Null Optionaler Schwellenwert, über dem die Noten als bestanden betrachtet werden
Wenn nicht angegeben, werden alle Bewertungen als gültig betrachtet.
Nein
rate_limit ganze Zahl oder Null Optionales Zinslimit für Anforderungen pro Sekunde an den Endpunkt
Muss eine positive ganze Zahl sein
Nein
type enum
Möglicher Wert: endpoint
Ja
url Schnur Die HTTPS-URL des Endpunkts, der für die Benotung aufgerufen werden soll
Einschränkungen: Muster:^https://
Ja

GraderEndpoint

Endpunkt-Graderkonfiguration für die Auswertung externer HTTP-Endpunkte

Name Typ Description Erforderlich Default
headers -Objekt oder Null Optionale HTTP-Header, die in Anforderungen an den Endpunkt eingeschlossen werden sollen Nein
Name Schnur Der Name des Graders Ja
Schwellenwert erreichen Zahl oder Null Optionaler Schwellenwert, über dem die Noten als bestanden betrachtet werden
Wenn nicht angegeben, werden alle Bewertungen als gültig betrachtet.
Nein
rate_limit ganze Zahl oder Null Optionales Zinslimit für Anforderungen pro Sekunde an den Endpunkt
Muss eine positive ganze Zahl sein
Nein
type enum
Möglicher Wert: endpoint
Ja
url Schnur Die HTTPS-URL des Endpunkts, der für die Benotung aufgerufen werden soll
Einschränkungen: Muster:^https://
Ja

OpenAI.Annotation

Eine Anmerkung, die sich auf einen Bereich von Ausgabetext bezieht.

Diskriminator für OpenAI.Annotation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_citation OpenAI.FileCitationBody
url_citation OpenAI.UrlCitationBody
container_file_citation OpenAI.ContainerFileCitationBody
file_path OpenAI.FilePath
Name Typ Description Erforderlich Default
type OpenAI.AnnotationType Ja

OpenAI.AnnotationType

Eigentum Wert
Typ Schnur
Werte file_citation
url_citation
container_file_citation
file_path

OpenAI.ApplyPatchCallOutputStatus

Eigentum Wert
Typ Schnur
Werte completed
failed

OpenAI.ApplyPatchCallStatus

Eigentum Wert
Typ Schnur
Werte in_progress
completed

OpenAI.ApplyPatchCreateFileOperation

Anweisung, die beschreibt, wie eine Datei über das apply_patch Tool erstellt wird.

Name Typ Description Erforderlich Default
Unterschiede Schnur Diff, das angewendet werden soll. Ja
Pfad Schnur Pfad der zu erstellenden Datei. Ja
type enum Erstellen Sie eine neue Datei mit dem bereitgestellten Diff.
Möglicher Wert: create_file
Ja

OpenAI.ApplyPatchDeleteFileOperation

Anweisung, die beschreibt, wie eine Datei über das apply_patch-Tool gelöscht wird.

Name Typ Description Erforderlich Default
Pfad Schnur Pfad der zu löschenden Datei. Ja
type enum Löschen Sie die angegebene Datei.
Möglicher Wert: delete_file
Ja

OpenAI.ApplyPatchFileOperation

Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden.

Diskriminator für OpenAI.ApplyPatchFileOperation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
create_file OpenAI.ApplyPatchCreateFileOperation
delete_file OpenAI.ApplyPatchDeleteFileOperation
update_file OpenAI.ApplyPatchUpdateFileOperation
Name Typ Description Erforderlich Default
type OpenAI.ApplyPatchFileOperationType Ja

OpenAI.ApplyPatchFileOperationType

Eigentum Wert
Typ Schnur
Werte create_file
delete_file
update_file

OpenAI.ApplyPatchToolParam

Ermöglicht es dem Assistenten, Dateien mit einheitlichen Differenzen zu erstellen, zu löschen oder zu aktualisieren.

Name Typ Description Erforderlich Default
type enum Der Typ des Tools. Immer apply_patch.
Möglicher Wert: apply_patch
Ja

OpenAI.ApplyPatchUpdateFileOperation

Anweisung, die beschreibt, wie eine Datei über das apply_patch Tool aktualisiert wird.

Name Typ Description Erforderlich Default
Unterschiede Schnur Diff, das angewendet werden soll. Ja
Pfad Schnur Pfad der zu aktualisierenden Datei. Ja
type enum Aktualisieren Sie eine vorhandene Datei mit dem bereitgestellten Diff.
Möglicher Wert: update_file
Ja

OpenAI.ApproximateLocation

Name Typ Description Erforderlich Default
city Zeichenfolge oder null Nein
country Zeichenfolge oder null Nein
region Zeichenfolge oder null Nein
timezone Zeichenfolge oder null Nein
type enum Die Art der Ortsapproximation. Immer approximate.
Möglicher Wert: approximate
Ja

OpenAI.AssistantTool

Diskriminator für OpenAI.AssistantTool

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
code_interpreter OpenAI.AssistantToolsCode
file_search OpenAI.AssistantToolsFileSearch
function OpenAI.AssistantToolsFunction
Name Typ Description Erforderlich Default
type OpenAI.AssistantToolType Ja

OpenAI.AssistantToolType

Eigentum Wert
Typ Schnur
Werte code_interpreter
file_search
function

OpenAI.AssistantToolsCode

Name Typ Description Erforderlich Default
type enum Die Art des Tools, das definiert wird: code_interpreter
Möglicher Wert: code_interpreter
Ja

OpenAI.AssistantToolsFileSearch

Name Typ Description Erforderlich Default
file_search OpenAI.AssistantToolsFileSearchFileSearchSearch Nein
└– max_num_results integer Einschränkungen: min: 1, max: 50 Nein
└– ranking_options OpenAI.FileSearchRankingOptions Die Bewertungsoptionen für die Dateisuche. Wenn nicht angegeben, verwendet das Dateisuchtool den auto Rangfolger und einen score_threshold von 0.
Weitere Informationen finden Sie in der Dokumentation zum Dateisuchtool .
Nein
type enum Die Art des Tools, das definiert wird: file_search
Möglicher Wert: file_search
Ja

OpenAI.AssistantToolsFileSearchFileSearchSearch

Name Typ Description Erforderlich Default
max_anzahl_ergebnisse integer Einschränkungen: min: 1, max: 50 Nein
Ranglistenoptionen OpenAI.FileSearchRankingOptions Die Bewertungsoptionen für die Dateisuche. Wenn nicht angegeben, verwendet das Dateisuchtool den auto Rangfolger und einen score_threshold von 0.
Weitere Informationen finden Sie in der Dokumentation zum Dateisuchtool .
Nein

OpenAI.AssistantToolsFileSearchTypeOnly

Name Typ Description Erforderlich Default
type enum Die Art des Tools, das definiert wird: file_search
Möglicher Wert: file_search
Ja

OpenAI.AssistantToolsFunction

Name Typ Description Erforderlich Default
Funktion OpenAI.FunctionObject Ja
type enum Die Art des Tools, das definiert wird: function
Möglicher Wert: function
Ja

OpenAI.AssistantsApiResponseFormatOption

Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106. Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Erfahren Sie mehr in der Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

Typ: Zeichenfolge oder OpenAI.ResponseFormatText oder OpenAI.ResponseFormatJsonObject oder OpenAI.ResponseFormatJsonSchema

Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106. Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Erfahren Sie mehr in der Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.

OpenAI.AssistantsApiToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert. Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.

Typ: Zeichenfolge oder OpenAI.AssistantsNamedToolChoice

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert. auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert. Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.

OpenAI.AssistantsNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.

Name Typ Description Erforderlich Default
Funktion OpenAI.AssistantsNamedToolChoiceFunction Nein
type enum Der Typ des Tools. Wenn der Typ function ist, muss der Funktionsname festgelegt werden.
Mögliche Werte: function, , code_interpreterfile_search
Ja

OpenAI.AssistantsNamedToolChoiceFunction

Name Typ Description Erforderlich Default
Name Schnur Ja

OpenAI.AudioTranscription

Name Typ Description Erforderlich Default
language Schnur Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in
ISO-639-1 (z. B. en) Format
verbessert die Genauigkeit und Latenz.
Nein
Modell Schnur Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. Nein
prompt Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals
Segment.
For whisper-1, the prompt is a list of keywords.
Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
Nein

OpenAI.AutoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.

Name Typ Description Erforderlich Default
type enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.Batch

Name Typ Description Erforderlich Default
cancelled_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abgebrochen wurde. Nein
cancelling_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abgebrochen wurde. Nein
abgeschlossen_am integer Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Batches. Nein
Abschlussfenster Schnur Der Zeitrahmen, in dem der Batch verarbeitet werden soll. Ja
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Batches. Ja
endpoint Schnur Der vom Batch verwendete OpenAI-API-Endpunkt. Ja
error_file_id Schnur Die ID der Datei, die die Ausgaben der fehlerhaften Anfragen enthält. Nein
Irrtümer OpenAI.BatchErrors Nein
abgelaufen_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abgelaufen ist. Nein
läuft_ab_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abläuft. Nein
failed_at integer Der Unix-Zeitstempel (in Sekunden) für den Fehler des Batches. Nein
finalizing_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Fertigstellung des Batches. Nein
id Schnur Ja
in_progress_at integer Der Unix-Zeitstempel (in Sekunden) für den Beginn der Verarbeitung des Batches. Nein
input_file_id Zeichenfolge oder null Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Modell-ID, die zum Verarbeiten des Batches verwendet wird, z gpt-5-2025-08-07. B. . OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Verweisen auf das Modell
Leitfaden
zum Durchsuchen und Vergleichen der verfügbaren Modelle.
Nein
Objekt enum Der Objekttyp, der immer batch ist.
Möglicher Wert: batch
Ja
Ausgabedatei-ID Schnur Die ID der Datei, die die Ausgabedateien der erfolgreich ausgeführten Anforderungen enthält. Nein
Anfrageanzahl OpenAI.BatchRequestCounts Die Anforderung gilt für unterschiedliche Status innerhalb des Batches. Nein
status enum Der aktuelles Status des Batches.
Mögliche Werte: validating, , failed, in_progressfinalizing, completed, , expired, cancellingcancelled
Ja
usage OpenAI.BatchUsage Nein
└─ Eingabe-Tokens integer Ja
└– input_tokens_details OpenAI.BatchUsageInputTokensDetails Ja
└– Ausgabe-Tokens integer Ja
└– output_tokens_details OpenAI.BatchUsageOutputTokensDetails Ja
└– total_tokens integer Ja

OpenAI.BatchError

Name Typ Description Erforderlich Default
code Schnur Ein Fehlercode, der den Fehlertyp angibt. Nein
line ganze Zahl oder Null Nein
Nachricht Schnur Eine lesbare Nachricht, die weitere Details zum Fehler bereitstellt. Nein
param Zeichenfolge oder null Nein

OpenAI.BatchErrors

Name Typ Description Erforderlich Default
Daten Array von OpenAI.BatchError Nein
Objekt Schnur Nein

OpenAI.BatchRequestCounts

Die Anforderung gilt für unterschiedliche Status innerhalb des Batches.

Name Typ Description Erforderlich Default
abgeschlossen integer Anzahl der Anforderungen, die erfolgreich abgeschlossen wurden. Ja
misslungen integer Anzahl der fehlgeschlagenen Anforderungen. Ja
gesamt integer Gesamtanzahl der Anforderungen im Batch. Ja

OpenAI.BatchUsage

Name Typ Description Erforderlich Default
input_tokens integer Ja
input_tokens_details OpenAI.BatchUsageInputTokensDetails Ja
output_tokens integer Ja
output_tokens_details OpenAI.BatchUsageOutputTokensDetails Ja
Gesamtanzahl Tokens integer Ja

OpenAI.BatchUsageInputTokensDetails

Name Typ Description Erforderlich Default
cached_tokens integer Ja

OpenAI.BatchUsageOutputTokensDetails

Name Typ Description Erforderlich Default
Begründungs_Token integer Ja

OpenAI.ChatCompletionAllowedTools

Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.

Name Typ Description Erforderlich Default
mode enum Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.
auto ermöglicht es dem Modell, zwischen den zulässigen Tools zu wählen und eine
Meldung.
required erfordert, dass das Modell mindestens eins der zulässigen Tools aufruft.
Mögliche Werte: auto, required
Ja
Werkzeuge Objektarray Eine Liste der Tooldefinitionen, die das Modell aufrufen darf.
Für die Api für Chatabschlusse kann die Liste der Tooldefinitionen wie folgt aussehen:
json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br>
Ja

OpenAI.ChatCompletionAllowedToolsChoice

Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.

Name Typ Description Erforderlich Default
erlaubte_Werkzeuge OpenAI.ChatCompletionAllowedTools Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz. Ja
type enum Zulässiger Toolkonfigurationstyp. Immer allowed_tools.
Möglicher Wert: allowed_tools
Ja

OpenAI.ChatCompletionFunctionCallOption

Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.

Name Typ Description Erforderlich Default
Name Schnur Der Name der aufzurufenden Funktion. Ja

OpenAI.ChatCompletionFunctions

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
parameters OpenAI.FunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Siehe die leitfaden für Beispiele und die JSON Schema Reference für Dokumentationen zum Format.
Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein

OpenAI.ChatCompletionMessageCustomToolCall

Ein Aufruf eines benutzerdefinierten Tools, das vom Modell erstellt wurde.

Name Typ Description Erforderlich Default
custom OpenAI.ChatCompletionMessageCustomToolCallCustom Ja
└– Eingabe Schnur Ja
└– Name Schnur Ja
id Schnur Die ID des Toolaufrufs Ja
type enum Der Typ des Tools. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.ChatCompletionMessageCustomToolCallCustom

Name Typ Description Erforderlich Default
Eingabe Schnur Ja
Name Schnur Ja

OpenAI.ChatCompletionMessageToolCall

Ein Aufruf eines Funktionstools, das vom Modell erstellt wurde.

Name Typ Description Erforderlich Default
Funktion OpenAI.ChatCompletionMessageToolCallFunction Ja
└- Argumente Schnur Ja
└– Name Schnur Ja
id Schnur Die ID des Toolaufrufs Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionMessageToolCallChunk

Name Typ Description Erforderlich Default
Funktion OpenAI.ChatCompletionMessageToolCallChunkFunction Nein
id Schnur Die ID des Toolaufrufs Nein
Index integer Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Nein

OpenAI.ChatCompletionMessageToolCallChunkFunction

Name Typ Description Erforderlich Default
Argumente Schnur Nein
Name Schnur Nein

OpenAI.ChatCompletionMessageToolCallFunction

Name Typ Description Erforderlich Default
Argumente Schnur Ja
Name Schnur Ja

OpenAI.ChatCompletionMessageToolCalls

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

OpenAI.ChatCompletionMessageToolCallsItem

Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.

OpenAI.ChatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Description Erforderlich Default
Funktion OpenAI.ChatCompletionNamedToolChoiceFunction Ja
type enum Bei Funktionsaufrufen ist der Typ immer function.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionNamedToolChoiceCustom

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes benutzerdefiniertes Tool aufruft.

Name Typ Description Erforderlich Default
custom OpenAI.ChatCompletionNamedToolChoiceCustomCustom Ja
type enum Für benutzerdefinierte Toolaufrufe ist der Typ immer custom.
Möglicher Wert: custom
Ja

OpenAI.ChatCompletionNamedToolChoiceCustomCustom

Name Typ Description Erforderlich Default
Name Schnur Ja

OpenAI.ChatCompletionNamedToolChoiceFunction

Name Typ Description Erforderlich Default
Name Schnur Ja

OpenAI.ChatCompletionRequestAssistantMessage

Nachrichten, die vom Modell als Reaktion auf Benutzernachrichten gesendet werden.

Name Typ Description Erforderlich Default
audio OpenAI.ChatCompletionRequestAssistantMessageAudio oder null Daten zu einer vorherigen Audioantwort aus dem Modell. Nein
Inhalt string or array of OpenAI.ChatCompletionRequestAssistantMessageContentPart or null Nein
function_call OpenAI.ChatCompletionRequestAssistantMessageFunctionCall oder null Nein
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
Ablehnung Zeichenfolge oder null Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).
Möglicher Wert: assistant
Ja
tool_calls OpenAI.ChatCompletionMessageToolCalls Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein

OpenAI.ChatCompletionRequestAssistantMessageAudio

Name Typ Description Erforderlich Default
id Schnur Ja

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Diskriminator für OpenAI.ChatCompletionRequestAssistantMessageContentPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
text OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Name Typ Description Erforderlich Default
type OpenAI.ChatCompletionRequestAssistantMessageContentPartType Ja

OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText

Erfahren Sie mehr über Texteingaben.

Name Typ Description Erforderlich Default
Text Schnur Der Textinhalt. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: text
Ja

OpenAI.ChatCompletionRequestAssistantMessageContentPartType

Eigentum Wert
Typ Schnur
Werte text
refusal

OpenAI.ChatCompletionRequestAssistantMessageFunctionCall

Name Typ Description Erforderlich Default
Argumente Schnur Ja
Name Schnur Ja

OpenAI.ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array von OpenAI.ChatCompletionRequestMessageContentPartText Der Inhalt der Entwicklernachricht. Ja
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).
Möglicher Wert: developer
Ja

OpenAI.ChatCompletionRequestFunctionMessage

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder null Ja
Name Schnur Der Name der aufzurufenden Funktion. Ja
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: function).
Möglicher Wert: function
Ja

OpenAI.ChatCompletionRequestMessage

Diskriminator für OpenAI.ChatCompletionRequestMessage

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
assistant OpenAI.ChatCompletionRequestAssistantMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
function OpenAI.ChatCompletionRequestFunctionMessage
system OpenAI.ChatCompletionRequestSystemMessage
user OpenAI.ChatCompletionRequestUserMessage
tool OpenAI.ChatCompletionRequestToolMessage
Name Typ Description Erforderlich Default
role OpenAI.ChatCompletionRequestMessageType Ja

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Typ Description Erforderlich Default
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio Ja
type enum Der Typ des Inhaltsteils Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio

Name Typ Description Erforderlich Default
Daten Schnur Ja
format enum
Mögliche Werte: wav, mp3
Ja

OpenAI.ChatCompletionRequestMessageContentPartFile

Erfahren Sie mehr über Dateieingaben für die Textgenerierung.

Name Typ Description Erforderlich Default
file OpenAI.ChatCompletionRequestMessageContentPartFileFile Ja
└– file_data Schnur Nein
└– file_id Schnur Nein
└– Dateiname Schnur Nein
type enum Der Typ des Inhaltsteils Immer file.
Möglicher Wert: file
Ja

OpenAI.ChatCompletionRequestMessageContentPartFileFile

Name Typ Description Erforderlich Default
file_data Schnur Nein
Datei-ID Schnur Nein
filename Schnur Nein

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Typ Description Erforderlich Default
image_url OpenAI.ChatCompletionRequestMessageContentPartImageUrl Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: image_url
Ja

OpenAI.ChatCompletionRequestMessageContentPartImageUrl

Name Typ Description Erforderlich Default
detail enum
Mögliche Werte: auto, , lowhigh
Nein
url Schnur Ja

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Typ Description Erforderlich Default
Ablehnung Schnur Eine vom Modell generierte Ablehnungsmeldung. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: refusal
Ja

OpenAI.ChatCompletionRequestMessageContentPartText

Name Typ Description Erforderlich Default
Text Schnur Der Textinhalt. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: text
Ja

OpenAI.ChatCompletionRequestMessageType

Eigentum Wert
Typ Schnur
Werte developer
system
user
assistant
tool
function

OpenAI.ChatCompletionRequestSystemMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie stattdessen developer-Nachrichten für diesen Zweck mit o1-Modellen und neueren.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array von OpenAI.ChatCompletionRequestSystemMessageContentPart Die Inhalte der Systemnachricht. Ja
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: system).
Möglicher Wert: system
Ja

OpenAI.ChatCompletionRequestSystemMessageContentPart

Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array von OpenAI.ChatCompletionRequestToolMessageContentPart Die Inhalte der Toolnachricht. Ja
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).
Möglicher Wert: tool
Ja
tool_call_id Schnur Toolaufruf, auf den diese Nachricht reagiert. Ja

OpenAI.ChatCompletionRequestToolMessageContentPart

Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Von einem Endbenutzer gesendete Nachrichten, die Eingabeaufforderungen oder zusätzliche Kontextinformationen enthalten.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array von OpenAI.ChatCompletionRequestUserMessageContentPart Die Inhalte der Benutzernachricht. Ja
Name Schnur Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. Nein
role enum Die Rolle des Nachrichtenerstellers (in diesem Fall: user).
Möglicher Wert: user
Ja

OpenAI.ChatCompletionRequestUserMessageContentPart

Diskriminator für OpenAI.ChatCompletionRequestUserMessageContentPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
file OpenAI.ChatCompletionRequestMessageContentPartFile
text OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Name Typ Description Erforderlich Default
type OpenAI.ChatCompletionRequestUserMessageContentPartType Ja

OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText

Erfahren Sie mehr über Texteingaben.

Name Typ Description Erforderlich Default
Text Schnur Der Textinhalt. Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: text
Ja

OpenAI.ChatCompletionRequestUserMessageContentPartType

Eigentum Wert
Typ Schnur
Werte text
image_url
input_audio
file

OpenAI.ChatCompletionResponseMessage

Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells.

Name Typ Description Erforderlich Default
Anmerkungen Array von OpenAI.ChatCompletionResponseMessageAnnotations Anmerkungen für die Nachricht, falls zutreffend, wie bei Verwendung
Websuchtool.
Nein
audio OpenAI.ChatCompletionResponseMessageAudio oder null Nein
Inhalt Zeichenfolge oder null Ja
function_call OpenAI.ChatCompletionResponseMessageFunctionCall Nein
└- Argumente Schnur Ja
└– Name Schnur Ja
reasoning_content Schnur Eine Azure-spezifische Erweiterungseigenschaft, die generierten Begründungsinhalt aus den unterstützten Modellen enthält. Nein
Ablehnung Zeichenfolge oder null Ja
role enum Die Rolle des Autors dieser Nachricht
Möglicher Wert: assistant
Ja
tool_calls OpenAI.ChatCompletionMessageToolCallsItem Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. Nein

OpenAI.ChatCompletionResponseMessageAnnotations

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: url_citation
Ja
url_citation OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation Ja

OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation

Name Typ Description Erforderlich Default
end_index integer Ja
start_index integer Ja
title Schnur Ja
url Schnur Ja

OpenAI.ChatCompletionResponseMessageAudio

Name Typ Description Erforderlich Default
Daten Schnur Ja
läuft_ab_am integer Ja
id Schnur Ja
Transkript Schnur Ja

OpenAI.ChatCompletionResponseMessageFunctionCall

Name Typ Description Erforderlich Default
Argumente Schnur Ja
Name Schnur Ja

OpenAI.ChatCompletionStreamOptions

Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Typ Description Erforderlich Default
include_obfuscation boolean Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt hinzu
Zufällige Zeichen für ein obfuscation Feld bei Streaming-Delta-Ereignissen
normalisieren Sie Nutzlastgrößen als Gegenmaßnahme für bestimmte Seitenkanalangriffe.
Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch einen kleinen Betrag hinzu.
mehr Aufwand für den Datenstrom. Sie können auf include_obfuscation
false, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen
Ihre Anwendung und die OpenAI-API.
Nein
include_usage boolean Falls festgelegt, wird ein zusätzlicher Abschnitt vor dem data: [DONE] gestreamt.
Meldung. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken an.
für die gesamte Anforderung, und das choices Feld ist immer ein leerer
Array.
Alle anderen Blöcke enthalten auch ein usage Feld, aber mit null
Wert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den
letzter Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
Nein

OpenAI.ChatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder null Nein
function_call OpenAI.ChatCompletionStreamResponseDeltaFunctionCall Nein
└- Argumente Schnur Nein
└– Name Schnur Nein
reasoning_content Schnur Eine Azure-spezifische Erweiterungseigenschaft, die generierten Begründungsinhalt aus den unterstützten Modellen enthält. Nein
Ablehnung Zeichenfolge oder null Nein
role enum Die Rolle des Autors dieser Nachricht
Mögliche Werte: developer, , systemuser, , assistanttool
Nein
tool_calls Array von OpenAI.ChatCompletionMessageToolCallChunk Nein

OpenAI.ChatCompletionStreamResponseDeltaFunctionCall

Name Typ Description Erforderlich Default
Argumente Schnur Nein
Name Schnur Nein

OpenAI.ChatCompletionTokenLogprob

Name Typ Description Erforderlich Default
Byte Array einer ganzen Zahl oder null Ja
logprob number Die Protokollwahrscheinlichkeit dieses Tokens, wenn es zu den 20 wahrscheinlichsten Tokens gehört. Andernfalls wird der Wert „-9999.0“ verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. Ja
token Schnur Das Token. Ja
top_logprobs Array von OpenAI.ChatCompletionTokenLogprobTopLogprobs Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. Ja

OpenAI.ChatCompletionTokenLogprobTopLogprobs

Name Typ Description Erforderlich Default
Byte Array einer ganzen Zahl oder null Ja
logprob number Ja
token Schnur Ja

OpenAI.ChatCompletionTool

Ein Funktionstool, das zum Generieren einer Antwort verwendet werden kann.

Name Typ Description Erforderlich Default
Funktion OpenAI.FunctionObject Ja
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Möglicher Wert: function
Ja

OpenAI.ChatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Typ: Zeichenfolge oder OpenAI.ChatCompletionAllowedToolsChoice oder OpenAI.ChatCompletionNamedToolChoice oder OpenAI.ChatCompletionNamedToolChoiceCustom

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss. Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen. none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

OpenAI.ChunkingStrategyRequestParam

Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist.

Diskriminator für OpenAI.ChunkingStrategyRequestParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
auto OpenAI.AutoChunkingStrategyRequestParam
static OpenAI.StaticChunkingStrategyRequestParam
Name Typ Description Erforderlich Default
type OpenAI.ChunkingStrategyRequestParamType Ja

OpenAI.ChunkingStrategyRequestParamType

Eigentum Wert
Typ Schnur
Werte auto
static

OpenAI.ChunkingStrategyResponse

Die Strategie, die verwendet wird, um die Datei zu blöcken.

Diskriminator für OpenAI.ChunkingStrategyResponse

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
static OpenAI.StaticChunkingStrategyResponseParam
other OpenAI.OtherChunkingStrategyResponseParam
Name Typ Description Erforderlich Default
type OpenAI.ChunkingStrategyResponseType Ja

OpenAI.ChunkingStrategyResponseType

Eigentum Wert
Typ Schnur
Werte static
other

OpenAI.ClickButtonType

Eigentum Wert
Typ Schnur
Werte left
right
wheel
back
forward

OpenAI.ClickParam

Ein Klickvorgang.

Name Typ Description Erforderlich Default
button OpenAI.ClickButtonType Ja
type enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer click.
Möglicher Wert: click
Ja
x integer Die x-Koordinate, an der der Klick aufgetreten ist. Ja
y integer Die y-Koordinate, an der der Klick aufgetreten ist. Ja

OpenAI.CodeInterpreterContainerAuto

Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.

Name Typ Description Erforderlich Default
Datei-IDs Array von Zeichenfolgen Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. Nein
Speicherbegrenzung OpenAI.ContainerMemoryLimit oder NULL Nein
type enum Immer auto.
Möglicher Wert: auto
Ja

OpenAI.CodeInterpreterOutputImage

Die Bildausgabe des Code-Interpreters.

Name Typ Description Erforderlich Default
type enum Der Typ der Ausgabe. Immer image.
Möglicher Wert: image
Ja
url Schnur Die URL der Bildausgabe des Code-Interpreters. Ja

OpenAI.CodeInterpreterOutputLogs

Die Protokollausgabe aus dem Code-Interpreter.

Name Typ Description Erforderlich Default
logs Schnur Die Protokollausgabe aus dem Code-Interpreter. Ja
type enum Der Typ der Ausgabe. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.CodeInterpreterTool

Ein Tool, das Python Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.

Name Typ Description Erforderlich Default
container string oder OpenAI.CodeInterpreterContainerAuto Der Codeinterpreter-Container. Kann eine Container-ID oder ein Objekt sein, das
Gibt hochgeladene Datei-IDs an, die Ihrem Code zur Verfügung gestellt werden sollen, zusammen mit einer
optionale memory_limit Einstellung.
Ja
type enum Der Typ des Codedolmetschertools. Immer code_interpreter.
Möglicher Wert: code_interpreter
Ja

OpenAI.Vergleichsfilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Typ Description Erforderlich Default
Schlüssel Schnur Der Schlüssel für den Vergleich mit dem Wert Ja
type enum Spezifiziert den Vergleichsoperator: eq, ne, , gt, gte, ltltein, nin.
- eq: entspricht
- ne: ungleich
- gt:größer als
- gte: größer oder gleich
- lt:weniger als
- lte: kleiner oder gleich
- in:In
- nin: nicht in
Mögliche Werte: eq, , ne, gtgte, , , ltlte
Ja
Wert string or number or boolean or array of OpenAI.ComparisonFilterValueItems Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Ja

OpenAI.ComparisonFilterValueItems

Dieses Schema akzeptiert einen der folgenden Typen:

  • String
  • Zahl

OpenAI.CompletionUsage

Nutzungsstatistiken für die Vervollständigungsanforderung

Name Typ Description Erforderlich Default
completion_tokens integer Anzahl der Token in der generierten Vervollständigung Ja
completion_tokens_details OpenAI.CompletionUsageCompletionTokensDetails Nein
└– akzeptierte_Vorhersage_Token integer Nein
└– audio_tokens integer Nein
└– reasoning_tokens integer Nein
└– rejected_prediction_tokens integer Nein
prompt_tokens integer Anzahl der Token im Prompt. Ja
prompt_tokens_details OpenAI.CompletionUsagePromptTokensDetails Nein
└– audio_tokens integer Nein
└– zwischengespeicherte_Token integer Nein
Gesamtanzahl Tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). Ja

OpenAI.CompletionUsageCompletionTokensDetails

Name Typ Description Erforderlich Default
accepted_prediction_tokens integer Nein
audio_tokens integer Nein
Begründungs_Token integer Nein
rejected_prediction_tokens integer Nein

OpenAI.CompletionUsagePromptTokensDetails

Name Typ Description Erforderlich Default
audio_tokens integer Nein
cached_tokens integer Nein

OpenAI.CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Typ Description Erforderlich Default
filters Array von OpenAI.ComparisonFilter oder Objekt Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Ja
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Ja

OpenAI.ComputerAction

Diskriminator für OpenAI.ComputerAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
click OpenAI.ClickParam
double_click OpenAI.DoubleClickAction
drag OpenAI.Drag
keypress OpenAI.KeyPressAction
move OpenAI.Move
screenshot OpenAI.Screenshot
scroll OpenAI.Scroll
type OpenAI.Type
wait OpenAI.Wait
Name Typ Description Erforderlich Default
type OpenAI.ComputerActionType Ja

OpenAI.ComputerActionType

Eigentum Wert
Typ Schnur
Werte click
double_click
drag
keypress
move
screenshot
scroll
type
wait

OpenAI.ComputerCallSafetyCheckParam

Eine ausstehende Sicherheitsüberprüfung für den Computertelefonanruf.

Name Typ Description Erforderlich Default
code Zeichenfolge oder null Nein
id Schnur Die ID der ausstehenden Sicherheitsprüfung Ja
Nachricht Zeichenfolge oder null Nein

OpenAI.ComputerEnvironment

Eigentum Wert
Typ Schnur
Werte windows
mac
linux
ubuntu
browser

OpenAI.ComputerScreenshotContent

Screenshot eines Computers.

Name Typ Description Erforderlich Default
Datei-ID Zeichenfolge oder null Ja
image_url Zeichenfolge oder null Ja
type enum Gibt den Ereignistyp an. Für einen Computer-Screenshot ist diese Eigenschaft immer auf computer_screenshot.
Möglicher Wert: computer_screenshot
Ja

OpenAI.ComputerScreenshotImage

Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.

Name Typ Description Erforderlich Default
Datei-ID Schnur Der Bezeichner einer hochgeladenen Datei, die den Screenshot enthält. Nein
image_url Schnur Die URL des Screenshotbilds. Nein
type enum Gibt den Ereignistyp an. Für einen Computerfoto ist diese Eigenschaft
immer auf computer_screenshot festgelegt.
Möglicher Wert: computer_screenshot
Ja

OpenAI.ComputerUsePreviewTool

Ein Tool, das einen virtuellen Computer steuert.

Name Typ Description Erforderlich Default
Anzeigehöhe integer Die Höhe der Computeranzeige. Ja
Bildschirmbreite integer Die Breite der Computeranzeige. Ja
environment OpenAI.ComputerEnvironment Ja
type enum Der Typ des Tools zur Computernutzung. Immer computer_use_preview.
Möglicher Wert: computer_use_preview
Ja

OpenAI.ContainerFileCitationBody

Eine Zitation für eine Containerdatei, die zur Generierung einer Modellantwort verwendet wird.

Name Typ Description Erforderlich Default
container_id Schnur Die ID der Containerdatei. Ja
end_index integer Der Index des letzten Zeichens der Containerdatei-Zitation in der Nachricht. Ja
Datei-ID Schnur Die ID der Datei. Ja
filename Schnur Der Dateiname der angegebenen Containerdatei. Ja
start_index integer Der Index des ersten Zeichens der Containerdatei-Zitation in der Nachricht. Ja
type enum Der Typ der Container-Datei-Zitation. Immer container_file_citation.
Möglicher Wert: container_file_citation
Ja

OpenAI.ContainerFileListResource

Name Typ Description Erforderlich Default
Daten Array von OpenAI.ContainerFileResource Eine Liste der Containerdateien. Ja
first_id Schnur Die ID der ersten Datei in der Liste. Ja
has_more boolean Gibt an, ob weitere Dateien verfügbar sind. Ja
last_id Schnur Die ID der letzten Datei in der Liste. Ja
Objekt enum Der Typ des zurückgegebenen Objekts muss "list" sein.
Möglicher Wert: list
Ja

OpenAI.ContainerFileResource

Name Typ Description Erforderlich Default
Byte integer Größe der Datei in Byte. Ja
container_id Schnur Der Container, zu dem diese Datei gehört. Ja
erstellt_am integer Unix-Zeitstempel (in Sekunden) beim Erstellen der Datei. Ja
id Schnur Eindeutiger Bezeichner für die Datei. Ja
Objekt enum Der Typ dieses Objekts (container.file).
Möglicher Wert: container.file
Ja
Pfad Schnur Pfad der Datei im Container. Ja
source Schnur Quelle der Datei (z. B user. , assistant). Ja

OpenAI.ContainerListResource

Name Typ Description Erforderlich Default
Daten Array von OpenAI.ContainerResource Eine Liste von Containern. Ja
first_id Schnur Die ID des ersten Containers in der Liste. Ja
has_more boolean Gibt es weitere Container. Ja
last_id Schnur Die ID des letzten Containers in der Liste. Ja
Objekt enum Der Typ des zurückgegebenen Objekts muss "list" sein.
Möglicher Wert: list
Ja

OpenAI.ContainerMemoryLimit

Eigentum Wert
Typ Schnur
Werte 1g
4g
16g
64g

OpenAI.ContainerResource

Name Typ Description Erforderlich Default
erstellt_am integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Containers. Ja
expires_after OpenAI.ContainerResourceExpiresAfter Nein
└– Anker enum
Möglicher Wert: last_active_at
Nein
└– Minuten integer Nein
id Schnur Eindeutiger Bezeichner für den Container. Ja
last_active_at integer Unix-Zeitstempel (in Sekunden), als der Container zuletzt aktiv war. Nein
Speicherbegrenzung enum Der für den Container konfigurierte Speichergrenzwert.
Mögliche Werte: 1g, , 4g, 16g64g
Nein
Name Schnur Name des Containers. Ja
Objekt Schnur Der Typ dieses Objekts. Ja
status Schnur Status des Containers (z. B. aktiv, gelöscht). Ja

OpenAI.ContainerResourceExpiresAfter

Name Typ Description Erforderlich Default
anchor enum
Möglicher Wert: last_active_at
Nein
Protokoll integer Nein

OpenAI.ConversationItem

Ein einzelnes Element in einer Unterhaltung. Der Satz möglicher Typen entspricht dem output Typ eines Response-Objekts.

Diskriminator für OpenAI.ConversationItem

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
message OpenAI.ConversationItemMessage
function_call OpenAI.ConversationItemFunctionToolCallResource
function_call_output OpenAI.ConversationItemFunctionToolCallOutputResource
file_search_call OpenAI.ConversationItemFileSearchToolCall
web_search_call OpenAI.ConversationItemWebSearchToolCall
image_generation_call OpenAI.ConversationItemImageGenToolCall
computer_call OpenAI.ConversationItemComputerToolCall
computer_call_output OpenAI.ConversationItemComputerToolCallOutputResource
reasoning OpenAI.ConversationItemReasoningItem
code_interpreter_call OpenAI.ConversationItemCodeInterpreterToolCall
local_shell_call OpenAI.ConversationItemLocalShellToolCall
local_shell_call_output OpenAI.ConversationItemLocalShellToolCallOutput
shell_call OpenAI.ConversationItemFunctionShellCall
shell_call_output OpenAI.ConversationItemFunctionShellCallOutput
apply_patch_call OpenAI.ConversationItemApplyPatchToolCall
apply_patch_call_output OpenAI.ConversationItemApplyPatchToolCallOutput
mcp_list_tools OpenAI.ConversationItemMcpListTools
mcp_approval_request OpenAI.ConversationItemMcpApprovalRequest
mcp_approval_response OpenAI.ConversationItemMcpApprovalResponseResource
mcp_call OpenAI.ConversationItemMcpToolCall
custom_tool_call OpenAI.ConversationItemCustomToolCall
custom_tool_call_output OpenAI.ConversationItemCustomToolCallOutput
Name Typ Description Erforderlich Default
type OpenAI.ConversationItemType Ja

OpenAI.ConversationItemApplyPatchToolCall

Ein Toolaufruf, der Datei-Diffs anwendet, indem Dateien erstellt, gelöscht oder aktualisiert werden.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. Ja
created_by Schnur Die ID der Entität, die diesen Toolaufruf erstellt hat. Nein
id Schnur Die eindeutige ID des Aufrufs des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
operation OpenAI.ApplyPatchFileOperation Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden. Ja
└– Typ OpenAI.ApplyPatchFileOperationType Ja
status OpenAI.ApplyPatchCallStatus Ja
type enum Der Typ des Elements Immer apply_patch_call.
Möglicher Wert: apply_patch_call
Ja

OpenAI.ConversationItemApplyPatchToolCallOutput

Die Ausgabe, die von einem Aufruf des Apply Patch-Tools ausgegeben wird.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. Ja
created_by Schnur Die ID der Entität, die diese Toolaufrufausgabe erstellt hat. Nein
id Schnur Die eindeutige ID der Ausgabe des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
output Zeichenfolge oder null Nein
status OpenAI.ApplyPatchCallOutputStatus Ja
type enum Der Typ des Elements Immer apply_patch_call_output.
Möglicher Wert: apply_patch_call_output
Ja

OpenAI.ConversationItemCodeInterpreterToolCall

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
code Zeichenfolge oder null Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
id Schnur Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. Ja
Ergebnisse Array von OpenAI.CodeInterpreterOutputLogs oder OpenAI.CodeInterpreterOutputImage oder null Ja
status enum Der Status des Code-Interpreter-Werkzeugaufrufs. Gültige Werte sind in_progress, completed, incomplete, interpreting und failed.
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Ja
type enum Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.
Möglicher Wert: code_interpreter_call
Ja

OpenAI.ConversationItemComputerToolCall

Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Computer-Nutzungsleitfaden.

Name Typ Description Erforderlich Default
action OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
id Schnur Die eindeutige ID des Computeraufrufs. Ja
pending_safety_checks Array von OpenAI.ComputerCallSafetyCheckParam Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ des Computeraufrufs. Immer computer_call.
Möglicher Wert: computer_call
Ja

OpenAI.ConversationItemComputerToolCallOutputResource

Name Typ Description Erforderlich Default
acknowledged_safety_checks Array von OpenAI.ComputerCallSafetyCheckParam Die von der API gemeldeten Sicherheitskontrollen, die von der API anerkannt wurden.
entwickelnden Person bestätigt wurden
Nein
call_id Schnur Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. Ja
id Schnur Die ID der Ausgabe des Computertoolsaufrufs Nein
output OpenAI.ComputerScreenshotImage Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. Ja
status enum Der Status der Nachrichteneingabe. Einer von in_progress, , completedoder
incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.
Möglicher Wert: computer_call_output
Ja

OpenAI.ConversationItemCustomToolCall

Ein Aufruf eines benutzerdefinierten Tools, das vom Modell erstellt wurde.

Name Typ Description Erforderlich Default
call_id Schnur Eine Identifikator, die verwendet wird, um diesen benutzerdefinierten Werkzeugaufruf auf die Ausgabe eines Werkzeugaufrufs abzubilden. Ja
id Schnur Die eindeutige ID des benutzerdefinierten Werkzeugaufrufs in der OpenAI-Plattform. Nein
Eingabe Schnur Die Eingabe für den benutzerdefinierten Werkzeugaufruf, der vom Modell generiert wird. Ja
Name Schnur Der Name des benutzerdefinierten Tools, das aufgerufen wird. Ja
type enum Der Typ des benutzerdefinierten Werkzeugaufrufs. Immer custom_tool_call.
Möglicher Wert: custom_tool_call
Ja

OpenAI.ConversationItemCustomToolCallOutput

Die Ausgabe eines benutzerdefinierten Werkzeugaufrufs aus deinem Code, der an das Modell zurückgesendet wird.

Name Typ Description Erforderlich Default
call_id Schnur Die Aufruf-ID, die verwendet wird, um diesen benutzerdefinierten Werkzeugaufruf auf einen benutzerdefinierten Werkzeugaufruf zuzuordnen. Ja
id Schnur Die eindeutige ID des benutzerdefinierten Werkzeugaufrufs wird in der OpenAI-Plattform ausgegeben. Nein
output Zeichenfolge oder Array von OpenAI.FunctionAndCustomToolCallOutput Die Ausgabe des benutzerdefinierten Tool-Aufrufs, der von deinem Code generiert wird.
Dies kann eine Zeichenfolge oder eine Liste von Ausgabeinhalten sein.
Ja
type enum Der Typ des benutzerdefinierten Werkzeugaufruf-Outputs. Immer custom_tool_call_output.
Möglicher Wert: custom_tool_call_output
Ja

OpenAI.ConversationItemFileSearchToolCall

Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie im Suchleitfaden Datei.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des Aufrufs des Dateisuchtools. Ja
Abfragen Array von Zeichenfolgen Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array von OpenAI.FileSearchToolCallResults oder Null Nein
status enum Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,
searching, incomplete oder failed
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
type enum Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.
Möglicher Wert: file_search_call
Ja

OpenAI.ConversationItemFunctionShellCall

Ein Toolaufruf, der einen oder mehrere Shellbefehle in einer verwalteten Umgebung ausführt.

Name Typ Description Erforderlich Default
action OpenAI.FunctionShellAction Führen Sie einen Shellbefehl aus. Ja
└– Befehle Array von Zeichenfolgen Ja
└– max_output_length ganze Zahl oder Null Ja
└– timeout_ms ganze Zahl oder Null Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. Ja
created_by Schnur Die ID der Entität, die diesen Toolaufruf erstellt hat. Nein
id Schnur Die eindeutige ID des Shelltoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
status OpenAI.LocalShellCallStatus Ja
type enum Der Typ des Elements Immer shell_call.
Möglicher Wert: shell_call
Ja

OpenAI.ConversationItemFunctionShellCallOutput

Die Ausgabe eines Shelltoolaufrufs, der ausgegeben wurde.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. Ja
created_by Schnur Der Bezeichner des Akteurs, der das Element erstellt hat. Nein
id Schnur Die eindeutige ID der Shellaufrufausgabe. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
max_output_length ganze Zahl oder Null Ja
output Array von OpenAI.FunctionShellCallOutputContent Ein Array von Shellaufrufausgabeinhalten Ja
type enum Der Typ der Shellaufrufausgabe. Immer shell_call_output.
Möglicher Wert: shell_call_output
Ja

OpenAI.ConversationItemFunctionToolCallOutputResource

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
id Schnur Die eindeutige ID der Ausgabe des Funktionstoolaufrufs Aufgefüllt, wenn dieses Element
wird über DIE API zurückgegeben.
Nein
output Zeichenfolge oder Array von OpenAI.FunctionAndCustomToolCallOutput Die Ausgabe des von Ihrem Code generierten Funktionsaufrufs.
Dies kann eine Zeichenfolge oder eine Liste von Ausgabeinhalten sein.
Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.
Möglicher Wert: function_call_output
Ja

OpenAI.ConversationItemFunctionToolCallResource

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
id Schnur Die eindeutige ID des Aufrufs des Funktionswerkzeugs. Nein
Name Schnur Der Name der auszuführenden Funktion. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ des Funktionswerkzeuganrufs. Immer function_call.
Möglicher Wert: function_call
Ja

OpenAI.ConversationItemImageGenToolCall

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des Bilderzeugungsaufrufs. Ja
Ergebnis Zeichenfolge oder null Ja
status enum Der Status des Bilderzeugungsaufrufs.
Mögliche Werte: in_progress, , completed, generatingfailed
Ja
type enum Der Typ des Bilderzeugungsaufrufs. Immer image_generation_call.
Möglicher Wert: image_generation_call
Ja

OpenAI.ConversationItemList

Eine Liste von Unterhaltungselementen.

Name Typ Description Erforderlich Default
Daten Array von OpenAI.ConversationItem Eine Liste von Unterhaltungselementen. Ja
first_id Schnur Die ID des ersten Elements in der Liste. Ja
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Ja
last_id Schnur Die ID des letzten Elements in der Liste. Ja
Objekt enum Der Typ des zurückgegebenen Objekts muss sein list.
Möglicher Wert: list
Ja

OpenAI.ConversationItemLocalShellToolCall

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
id Schnur Die eindeutige ID des lokalen Shell-Anrufs. Ja
status enum Der Status des lokalen Shell-Anrufs.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Die Art des lokalen Shell-Rufs. Immer local_shell_call.
Möglicher Wert: local_shell_call
Ja

OpenAI.ConversationItemLocalShellToolCallOutput

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
status Zeichenfolge oder null Nein
type enum Der Typ des lokalen Schalenwerkzeug-Aufrufsausgangs. Immer local_shell_call_output.
Möglicher Wert: local_shell_call_output
Ja

OpenAI.ConversationItemMcpApprovalRequest

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
id Schnur Die eindeutige ID der Genehmigungsanfrage. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum Der Typ des Elements Immer mcp_approval_request.
Möglicher Wert: mcp_approval_request
Ja

OpenAI.ConversationItemMcpApprovalResponseResource

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ Description Erforderlich Default
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
Genehmigen boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
id Schnur Die eindeutige ID der Genehmigungsantwort Ja
Grund Zeichenfolge oder null Nein
type enum Der Typ des Elements Immer mcp_approval_response.
Möglicher Wert: mcp_approval_response
Ja

OpenAI.ConversationItemMcpListTools

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Zeichenfolge oder null Nein
id Schnur Die eindeutige ID der Liste. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array von OpenAI.MCPListToolsTool Die auf dem Server verfügbaren Tools. Ja
type enum Der Typ des Elements Immer mcp_list_tools.
Möglicher Wert: mcp_list_tools
Ja

OpenAI.ConversationItemMcpToolCall

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
approval_request_id Zeichenfolge oder null Nein
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Zeichenfolge oder null Nein
id Schnur Die eindeutige ID des Toolaufrufs. Ja
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Zeichenfolge oder null Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
status OpenAI.MCPToolCallStatus Nein
type enum Der Typ des Elements Immer mcp_call.
Möglicher Wert: mcp_call
Ja

OpenAI.ConversationItemMessage

Eine Nachricht an oder aus dem Modell.

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.InputTextContent oder OpenAI.OutputTextContent oder OpenAI.TextContent oder OpenAI.SummaryTextContent oder OpenAI.ReasoningTextContent oder OpenAI.RefusalContent oder OpenAI.InputImageContent oder OpenAI.ComputerScreenshotContent oder OpenAI.InputFileContent Der Inhalt der Nachricht Ja
id Schnur Die eindeutige ID der Nachricht. Ja
role OpenAI.MessageRole Ja
status OpenAI.MessageStatus Ja
type enum Der Typ der Nachricht. Immer auf message festgelegt.
Möglicher Wert: message
Ja

OpenAI.ConversationItemReasoningItem

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Stellen Sie sicher, dass Sie diese Elemente in Ihre input in die Responses-API für spätere Runden eines Gesprächs aufnehmen, wenn Sie manuell Kontextverwaltung durchführen.

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.ReasoningTextContent Argumentation des Textinhalts. Nein
encrypted_content Zeichenfolge oder null Nein
id Schnur Der eindeutige Bezeichner des Argumentationsinhalts. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
summary Array von OpenAI.Summary Inhalt der Zusammenfassung der Begründung. Ja
type enum Der Typ des Objekts. Immer reasoning.
Möglicher Wert: reasoning
Ja

OpenAI.ConversationItemType

Eigentum Wert
Typ Schnur
Werte message
function_call
function_call_output
file_search_call
web_search_call
image_generation_call
computer_call
computer_call_output
reasoning
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call
custom_tool_call
custom_tool_call_output

OpenAI.ConversationItemWebSearchToolCall

Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie im Web-Suchguide.

Name Typ Description Erforderlich Default
action OpenAI.WebSearchActionSearch oder OpenAI.WebSearchActionOpenPage oder OpenAI.WebSearchActionFind Ein Objekt, das die spezifische Aktion beschreibt, die in diesem Websuchaufruf ausgeführt wird.
Enthält Details dazu, wie das Modell das Web verwendet hat (Suchen, open_page, Suchen).
Ja
id Schnur Die eindeutige ID des Websuchwerkzeugs ruft auf. Ja
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Ja
type enum Der Typ des Web-Suchwerkzeug-Aufrufs. Immer web_search_call.
Möglicher Wert: web_search_call
Ja

OpenAI.ConversationParam

Die Unterhaltung, zu der diese Antwort gehört. Elemente aus dieser Unterhaltung werden dieser Antwortanforderung vorangestellt input_items . Eingabeelemente und Ausgabeelemente aus dieser Antwort werden dieser Unterhaltung automatisch hinzugefügt, nachdem diese Antwort abgeschlossen wurde.

Typ: Zeichenfolge oder OpenAI.ConversationParam-2

Die Unterhaltung, zu der diese Antwort gehört. Elemente aus dieser Unterhaltung werden dieser Antwortanforderung vorangestellt input_items . Eingabeelemente und Ausgabeelemente aus dieser Antwort werden dieser Unterhaltung automatisch hinzugefügt, nachdem diese Antwort abgeschlossen wurde.

OpenAI.ConversationParam-2

Die Unterhaltung, zu der diese Antwort gehört.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID der Unterhaltung. Ja

OpenAI.ConversationReference

Die Unterhaltung, zu der diese Antwort gehörte. Eingabeelemente und Ausgabeelemente aus dieser Antwort wurden dieser Unterhaltung automatisch hinzugefügt.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID der Unterhaltung, der diese Antwort zugeordnet war. Ja

OpenAI.ConversationResource

Name Typ Description Erforderlich Default
erstellt_am integer Die Zeit, zu der die Unterhaltung geschaffen wurde, gemessen in Sekunden seit der Unix-Epoche. Ja
id Schnur Die eindeutige ID der Unterhaltung. Ja
metadata 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja
Objekt enum Der Objekttyp, der immer conversation ist.
Möglicher Wert: conversation
Ja

OpenAI.CreateChatCompletionRequestAudio

Name Typ Description Erforderlich Default
format enum
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
Ja
voice OpenAI.VoiceIdsShared Ja

OpenAI.CreateChatCompletionRequestResponseFormat

Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Erfahren Sie mehr im Structured Outputs Leitfaden. Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Diskriminator für OpenAI.CreateChatCompletionRequestResponseFormat

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
json_schema OpenAI.ResponseFormatJsonSchema
text OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatResponseFormatText
json_object OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatResponseFormatJsonObject
Name Typ Description Erforderlich Default
type OpenAI.CreateChatCompletionRequestResponseFormatType Ja

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatResponseFormatJsonObject

JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Ja

OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer text.
Möglicher Wert: text
Ja

OpenAI.CreateChatCompletionRequestResponseFormatType

Eigentum Wert
Typ Schnur
Werte text
json_schema
json_object

OpenAI.CreateChatCompletionResponseChoices

Name Typ Description Erforderlich Default
Content-Filtern-Egebnisse AzureContentFilterResultForChoice Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. Nein
Beendigungsgrund enum
Mögliche Werte: stop, , lengthtool_calls, , content_filterfunction_call
Ja
Index integer Ja
logprobs OpenAI.CreateChatCompletionResponseChoicesLogprobs oder NULL Ja
Nachricht OpenAI.ChatCompletionResponseMessage Wenn die Audioausgabemodalität angefordert wird, enthält dieses Objekt Daten
über die Audioausgabe vom Modell.
Ja

OpenAI.CreateChatCompletionResponseChoicesLogprobs

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.ChatCompletionTokenLogprob oder NULL Ja
Ablehnung Array von OpenAI.ChatCompletionTokenLogprob oder NULL Ja

OpenAI.CreateChatCompletionStreamResponseChoices

Name Typ Description Erforderlich Default
delta OpenAI.ChatCompletionStreamResponseDelta Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde. Ja
Beendigungsgrund Zeichenfolge oder null Ja
Index integer Ja
logprobs OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs oder NULL Nein

OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.ChatCompletionTokenLogprob oder NULL Ja
Ablehnung Array von OpenAI.ChatCompletionTokenLogprob oder NULL Ja

OpenAI.CreateCompletionResponseChoices

Name Typ Description Erforderlich Default
Content-Filtern-Egebnisse AzureContentFilterResultForChoice Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. Nein
Beendigungsgrund enum
Mögliche Werte: stop, , lengthcontent_filter
Ja
Index integer Ja
logprobs OpenAI.CreateCompletionResponseChoicesLogprobs oder NULL Ja
Text Schnur Ja

OpenAI.CreateCompletionResponseChoicesLogprobs

Name Typ Description Erforderlich Default
text_offset Array mit ganzzahliger Zahl Nein
token_logprobs Array der Zahl Nein
tokens Array von Zeichenfolgen Nein
top_logprobs Objektarray Nein

OpenAI.CreateContainerBody

Name Typ Description Erforderlich Default
expires_after OpenAI.CreateContainerBodyExpiresAfter Nein
└– Anker enum
Möglicher Wert: last_active_at
Ja
└– Minuten integer Ja
Datei-IDs Array von Zeichenfolgen IDs von Dateien, die in den Container kopiert werden sollen. Nein
Speicherbegrenzung enum Optionaler Speichergrenzwert für den Container. Der Standardwert ist "1g".
Mögliche Werte: 1g, , 4g, 16g64g
Nein
Name Schnur Name des zu erstellenden Containers. Ja

OpenAI.CreateContainerBodyExpiresAfter

Name Typ Description Erforderlich Default
anchor enum
Möglicher Wert: last_active_at
Ja
Protokoll integer Ja

OpenAI.CreateContainerFileBody

Name Typ Description Erforderlich Default
file Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. Nein
Datei-ID Schnur Name der zu erstellenden Datei. Nein

OpenAI.CreateConversationBody

Name Typ Description Erforderlich Default
Elemente Array von OpenAI.InputItem oder NULL Nein
metadata OpenAI.Metadata oder NULL Nein

OpenAI.CreateConversationItemsParametersBody

Name Typ Description Erforderlich Default
Elemente Array von OpenAI.InputItem Ja

OpenAI.CreateEmbeddingRequest

Name Typ Description Erforderlich Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt.
Einschränkungen: min: 1
Nein
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.
Mögliche Werte: float, base64
Nein
Eingabe Zeichenfolge oder Array von Zeichenfolge oder Array von ganzzahligem Array oder Array von Arrays Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für alle Einbettungsmodelle), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Beispiel-Python-Code zum Zählen von Token. Zusätzlich zum Grenzwert pro Eingabetoken erzwingen alle Einbettungsmodelle maximal 300.000 Token, die über alle Eingaben in einer einzigen Anforderung summiert wurden. Ja
Modell Schnur Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen, oder sie finden Sie in unserer Modellübersicht für Beschreibungen. Ja
user Schnur Erfahren Sie mehr. Nein

OpenAI.CreateEmbeddingResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.Embedding Die Liste der vom Modell generierten Einbettungen. Ja
Modell Schnur Der Name des Modells, das zum Generieren der Einbettung verwendet wurde. Ja
Objekt enum Der Objekttyp, der immer „list“ lautet.
Möglicher Wert: list
Ja
usage OpenAI.CreateEmbeddingResponseUsage Ja
└– prompt_tokens integer Ja
└– total_tokens integer Ja

OpenAI.CreateEmbeddingResponseUsage

Name Typ Description Erforderlich Default
prompt_tokens integer Ja
Gesamtanzahl Tokens integer Ja

OpenAI.CreateEvalCompletionsRunDataSource

Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.

Name Typ Description Erforderlich Default
Eingabenachrichten OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. Nein
Modell Schnur Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). Nein
Parameter für Stichprobennahme AzureCompletionsSamplingParams Samplingparameter zum Steuern des Verhaltens der Vervollständigungen. Nein
source OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalStoredCompletionsSource Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. Ja
type enum Der Typ der Ausführungsdatenquelle. Immer completions.
Möglicher Wert: completions
Ja

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference

Name Typ Description Erforderlich Default
item_reference Schnur Ja
type enum
Möglicher Wert: item_reference
Ja

OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate

Name Typ Description Erforderlich Default
template Array von OpenAI.EasyInputMessage oder OpenAI.EvalItem Ja
type enum
Möglicher Wert: template
Ja

OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams

Name Typ Description Erforderlich Default
max_completion_tokens integer Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
Antwortformat OpenAI.ResponseFormatText oder OpenAI.ResponseFormatJsonSchema oder OpenAI.ResponseFormatJsonObject Nein
seed integer Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. Nein 42
Temperatur number Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. Nein 1
Werkzeuge Array von OpenAI.ChatCompletionTool Nein
top_p number Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. Nein 1

OpenAI.CreateEvalCustomDataSourceConfig

Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird. Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ Description Erforderlich Default
Beispielschema einfügen boolean Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) Nein
Artikel-Schema Objekt Das JSON-Schema für jede Zeile in der Datenquelle. Ja
type enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.CreateEvalItem

Eine Chatnachricht, aus der der "Prompt" oder der Kontext besteht. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}.

Name Typ Description Erforderlich Default
Inhalt Schnur Der Inhalt der Nachricht. Ja
role Schnur Die Rolle der Nachricht (z. B. "System", "Assistent", "Benutzer"). Ja

OpenAI.CreateEvalJsonlRunDataSource

Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht.

Name Typ Description Erforderlich Default
source OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource Bestimmt, was den item Namespace in der Datenquelle auffüllt. Ja
type enum Der Typ der Datenquelle. Immer jsonl.
Möglicher Wert: jsonl
Ja

OpenAI.CreateEvalLabelModelGrader

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array von OpenAI.CreateEvalItem Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. Ja
labels Array von Zeichenfolgen Die Bezeichnungen, die verwendet werden, um jedes Element in der Auswertung zu klassifizieren. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen Ja
Name Schnur Name des Bewerters (Graders) Ja
passing_labels Array von Zeichenfolgen Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein Ja
type enum Der Objekttyp, der immer label_model ist.
Möglicher Wert: label_model
Ja

OpenAI.CreateEvalLogsDataSourceConfig

Eine Datenquellenkonfiguration, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.

Name Typ Description Erforderlich Default
metadata Objekt Metadatenfilter für die Protokolldatenquelle. Nein
type enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.CreateEvalResponsesRunDataSource

Ein ResponsesRunDataSource-Objekt, das die Konfiguration einer Modellstichprobenentnahme beschreibt.

Name Typ Description Erforderlich Default
Eingabenachrichten OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. Nein
Modell Schnur Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). Nein
Parameter für Stichprobennahme AzureResponsesSamplingParams Samplingparameter zum Steuern des Verhaltens von Antworten. Nein
source OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalResponsesSource Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. Ja
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference

Name Typ Description Erforderlich Default
item_reference Schnur Ja
type enum
Möglicher Wert: item_reference
Ja

OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate

Name Typ Description Erforderlich Default
template Array des Objekts oder OpenAI.EvalItem Ja
type enum
Möglicher Wert: template
Ja

OpenAI.CreateEvalResponsesRunDataSourceSamplingParams

Name Typ Description Erforderlich Default
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
seed integer Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. Nein 42
Temperatur number Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. Nein 1
Text OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText Nein
Werkzeuge Array von OpenAI.Tool Nein
top_p number Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. Nein 1

OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText

Name Typ Description Erforderlich Default
format OpenAI.TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,
dadurch wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
*Nicht empfohlen für gpt-4o und neuere Modelle:**
Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, der
stellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schema
wird für Modelle bevorzugt, die es unterstützen.
Nein

OpenAI.CreateEvalRunRequest

Name Typ Description Erforderlich Default
Datenquelle OpenAI.CreateEvalJsonlRunDataSource oder OpenAI.CreateEvalCompletionsRunDataSource oder OpenAI.CreateEvalResponsesRunDataSource Details zur Datenquelle der Ausführung. Ja
metadata OpenAI.Metadata oder NULL Nein
Name Schnur Name der Ausführung Nein

OpenAI.CreateEvalStoredCompletionsDataSourceConfig

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ Description Erforderlich Default
metadata Objekt Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. Nein
type enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.CreateFileRequest

Name Typ Description Erforderlich Default
expires_after Objekt Ja
└– Anker AzureFileExpiryAnchor Ja
└─ Sekunden integer Ja
file Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. Ja
Zweck enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwenden
Mögliche Werte: assistants, , batch, fine-tuneevals
Ja

OpenAI.CreateFineTuningCheckpointPermissionRequest

Name Typ Description Erforderlich Default
project_ids Array von Zeichenfolgen Die Projektbezeichner, auf die Der Zugriff gewährt werden soll. Ja

OpenAI.CreateFineTuningJobRequest

Gültige Modelle:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Typ Description Erforderlich Default
Hyperparameter OpenAI.CreateFineTuningJobRequestHyperparameters Nein
└- batch_size Zeichenfolge oder ganze Zahl Nein auto
└– Lernraten-Multiplikator Zeichenfolge oder Zahl Nein
└– n_epochs Zeichenfolge oder ganze Zahl Nein auto
Integrationen Array von OpenAI.CreateFineTuningJobRequestIntegrations oder null Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. Nein
metadata OpenAI.Metadata oder NULL Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell string (siehe gültige Modelle unten) Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden
unterstützte Modelle.
Ja
seed ganze Zahl oder Null Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden.
Wenn Sie keinen Seed angeben, wird einer für Sie generiert.
Nein
suffix Zeichenfolge oder null Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird.
Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen.
Nein
Trainingsdatei Schnur Die ID einer hochgeladenen Datei, die Trainingsdaten enthält.
Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei.
Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.
Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet.
Weitere Details finden Sie im Fine-Tuning-Leitfaden.
Ja
Validierungsdatei Zeichenfolge oder null Die ID einer hochgeladenen Datei, die Validierungsdaten enthält.
Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs-
Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der
Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein.
Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.
Weitere Details finden Sie im Fine-Tuning-Leitfaden.
Nein

OpenAI.CreateFineTuningJobRequestHyperparameters

Name Typ Description Erforderlich Default
Batch-Größe Zeichenfolge oder ganze Zahl Nein
Lernratenmultiplikator Zeichenfolge oder Zahl Nein
n_epochs Zeichenfolge oder ganze Zahl Nein

OpenAI.CreateFineTuningJobRequestIntegrations

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: wandb
Ja
wandb OpenAI.CreateFineTuningJobRequestIntegrationsWandb Ja

OpenAI.CreateFineTuningJobRequestIntegrationsWandb

Name Typ Description Erforderlich Default
Entität Zeichenfolge oder null Nein
Name Zeichenfolge oder null Nein
Projekt Schnur Ja
tags Array von Zeichenfolgen Nein

OpenAI.CreateMessageRequest

Name Typ Description Erforderlich Default
attachments Array von OpenAI.CreateMessageRequestAttachments oder NULL Nein
Inhalt Zeichenfolge oder Array von OpenAI.MessageContentImageFileObject oder OpenAI.MessageContentImageUrlObject oder OpenAI.MessageRequestContentTextObject Ja
metadata OpenAI.Metadata oder NULL Nein
role enum Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind:
- user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.
- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.
Mögliche Werte: user, assistant
Ja

OpenAI.CreateMessageRequestAttachments

Name Typ Description Erforderlich Default
Datei-ID Schnur Nein
Werkzeuge Array von OpenAI.AssistantToolsCode oder OpenAI.AssistantToolsFileSearchTypeOnly Nein

OpenAI.CreateResponse

Name Typ Description Erforderlich Default
background Boolescher Wert oder Null Nein
-Unterhaltung OpenAI.ConversationParam oder NULL Nein
einschließen Array von OpenAI.IncludeEnum oder NULL Nein
Eingabe OpenAI.InputParam Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden.
Weitere Informationen:
- Texteingaben und -ausgaben
- Bildeingänge
- Dateieingaben
- Gesprächszustand
- Funktionsaufrufe
Nein
instructions Zeichenfolge oder null Nein
max_output_tokens ganze Zahl oder Null Nein
max_tool_calls ganze Zahl oder Null Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
Parallele Werkzeugaufrufe Boolescher Wert oder Null Nein
previous_response_id Zeichenfolge oder null Nein
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
prompt_cache_retention Zeichenfolge oder null Nein
reasoning OpenAI.Reasoning oder NULL Nein
safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
store Boolescher Wert oder Null Nein
Datenstrom Boolescher Wert oder Null Nein
stream_options OpenAI.ResponseStreamOptions oder NULL Nein
Temperatur Zahl oder Null Nein
Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
tool_choice OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
top_logprobs ganze Zahl oder Null Nein
top_p Zahl oder Null Nein
truncation Zeichenfolge oder null Nein
user Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein

OpenAI.CreateRunRequest

Name Typ Description Erforderlich Default
additional_instructions Zeichenfolge oder null Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. Nein
additional_messages Array von OpenAI.CreateMessageRequest oder NULL Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. Nein
assistant_id Schnur Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. Ja
instructions Zeichenfolge oder null Überschreibt die Anweisungen des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
max_completion_tokens ganze Zahl oder Null Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
max_prompt_tokens ganze Zahl oder Null Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. Nein
Parallele Werkzeugaufrufe OpenAI.ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
Antwortformat OpenAI.AssistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im
Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Datenstrom Boolescher Wert oder Null Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. Nein
Temperatur Zahl oder Null Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Nein
tool_choice OpenAI.AssistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Nein
Werkzeuge Array von OpenAI.AssistantTool Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
top_p Zahl oder Null Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
Nein
truncation_strategy OpenAI.TruncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Nein

OpenAI.CreateThreadAndRunRequest

Name Typ Description Erforderlich Default
assistant_id Schnur Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. Ja
instructions Zeichenfolge oder null Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
max_completion_tokens ganze Zahl oder Null Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
max_prompt_tokens ganze Zahl oder Null Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. Nein
Parallele Werkzeugaufrufe OpenAI.ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Nein
Antwortformat OpenAI.AssistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im
Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Nein
Datenstrom Boolescher Wert oder Null Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. Nein
Temperatur Zahl oder Null Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Nein
thread OpenAI.CreateThreadRequest Optionen zum Erstellen eines neuen Threads. Wenn beim Ausführen eines Threads kein Thread bereitgestellt wird
anforderung, ein leerer Thread wird erstellt.
Nein
tool_choice OpenAI.AssistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Nein
tool_resources OpenAI.CreateThreadAndRunRequestToolResources oder NULL Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. Nein
Werkzeuge Array von OpenAI.AssistantTool Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. Nein
top_p Zahl oder Null Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
Nein
truncation_strategy OpenAI.TruncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Nein

OpenAI.CreateThreadAndRunRequestToolResources

Name Typ Description Erforderlich Default
code_interpreter OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter Nein
file_search OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch Nein

OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter

Name Typ Description Erforderlich Default
Datei-IDs Array von Zeichenfolgen Nein []

OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch

Name Typ Description Erforderlich Default
vector_store_ids Array von Zeichenfolgen Nein

OpenAI.CreateThreadRequest

Optionen zum Erstellen eines neuen Threads. Wenn beim Ausführen einer Anforderung kein Thread bereitgestellt wird, wird ein leerer Thread erstellt.

Name Typ Description Erforderlich Default
messages Array von OpenAI.CreateMessageRequest Eine Liste der Nachrichten , mit der der Thread gestartet werden soll. Nein
metadata OpenAI.Metadata oder NULL Nein
tool_resources OpenAI.CreateThreadRequestToolResources oder NULL Nein

OpenAI.CreateThreadRequestToolResources

Name Typ Description Erforderlich Default
code_interpreter OpenAI.CreateThreadRequestToolResourcesCodeInterpreter Nein
file_search Objekt oder Objekt Nein

OpenAI.CreateThreadRequestToolResourcesCodeInterpreter

Name Typ Description Erforderlich Default
Datei-IDs Array von Zeichenfolgen Nein

OpenAI.CreateVectorStoreFileBatchRequest

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. Nein
Datei-IDs Array von Zeichenfolgen Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Wenn attributes oder chunking_strategy bereitgestellt wird, werden sie auf alle Dateien im Batch angewendet. Gegenseitiger Ausschluss mit files Nein
files Array von OpenAI.CreateVectorStoreFileRequest Eine Liste von Objekten, die jeweils ein file_id Pluszeichen enthalten, optional attributes oder chunking_strategy. Verwenden Sie diese Vorgehensweise, wenn Sie Metadaten für bestimmte Dateien außer Kraft setzen müssen. Die globale attributes oder chunking_strategy wird ignoriert und muss für jede Datei angegeben werden. Gegenseitiger Ausschluss mit file_ids Nein

OpenAI.CreateVectorStoreFileRequest

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Nein
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. Nein
Datei-ID Schnur Eine Datei-ID , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Ja

OpenAI.CreateVectorStoreRequest

Name Typ Description Erforderlich Default
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. Nein
Beschreibung Schnur Eine Beschreibung für den Vektorspeicher. Kann verwendet werden, um den Zweck des Vektorspeichers zu beschreiben. Nein
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
Datei-IDs Array von Zeichenfolgen Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Nein
metadata OpenAI.Metadata oder NULL Nein
Name Schnur Der Name des Vektorspeichers. Nein

OpenAI.CustomGrammarFormatParam

Eine vom Benutzer definierte Grammatik.

Name Typ Description Erforderlich Default
Definition Schnur Die Grammatik-Definition. Ja
syntax OpenAI.GrammarSyntax1 Ja
type enum Grammatikformat. Immer grammar.
Möglicher Wert: grammar
Ja

OpenAI.CustomTextFormatParam

Uneingeschränkter freier Text.

Name Typ Description Erforderlich Default
type enum Uneingeschränktes Textformat. Immer text.
Möglicher Wert: text
Ja

OpenAI.CustomToolChatCompletions

Ein benutzerdefiniertes Tool, das Eingaben in einem festgelegten Format verarbeitet.

Name Typ Description Erforderlich Default
custom OpenAI.CustomToolChatCompletionsCustom Ja
└– Beschreibung Schnur Nein
└─ Format OpenAI.CustomToolChatCompletionsCustomFormatText oder OpenAI.CustomToolChatCompletionsCustomFormatGrammar Nein
└– Name Schnur Ja
type enum Der Typ des benutzerdefinierten Werkzeugs. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.CustomToolChatCompletionsCustom

Name Typ Description Erforderlich Default
Beschreibung Schnur Nein
format OpenAI.CustomToolChatCompletionsCustomFormatText oder OpenAI.CustomToolChatCompletionsCustomFormatGrammar Nein
Name Schnur Ja

OpenAI.CustomToolChatCompletionsCustomFormatGrammar

Name Typ Description Erforderlich Default
Grammatik OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar Ja
└- Definition Schnur Ja
└– Syntax enum
Mögliche Werte: lark, regex
Ja
type enum
Möglicher Wert: grammar
Ja

OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar

Name Typ Description Erforderlich Default
Definition Schnur Ja
syntax enum
Mögliche Werte: lark, regex
Ja

OpenAI.CustomToolChatCompletionsCustomFormatText

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: text
Ja

OpenAI.CustomToolParam

Ein benutzerdefiniertes Tool, das Eingaben in einem festgelegten Format verarbeitet. Erfahren Sie mehr über benutzerdefinierte Tools

Name Typ Description Erforderlich Default
Beschreibung Schnur Optionale Beschreibung des benutzerdefinierten Tools, das verwendet wird, um mehr Kontext zu liefern. Nein
format OpenAI.CustomToolParamFormat Das Eingabeformat für das benutzerdefinierte Tool. Standard ist uneingeschränkter Text. Nein
└– Typ OpenAI.CustomToolParamFormatType Ja
Name Schnur Der Name des benutzerdefinierten Werkzeugs, das verwendet wird, um es in Werkzeugaufrufen zu identifizieren. Ja
type enum Der Typ des benutzerdefinierten Werkzeugs. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.CustomToolParamFormat

Das Eingabeformat für das benutzerdefinierte Tool. Standard ist uneingeschränkter Text.

Diskriminator für OpenAI.CustomToolParamFormat

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
text OpenAI.CustomTextFormatParam
grammar OpenAI.CustomGrammarFormatParam
Name Typ Description Erforderlich Default
type OpenAI.CustomToolParamFormatType Ja

OpenAI.CustomToolParamFormatType

Eigentum Wert
Typ Schnur
Werte text
grammar

OpenAI.DeleteFileResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: file
Ja

OpenAI.DeleteFineTuningCheckpointPermissionResponse

Name Typ Description Erforderlich Default
gelöscht boolean Gibt an, ob die Berechtigung für den fein abgestimmten Modellprüfpunkt erfolgreich gelöscht wurde. Ja
id Schnur Die ID der optimierten Modellprüfpunktberechtigung, die gelöscht wurde. Ja
Objekt enum Der Objekttyp, der immer "checkpoint.permission" ist.
Möglicher Wert: checkpoint.permission
Ja

OpenAI.DeleteMessageResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: thread.message.deleted
Ja

OpenAI.DeleteModelResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt Schnur Ja

OpenAI.DeleteThreadResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: thread.deleted
Ja

OpenAI.DeleteVectorStoreFileResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: vector_store.file.deleted
Ja

OpenAI.DeleteVectorStoreResponse

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: vector_store.deleted
Ja

OpenAI.DeletedConversationResource

Name Typ Description Erforderlich Default
gelöscht boolean Ja
id Schnur Ja
Objekt enum
Möglicher Wert: conversation.deleted
Ja

OpenAI.DoubleClickAction

Eine Doppelklickaktion

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf double_click gesetzt.
Möglicher Wert: double_click
Ja
x integer Die x-Koordinate, an der der Doppelklick aufgetreten ist. Ja
y integer Die y-Koordinate, an der der Doppelklick aufgetreten ist. Ja

OpenAI.Drag

Eine Ziehaktion

Name Typ Description Erforderlich Default
Pfad Array von OpenAI.DragPoint Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array angezeigt
von Objekten, z. B.
<br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br>
Ja
type enum Gibt den Ereignistyp an. Für eine Ziehaktion ist diese Eigenschaft
immer auf drag festgelegt.
Möglicher Wert: drag
Ja

OpenAI.DragPoint

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Typ Description Erforderlich Default
x integer Die x-Koordinate. Ja
y integer Die y-Koordinate. Ja

OpenAI.EasyInputMessage

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Typ Description Erforderlich Default
Inhalt String oder OpenAI.InputMessageContentList oder OpenAI.InputMessageContentList Text-, Bild- oder Audioeingabe für das Modell, um eine Antwort zu generieren.
Kann auch frühere Assistentenantworten enthalten.
Ja
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder
developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
type enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Ja

OpenAI.Embedding

Stellt einen einbettenden Vektor dar, der vom Einbettungsendpunkt zurückgegeben wird.

Name Typ Description Erforderlich Default
embedding Array der Zahl Der Einbettungsvektor, bei dem es sich um eine Liste von Floats handelt. Die Länge des Vektors hängt vom Modell ab, wie in der Einbettungsanleitung aufgeführt. Ja
Index integer Der Index der Einbettung in der Liste der Einbettungen Ja
Objekt enum Der Objekttyp, der immer „embedding“ ist.
Möglicher Wert: embedding
Ja

OpenAI.Eval

Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Beispiel:

  • Verbessern der Qualität meines Chatbots
  • Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
  • Überprüfen Sie, ob o4-mini bei meinem Anwendungsfall besser ist als gpt-4o
Name Typ Description Erforderlich Default
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. Ja
Datenquellenkonfiguration OpenAI.EvalCustomDataSourceConfig oder OpenAI.EvalLogsDataSourceConfig oder OpenAI.EvalStoredCompletionsDataSourceConfig Konfiguration von Datenquellen, die bei Ausführung der Auswertung verwendet werden. Ja
id Schnur Eindeutiger Bezeichner für die Auswertung. Ja
metadata OpenAI.Metadata oder NULL Ja
Name Schnur Der Name der Auswertung. Ja
Objekt enum Der Objekttyp.
Möglicher Wert: eval
Ja
Testkriterien Array von OpenAI.CreateEvalLabelModelGrader oder OpenAI.EvalGraderStringCheck oder OpenAI.EvalGraderTextSimilarity oder OpenAI.EvalGraderPython oder OpenAI.EvalGraderScoreModel oder EvalGraderEndpoint Eine Liste der Testkriterien. Ja

OpenAI.EvalApiError

Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.

Name Typ Description Erforderlich Default
code Schnur Der Fehlercode. Ja
Nachricht Schnur Die Fehlermeldung. Ja

OpenAI.EvalCustomDataSourceConfig

Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt. Das Antwortschema definiert die Form der Daten, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Typ Description Erforderlich Default
Schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
type enum Der Typ der Datenquelle. Immer custom.
Möglicher Wert: custom
Ja

OpenAI.EvalGraderPython

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.EvalGraderScoreModel

Name Typ Description Erforderlich Default
Eingabe Array von OpenAI.EvalItem Die vom Grader ausgewerteten Eingabemeldungen. Unterstützt Text-, Ausgabetext-, Eingabebild- und Eingabe-Audioinhaltsblöcke und kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Nein
range Array der Zahl Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme OpenAI.EvalGraderScoreModelSamplingParams Nein
└– max_completions_tokens ganze Zahl oder Null Nein
└– reasoning_effort OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
└- Samen ganze Zahl oder Null Nein
└– Temperatur Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.EvalGraderScoreModelSamplingParams

Name Typ Description Erforderlich Default
max_completions_tokens ganze Zahl oder Null Nein
Denkanstrengung OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
seed ganze Zahl oder Null Nein
Temperatur Zahl oder Null Nein
top_p Zahl oder Null Nein

OpenAI.EvalGraderStringCheck

Name Typ Description Erforderlich Default
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
type enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.EvalGraderTextSimilarity

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
oder rouge_l.
Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Schwellenwert erreichen number Der Schwellenwert für die Bewertung. Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.EvalItem

Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Typ Description Erforderlich Default
Inhalt OpenAI.EvalItemContent Eingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Unterstützt Text, Ausgabetext, Eingabebilder und Eingabeaudio, entweder als einzelnes Element oder als Array von Elementen. Ja
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder
developer.
Mögliche Werte: user, , assistant, systemdeveloper
Ja
type enum Der Typ der Nachrichteneingabe. Immer message.
Möglicher Wert: message
Nein

OpenAI.EvalItemContent

Eingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Unterstützt Text, Ausgabetext, Eingabebilder und Eingabeaudio, entweder als einzelnes Element oder als Array von Elementen.

Typ: OpenAI.EvalItemContentItem oder OpenAI.EvalItemContentArray

Eingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Unterstützt Text, Ausgabetext, Eingabebilder und Eingabeaudio, entweder als einzelnes Element oder als Array von Elementen.

OpenAI.EvalItemContentArray

Eine Liste der Eingaben, von denen jedes ein Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudioobjekt sein kann.

Array von: OpenAI.EvalItemContentItem

OpenAI.EvalItemContentItem

Ein einzelnes Inhaltselement: Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudio.

Typ: OpenAI.EvalItemContentText oder OpenAI.EvalItemContentItemObject

Ein einzelnes Inhaltselement: Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudio.

OpenAI.EvalItemContentItemObject

Ein einzelnes Inhaltselement: Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudio.

Diskriminator für OpenAI.EvalItemContentItemObject

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
output_text OpenAI.EvalItemContentOutputText
input_image OpenAI.EvalItemInputImage
input_audio OpenAI.InputAudio
input_text OpenAI.EvalItemContentItemObjectInputTextContent
Name Typ Description Erforderlich Default
type OpenAI.EvalItemContentItemObjectType Ja

OpenAI.EvalItemContentItemObjectInputTextContent

Eine Texteingabe für das Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Texteingabe für das Modell. Ja
type enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.EvalItemContentItemObjectType

Eigentum Wert
Typ Schnur
Werte input_text
output_text
input_image
input_audio

OpenAI.EvalItemContentOutputText

Eine Textausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Textausgabe aus dem Modell. Ja
type enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.EvalItemContentText

Eine Texteingabe für das Modell.

Typ: string

OpenAI.EvalItemInputImage

Ein Bildeingabeblock, der in EvalItem-Inhaltsarrays verwendet wird.

Name Typ Description Erforderlich Default
detail Schnur Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer der folgenden Werte: high, low oder auto. Wird standardmäßig auf auto festgelegt. Nein
image_url Schnur Die URL der Bildeingabe. Ja
type enum Der Typ der Bildeingabe. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.EvalJsonlFileContentSource

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.EvalJsonlFileContentSourceContent Der Inhalt der JSONL-Datei. Ja
type enum Der Typ der JSONL-Quelle. Immer file_content.
Möglicher Wert: file_content
Ja

OpenAI.EvalJsonlFileContentSourceContent

Name Typ Description Erforderlich Default
item Objekt Ja
Beispiel Objekt Nein

OpenAI.EvalJsonlFileIdSource

Name Typ Description Erforderlich Default
id Schnur Der Bezeichner der Datei. Ja
type enum Der Typ der JSONL-Quelle. Immer file_id.
Möglicher Wert: file_id
Ja

OpenAI.EvalList

Ein Objekt, das eine Liste von Evals darstellt.

Name Typ Description Erforderlich Default
Daten Array von OpenAI.Eval Ein Array von Eval-Objekten. Ja
first_id Schnur Der Bezeichner der ersten Auswertung im Datenarray. Ja
has_more boolean Gibt an, ob weitere Evals verfügbar sind. Ja
last_id Schnur Der Bezeichner der letzten Auswertung im Datenarray. Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalLogsDataSourceConfig

Eine LogsDataSourceConfig, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Evals verfügbar sind. item und sample sind bei dieser Datenquellenkonfiguration beide definiert.

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein
Schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
type enum Der Typ der Datenquelle. Immer logs.
Möglicher Wert: logs
Ja

OpenAI.EvalResponsesSource

Ein EvalResponsesSource-Objekt, das die Datenquellenkonfiguration einer Ausführung beschreibt.

Name Typ Description Erforderlich Default
created_after ganze Zahl oder Null Nein
erstellt_vor ganze Zahl oder Null Nein
instructions_search Zeichenfolge oder null Nein
metadata -Objekt oder Null Nein
Modell Zeichenfolge oder null Nein
Denkanstrengung OpenAI.ReasoningEffort oder null Nein
Temperatur Zahl oder Null Nein
Werkzeuge Array von Zeichenfolge oder Null Nein
top_p Zahl oder Null Nein
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Möglicher Wert: responses
Ja
Nutzer Array von Zeichenfolge oder Null Nein

OpenAI.EvalRun

Ein Schema, das eine Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
erstellt_am integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Ja
Datenquelle OpenAI.CreateEvalJsonlRunDataSource oder OpenAI.CreateEvalCompletionsRunDataSource oder OpenAI.CreateEvalResponsesRunDataSource Informationen zur Datenquelle der Ausführung. Ja
Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
eval_id Schnur Bezeichner der zugeordneten Auswertung Ja
id Schnur Eindeutiger Bezeichner für die Auswertungsausführung Ja
metadata OpenAI.Metadata oder NULL Ja
Modell Schnur Das Modell, das ausgewertet wird, falls zutreffend. Ja
Name Schnur Name der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run“
Möglicher Wert: eval.run
Ja
pro_Modell_Nutzung Array von OpenAI.EvalRunPerModelUsage Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. Ja
Ergebnisse_pro_Testkriterien Array von OpenAI.EvalRunPerTestingCriteriaResults Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. Ja
report_url Schnur URL zum gerenderten Bericht der Auswertungsausführung im Dashboard auf der Benutzeroberfläche Ja
Ergebnisanzahl OpenAI.EvalRunResultCounts Ja
└– fehler integer Ja
└– fehlgeschlagen integer Ja
└– bestanden integer Ja
└– Gesamtsumme integer Ja
status Schnur Status der Auswertungsausführung Ja

OpenAI.EvalRunList

Objekt, das eine Liste der Ausführungen einer Auswertung darstellt

Name Typ Description Erforderlich Default
Daten Array von OpenAI.EvalRun Array von Objekten der Auswertungsausführung Ja
first_id Schnur Der Bezeichner des ersten Eval-Vorgangs im Datenarray. Ja
has_more boolean Gibt an, ob weitere Evals verfügbar sind. Ja
last_id Schnur Bezeichner der letzten Auswertungsausführung im Datenarray Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalRunOutputItem

Ein Schema, das ein Ausgabeelement einer Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
erstellt_am integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Ja
Datenquellenobjekt Objekt Details zum Datenquellelement der Eingabe Ja
datasource_item_id integer Der Bezeichner für das Datenquellenelement. Ja
eval_id Schnur Der Bezeichner der Auswertungsgruppe. Ja
id Schnur Eindeutiger Bezeichner für das Ausgabeelement der Auswertungsausführung Ja
Objekt enum Der Typ des Objekts. Immer „eval.run.output_item“
Möglicher Wert: eval.run.output_item
Ja
results Array von OpenAI.EvalRunOutputItemResult Eine Liste der Bewertungsergebnisse für dieses Ausgabeelement. Ja
run_id Schnur Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. Ja
Beispiel OpenAI.EvalRunOutputItemSample Ja
└– Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
└- finish_reason Schnur Ja
└– Eingabe Array von OpenAI.EvalRunOutputItemSampleInput Ja
└– max_completion_tokens integer Ja
└─ Modell Schnur Ja
└─ Ausgabe Array von OpenAI.EvalRunOutputItemSampleOutput Ja
└- Samen integer Ja
└– Temperatur number Ja
└– top_p number Ja
└– Nutzung OpenAI.EvalRunOutputItemSampleUsage Ja
status Schnur Status der Auswertungsausführung Ja

OpenAI.EvalRunOutputItemList

Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.

Name Typ Description Erforderlich Default
Daten Array von OpenAI.EvalRunOutputItem Array von Ausgabeelementobjekten einer Auswertungsausführung Ja
first_id Schnur Bezeichner des ersten Ausgabeelements einer Auswertungsausführung im Datenarray Ja
has_more boolean Gibt an, ob weitere Ausgabeelemente für die Auswertungsausführung verfügbar sind Ja
last_id Schnur Der Bezeichner des letzten Ausgabeelements des Eval-Durchlaufs im Datenarray. Ja
Objekt enum Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt.
Möglicher Wert: list
Ja

OpenAI.EvalRunOutputItemResult

Ein einzelnes Graderergebnis für ein Auswertungsausführungsausgabeelement.

Name Typ Description Erforderlich Default
Name Schnur Name des Bewerters (Graders) Ja
verabschiedet boolean Gibt an, ob der Grader die Ausgabe als Pass betrachtet hat. Ja
Beispiel -Objekt oder Null Optionale Beispiel- oder Zwischendaten, die vom Grader erzeugt werden. Nein
score number Die vom Grader erzeugte numerische Bewertung. Ja
type Schnur Der Gradertyp (z. B. "string-check-grader"). Nein

OpenAI.EvalRunOutputItemSample

Name Typ Description Erforderlich Default
Fehler OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Ja
Beendigungsgrund Schnur Ja
Eingabe Array von OpenAI.EvalRunOutputItemSampleInput Ja
max_completion_tokens integer Ja
Modell Schnur Ja
output Array von OpenAI.EvalRunOutputItemSampleOutput Ja
seed integer Ja
Temperatur number Ja
top_p number Ja
usage OpenAI.EvalRunOutputItemSampleUsage Ja

OpenAI.EvalRunOutputItemSampleInput

Name Typ Description Erforderlich Default
Inhalt Schnur Ja
role Schnur Ja

OpenAI.EvalRunOutputItemSampleOutput

Name Typ Description Erforderlich Default
Inhalt Schnur Nein
role Schnur Nein

OpenAI.EvalRunOutputItemSampleUsage

Name Typ Description Erforderlich Default
cached_tokens integer Ja
completion_tokens integer Ja
prompt_tokens integer Ja
Gesamtanzahl Tokens integer Ja

OpenAI.EvalRunPerModelUsage

Name Typ Description Erforderlich Default
cached_tokens integer Ja
completion_tokens integer Ja
invocation_count integer Ja
model_name Schnur Ja
prompt_tokens integer Ja
Gesamtanzahl Tokens integer Ja

OpenAI.EvalRunPerTestingCriteriaResults

Name Typ Description Erforderlich Default
misslungen integer Ja
verabschiedet integer Ja
Testkriterien Schnur Ja

OpenAI.EvalRunResultCounts

Name Typ Description Erforderlich Default
fehlered integer Ja
misslungen integer Ja
verabschiedet integer Ja
gesamt integer Ja

OpenAI.EvalStoredCompletionsDataSourceConfig

Veraltet zugunsten von LogsDataSourceConfig.

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein
Schema Objekt Das JSON-Schema für die Laufdatenquellenelemente.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
type enum Der Typ der Datenquelle. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.EvalStoredCompletionsSource

Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt

Name Typ Description Erforderlich Default
created_after ganze Zahl oder Null Nein
erstellt_vor ganze Zahl oder Null Nein
limit ganze Zahl oder Null Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Zeichenfolge oder null Nein
type enum Der Quelltyp. Immer stored_completions.
Möglicher Wert: stored_completions
Ja

OpenAI.FileCitationBody

Ein Verweis auf eine Datei.

Name Typ Description Erforderlich Default
Datei-ID Schnur Die ID der Datei. Ja
filename Schnur Der Dateiname der Datei, auf die verwiesen wird. Ja
Index integer Der Index der Datei in der Liste der Dateien. Ja
type enum Der Typ des Dateizitats Immer file_citation.
Möglicher Wert: file_citation
Ja

OpenAI.FilePath

Ein Pfad zu einer Datei.

Name Typ Description Erforderlich Default
Datei-ID Schnur Die ID der Datei. Ja
Index integer Der Index der Datei in der Liste der Dateien. Ja
type enum Der Typ des Dateipfads. Immer file_path.
Möglicher Wert: file_path
Ja

OpenAI.FileSearchRanker

Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet.

Eigentum Wert
Typ Schnur
Werte auto
default_2024_08_21

OpenAI.FileSearchRankingOptions

Die Bewertungsoptionen für die Dateisuche. Wenn nicht angegeben, verwendet das Dateisuchtool den auto Rangfolger und einen score_threshold von 0. Weitere Informationen finden Sie in der Dokumentation zum Dateisuchtool .

Name Typ Description Erforderlich Default
Bewerter OpenAI.FileSearchRanker Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet. Nein
score-threshold number Der Schwellenwert für die Bewertung für die Dateisuche. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein.
Einschränkungen: min: 0, max: 1
Ja

OpenAI.FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Typ Description Erforderlich Default
filters OpenAI.Filters oder NULL Nein
max_anzahl_ergebnisse integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Nein
Ranglistenoptionen OpenAI.RankingOptions Nein
└– hybrid_search OpenAI.HybridSearchOptions Gewichte, die steuern, wie reziproke Rangfusion semantische Einbettungsübereinstimmungen im Vergleich zu spärlichen Schlüsselwortübereinstimmungen ausbalanciert, wenn die hybride Suche aktiviert ist. Nein
└– Ranker OpenAI.RankerVersionType Der Rangfolger, der für die Dateisuche verwendet werden soll. Nein
└─ Punktschwelle number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein
type enum Der Typ des Dateisuchtools. Immer file_search.
Möglicher Wert: file_search
Ja
vector_store_ids Array von Zeichenfolgen Die IDs der zu durchsuchenden Vektorspeicher. Ja

OpenAI.FileSearchToolCallResults

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Nein
Datei-ID Schnur Nein
filename Schnur Nein
score number Nein
Text Schnur Nein

OpenAI.Filters

Typ: OpenAI.ComparisonFilter oder OpenAI.CompoundFilter

OpenAI.FineTuneDPOHyperparameters

Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.

Name Typ Description Erforderlich Default
Batch-Größe Zeichenfolge oder ganze Zahl Anzahl der Beispiele in jedem Batch. Eine größere Batchgröße bedeutet, dass Modellparameter weniger häufig aktualisiert werden, aber mit geringerer Varianz. Nein
Beta Zeichenfolge oder Zahl Der Betawert für die DPO-Methode. Ein höherer Betawert erhöht die Gewichtung der Strafe zwischen der Richtlinie und dem Referenzmodell. Nein
Lernratenmultiplikator Zeichenfolge oder Zahl Skalierungsfaktor für die Lernrate. Eine kleinere Lernrate kann nützlich sein, um Überanpassung zu vermeiden. Nein
n_epochs Zeichenfolge oder ganze Zahl Die Anzahl der Epochen zum Trainieren des Modells. Eine Epoche bezieht sich auf einen vollständigen Zyklus durch das Trainingsdataset. Nein

OpenAI.FineTuneDPOMethod

Konfiguration für die DPO-Feinabstimmungsmethode.

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.FineTuneDPOHyperparameters Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuneMethod

Die Methode, die für die Feinabstimmung verwendet wird.

Name Typ Description Erforderlich Default
dpo OpenAI.FineTuneDPOMethod Konfiguration für die DPO-Feinabstimmungsmethode. Nein
Verstärkung AzureFineTuneReinforcementMethod Nein
überwacht OpenAI.FineTuneSupervisedMethod Konfiguration für die überwachte Feinabstimmungsmethode. Nein
type enum Der Typ der Methode. Ist entweder supervised, dpo oder reinforcement.
Mögliche Werte: supervised, , dporeinforcement
Ja

OpenAI.FineTuneReinforcementHyperparameters

Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter.

Name Typ Description Erforderlich Default
Batch-Größe Zeichenfolge oder ganze Zahl Anzahl der Beispiele in jedem Batch. Eine größere Batchgröße bedeutet, dass Modellparameter weniger häufig aktualisiert werden, aber mit geringerer Varianz. Nein
compute_multiplier Zeichenfolge oder Zahl Multiplizierer für die Berechnungsmenge, die für die Erkundung des Suchraums während der Schulung verwendet wird. Nein
eval_interval Zeichenfolge oder ganze Zahl Die Anzahl der Schulungsschritte zwischen den Auswertungsläufen. Nein
eval_samples Zeichenfolge oder ganze Zahl Anzahl der Auswertungsbeispiele, die pro Schulungsschritt generiert werden sollen. Nein
Lernratenmultiplikator Zeichenfolge oder Zahl Skalierungsfaktor für die Lernrate. Eine kleinere Lernrate kann nützlich sein, um Überanpassung zu vermeiden. Nein
n_epochs Zeichenfolge oder ganze Zahl Die Anzahl der Epochen zum Trainieren des Modells. Eine Epoche bezieht sich auf einen vollständigen Zyklus durch das Trainingsdataset. Nein
Denkanstrengung enum Ebene des Begründungsaufwands.
Mögliche Werte: default, , low, mediumhigh
Nein

OpenAI.FineTuneSupervisedHyperparameters

Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.

Name Typ Description Erforderlich Default
Batch-Größe Zeichenfolge oder ganze Zahl Anzahl der Beispiele in jedem Batch. Eine größere Batchgröße bedeutet, dass Modellparameter weniger häufig aktualisiert werden, aber mit geringerer Varianz. Nein
Lernratenmultiplikator Zeichenfolge oder Zahl Skalierungsfaktor für die Lernrate. Eine kleinere Lernrate kann nützlich sein, um Überanpassung zu vermeiden. Nein
n_epochs Zeichenfolge oder ganze Zahl Die Anzahl der Epochen zum Trainieren des Modells. Eine Epoche bezieht sich auf einen vollständigen Zyklus durch das Trainingsdataset. Nein

OpenAI.FineTuneSupervisedMethod

Konfiguration für die überwachte Feinabstimmungsmethode.

Name Typ Description Erforderlich Default
Hyperparameter OpenAI.FineTuneSupervisedHyperparameters Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Nein

OpenAI.FineTuningCheckpointPermission

Das checkpoint.permission Objekt stellt eine Berechtigung für einen fein abgestimmten Modellprüfpunkt dar.

Name Typ Description Erforderlich Default
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Berechtigung. Ja
id Schnur Der Berechtigungsbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer "checkpoint.permission" ist.
Möglicher Wert: checkpoint.permission
Ja
project_id Schnur Der Projektbezeichner, für den die Berechtigung gilt. Ja

OpenAI.FineTuningIntegration

Name Typ Description Erforderlich Default
type enum Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird
Möglicher Wert: wandb
Ja
wandb OpenAI.FineTuningIntegrationWandb Ja
└– Entität Zeichenfolge oder null Nein
└– Name Zeichenfolge oder null Nein
└- Projekt Schnur Ja
└- Tags Array von Zeichenfolgen Nein

OpenAI.FineTuningIntegrationWandb

Name Typ Description Erforderlich Default
Entität Zeichenfolge oder null Nein
Name Zeichenfolge oder null Nein
Projekt Schnur Ja
tags Array von Zeichenfolgen Nein

OpenAI.FineTuningJob

Das Objekt fine_tuning.job stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.

Name Typ Description Erforderlich Default
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Fehler OpenAI.FineTuningJobError oder null Ja
geschätzte Fertigstellung Zeichenfolge oder null Nein
fine_tuned_model Zeichenfolge oder null Ja
finished_at Zeichenfolge oder null Ja
Hyperparameter OpenAI.FineTuningJobHyperparameters Ja
└- batch_size Zeichenfolge oder ganze Zahl oder Null Nein auto
└– Lernraten-Multiplikator Zeichenfolge oder Zahl Nein
└– n_epochs Zeichenfolge oder ganze Zahl Nein auto
id Schnur Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Integrationen Array von OpenAI.FineTuningIntegration oder null Nein
metadata OpenAI.Metadata oder NULL Nein
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. Nein
Modell Schnur Das Basismodell, das fein abgestimmt wird. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job“ ist.
Möglicher Wert: fine_tuning.job
Ja
organization_id Schnur Die Organisation, die den Feinabstimmungsauftrag besitzt. Ja
Ergebnisdateien Array von Zeichenfolgen Die kompilierten Ergebnisdatei-ID(s) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. Ja
seed integer Der für den Optimierungsauftrag verwendete Seed Ja
status enum Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, queued, running, succeeded, failed oder cancelled sein kann.
Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled
Ja
trainierte Token ganze Zahl oder Null Ja
Trainingsdatei Schnur Die Datei-ID, die für das Training verwendet wird. Sie können die Schulungsdaten mit der Dateien-API abrufen. Ja
Validierungsdatei Zeichenfolge oder null Ja

OpenAI.FineTuningJobCheckpoint

Das Objekt fine_tuning.job.checkpoint stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.

Name Typ Description Erforderlich Default
erstellt_am integer Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. Ja
fine_tuned_model_checkpoint Schnur Der Name des erstellten fein abgestimmten Prüfpunktmodells. Ja
fine_tuning_job_id Schnur Name des Optimierungsauftrags, aus dem dieser Prüfpunkt erstellt wurde Ja
id Schnur Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
metrics OpenAI.FineTuningJobCheckpointMetrics Ja
└– full_valid_loss number Nein
└– Durchschnittliche Token-Genauigkeit für die gültigen vollständigen Daten number Nein
└– Schritt number Nein
└– train_loss number Nein
└– train_mean_token_accuracy number Nein
└– valid_loss number Nein
└– valid_mean_token_accuracy number Nein
Objekt enum Der Objekttyp, der immer „fine_tuning.job.checkpoint“ ist.
Möglicher Wert: fine_tuning.job.checkpoint
Ja
Schrittnummer integer Die Schrittnummer, bei der der Prüfpunkt erstellt wurde. Ja

OpenAI.FineTuningJobCheckpointMetrics

Name Typ Description Erforderlich Default
full_valid_loss number Nein
full_valid_mean_token_accuracy number Nein
Schritt number Nein
train_loss number Nein
train_mean_token_accuracy number Nein
valid_loss number Nein
valid_mean_token_accuracy number Nein

OpenAI.FineTuningJobError

Name Typ Description Erforderlich Default
code Schnur Ja
Nachricht Schnur Ja
param Zeichenfolge oder null Ja

OpenAI.FineTuningJobEvent

Ereignisobjekt des Feinabstimmungsauftrags

Name Typ Description Erforderlich Default
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. Ja
Daten OpenAI.FineTuningJobEventData Nein
id Schnur Der Objektbezeichner. Ja
Ebene enum Der Protokolliergrad des Ereignisses.
Mögliche Werte: info, , warnerror
Ja
Nachricht Schnur Die Meldung des Ereignisses. Ja
Objekt enum Der Objekttyp, der immer „fine_tuning.job.event“ ist.
Möglicher Wert: fine_tuning.job.event
Ja
type enum Den Typ des Ereignisses
Mögliche Werte: message, metrics
Nein

OpenAI.FineTuningJobEventData

Typ: Objekt

OpenAI.FineTuningJobHyperparameters

Name Typ Description Erforderlich Default
Batch-Größe Zeichenfolge oder ganze Zahl oder Null Nein
Lernratenmultiplikator Zeichenfolge oder Zahl Nein
n_epochs Zeichenfolge oder ganze Zahl Nein

OpenAI.FunctionAndCustomToolCallOutput

Diskriminator für OpenAI.FunctionAndCustomToolCallOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_text OpenAI.FunctionAndCustomToolCallOutputInputTextContent
input_image OpenAI.FunctionAndCustomToolCallOutputInputImageContent
input_file OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Name Typ Description Erforderlich Default
type OpenAI.FunctionAndCustomToolCallOutputType Ja

OpenAI.FunctionAndCustomToolCallOutputInputFileContent

Eine Dateieingabe für das Modell.

Name Typ Description Erforderlich Default
file_data Schnur Der Inhalt der Datei, die an das Modell gesendet werden soll. Nein
Datei-ID Zeichenfolge oder null Nein
file_url Schnur Die URL der Datei, die an das Modell gesendet werden soll. Nein
filename Schnur Der Name der Datei, die an das Modell gesendet werden soll. Nein
type enum Der Typ des Eingabeelements. Immer input_file.
Möglicher Wert: input_file
Ja

OpenAI.FunctionAndCustomToolCallOutputInputImageContent

Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.

Name Typ Description Erforderlich Default
detail OpenAI.ImageDetail Ja
Datei-ID Zeichenfolge oder null Nein
image_url Zeichenfolge oder null Nein
type enum Der Typ des Eingabeelements. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.FunctionAndCustomToolCallOutputInputTextContent

Eine Texteingabe für das Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Texteingabe für das Modell. Ja
type enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.FunctionAndCustomToolCallOutputType

Eigentum Wert
Typ Schnur
Werte input_text
input_image
input_file

OpenAI.FunctionObject

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. Nein
Name Schnur Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. Ja
parameters OpenAI.FunctionParameters Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Siehe die leitfaden für Beispiele und die JSON Schema Reference für Dokumentationen zum Format.
Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Nein
strict Boolescher Wert oder Null Nein

OpenAI.FunctionParameters

Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Siehe die leitfaden für Beispiele und die JSON Schema Reference für Dokumentationen zum Format. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.

Typ: Objekt

OpenAI.FunctionShellAction

Führen Sie einen Shellbefehl aus.

Name Typ Description Erforderlich Default
commands Array von Zeichenfolgen Ja
max_output_length ganze Zahl oder Null Ja
timeout_ms ganze Zahl oder Null Ja

OpenAI.FunctionShellCallOutputContent

Der Inhalt einer Shelltoolaufrufausgabe, die ausgegeben wurde.

Name Typ Description Erforderlich Default
created_by Schnur Der Bezeichner des Akteurs, der das Element erstellt hat. Nein
Ergebnis OpenAI.FunctionShellCallOutputOutcome Stellt entweder ein Ausgangsergebnis (mit einem Exitcode) oder ein Timeoutergebnis für einen Shell-Aufrufausgabeblock dar. Ja
└– Typ OpenAI.FunctionShellCallOutputOutcomeType Ja
Stderr Schnur Die Standardfehlerausgabe, die erfasst wurde. Ja
Stdout Schnur Die Standardausgabe, die erfasst wurde. Ja

OpenAI.FunctionShellCallOutputExitOutcome

Zeigt an, dass die Shell-Befehle abgeschlossen sind und einen Exit-Code zurückgegeben haben.

Name Typ Description Erforderlich Default
exit_code integer Beenden Sie Code aus dem Shellprozess. Ja
type enum Der Ergebnistyp. Immer exit.
Möglicher Wert: exit
Ja

OpenAI.FunctionShellCallOutputOutcome

Stellt entweder ein Ausgangsergebnis (mit einem Exitcode) oder ein Timeoutergebnis für einen Shell-Aufrufausgabeblock dar.

Diskriminator für OpenAI.FunctionShellCallOutputOutputOutcome

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
timeout OpenAI.FunctionShellCallOutputTimeoutOutcome
exit OpenAI.FunctionShellCallOutputExitOutcome
Name Typ Description Erforderlich Default
type OpenAI.FunctionShellCallOutputOutcomeType Ja

OpenAI.FunctionShellCallOutputOutcomeType

Eigentum Wert
Typ Schnur
Werte timeout
exit

OpenAI.FunctionShellCallOutputTimeoutOutcome

Zeigt an, dass der Shell-Aufruf das konfigurierte Zeitlimit überschritten hat.

Name Typ Description Erforderlich Default
type enum Der Ergebnistyp. Immer timeout.
Möglicher Wert: timeout
Ja

OpenAI.FunctionShellToolParam

Ein Werkzeug, das es dem Modell ermöglicht, Shell-Befehle auszuführen.

Name Typ Description Erforderlich Default
type enum Der Typ des Patronenwerkzeugs. Immer shell.
Möglicher Wert: shell
Ja

OpenAI.FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.

Name Typ Description Erforderlich Default
Beschreibung Zeichenfolge oder null Nein
Name Schnur Der Name der aufzurufenden Funktion. Ja
parameters -Objekt oder Null Ja
strict Boolescher Wert oder Null Ja
type enum Der Typ des Funktionstools. Immer function.
Möglicher Wert: function
Ja

OpenAI.GraderMulti

Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Bewerter, um eine einzelne Bewertung zu erzeugen.

Name Typ Description Erforderlich Default
calculate_output Schnur Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. Ja
Bewerter OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderScoreModel oder GraderEndpoint Ja
Name Schnur Name des Bewerters (Graders) Ja
type enum Der Objekttyp, der immer multi ist.
Möglicher Wert: multi
Ja

OpenAI.GraderPython

Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.

Name Typ Description Erforderlich Default
image_tag Schnur Das Bildtag, das für das Python-Skript verwendet werden soll. Nein
Name Schnur Name des Bewerters (Graders) Ja
source Schnur Der Quellcode des Python-Skripts. Ja
type enum Der Objekttyp, der immer python ist.
Möglicher Wert: python
Ja

OpenAI.GraderScoreModel

Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.

Name Typ Description Erforderlich Default
Eingabe Array von OpenAI.EvalItem Die vom Grader ausgewerteten Eingabemeldungen. Unterstützt Text-, Ausgabetext-, Eingabebild- und Eingabe-Audioinhaltsblöcke und kann Vorlagenzeichenfolgen enthalten. Ja
Modell Schnur Das Modell, das für die Auswertung verwendet werden soll. Ja
Name Schnur Name des Bewerters (Graders) Ja
range Array der Zahl Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. Nein
Parameter für Stichprobennahme OpenAI.EvalGraderScoreModelSamplingParams Nein
└– max_completions_tokens ganze Zahl oder Null Nein
└– reasoning_effort OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
└- Samen ganze Zahl oder Null Nein
└– Temperatur Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
type enum Der Objekttyp, der immer score_model ist.
Möglicher Wert: score_model
Ja

OpenAI.GraderStringCheck

Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.

Name Typ Description Erforderlich Default
Eingabe Schnur Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
Name Schnur Name des Bewerters (Graders) Ja
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.
Mögliche Werte: eq, , ne, likeilike
Ja
Referenz Schnur Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. Ja
type enum Der Objekttyp, der immer string_check ist.
Möglicher Wert: string_check
Ja

OpenAI.GraderTextSimilarity

Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.

Name Typ Description Erforderlich Default
Bewertungsmetrik enum Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,
gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5
oder rouge_l.
Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l
Ja
Eingabe Schnur Der Text, der benotet wird. Ja
Name Schnur Name des Bewerters (Graders) Ja
Referenz Schnur Der Text, für die Bewertung. Ja
type enum Typ des Bewerters (Graders)
Möglicher Wert: text_similarity
Ja

OpenAI.GrammarSyntax1

Eigentum Wert
Typ Schnur
Werte lark
regex

OpenAI.HybridSearchOptions

Name Typ Description Erforderlich Default
embedding_weight number Das Gewicht der Einbettung in der reziproken Rangfolgefusion. Ja
text_weight number Das Gewicht des Textes in der wechselseitigen Rangfolgefusion. Ja

OpenAI.ImageDetail

Eigentum Wert
Typ Schnur
Werte low
high
auto

OpenAI.ImageGenTool

Ein Tool, das Bilder mithilfe der GPT-Bildmodelle generiert.

Gültige Modelle:

gpt-image-1
gpt-image-1-mini
Name Typ Description Erforderlich Default
background enum Hintergrundtyp für das generierte Bild. Einer von transparent,
opaque oder auto. Standardwert: auto.
Mögliche Werte: transparent, , opaqueauto
Nein
input_fidelity OpenAI.InputFidelity oder NULL Nein
input_image_mask OpenAI.ImageGenToolInputImageMask Nein
└– file_id Schnur Nein
└– image_url Schnur Nein
Modell string (siehe gültige Modelle unten) Nein
moderation enum Moderationsebene für das generierte Bild. Standardwert: auto.
Mögliche Werte: auto, low
Nein
Ausgabekomprimierung integer Komprimierungsebene für das Ausgabebild. Standardwert: 100.
Einschränkungen: min: 0, max: 100
Nein 100
Ausgabeformat enum Das Ausgabeformat des generierten Bilds. Einer von png, , webpoder
jpeg. Standardwert: png.
Mögliche Werte: png, , webpjpeg
Nein
unvollständige Bilder integer Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3.
Einschränkungen: min: 0, max: 3
Nein
quality enum Die Qualität des generierten Bilds. Einer der folgenden Werte: low, medium, high,
oder auto. Standardwert: auto.
Mögliche Werte: low, , medium, highauto
Nein
Größe enum Die Größe des generierten Bilds. Einer der folgenden Werte: 1024x1024, 1024x1536,
1536x1024 oder auto. Standardwert: auto.
Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto
Nein
type enum Der Typ des Tools zur Bildgenerierung. Immer image_generation.
Möglicher Wert: image_generation
Ja

OpenAI.ImageGenToolInputImageMask

Name Typ Description Erforderlich Default
Datei-ID Schnur Nein
image_url Schnur Nein

OpenAI.IncludeEnum

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • web_search_call.action.sources: Schließen Sie die Quellen des Aufrufs des Websuchtools ein.
  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
  • computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
Eigentum Wert
Beschreibung Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
  • web_search_call.action.sources: Schließen Sie die Quellen des Aufrufs des Websuchtools ein.
  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters.
  • computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen.
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn der store-Parameter auf false festgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt). | | Typ | string | | Werte | file_search_call.results
    web_search_call.results
    web_search_call.action.sources
    message.input_image.image_url
    computer_call_output.output.image_url
    code_interpreter_call.outputs
    reasoning.encrypted_content
    message.output_text.logprobs |

OpenAI.InputAudio

Eine Audioeingabe für das Modell.

Name Typ Description Erforderlich Default
input_audio OpenAI.InputAudioInputAudio Ja
type enum Der Typ des Eingabeelements. Immer input_audio.
Möglicher Wert: input_audio
Ja

OpenAI.InputAudioInputAudio

Name Typ Description Erforderlich Default
Daten Schnur Ja
format enum
Mögliche Werte: mp3, wav
Ja

OpenAI.InputContent

Diskriminator für OpenAI.InputContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
input_text OpenAI.InputContentInputTextContent
input_image OpenAI.InputContentInputImageContentContent
input_file OpenAI.InputContentInputFileContent
Name Typ Description Erforderlich Default
type OpenAI.InputContentType Ja

OpenAI.InputContentInputFileContent

Eine Dateieingabe für das Modell.

Name Typ Description Erforderlich Default
file_data Schnur Der Inhalt der Datei, die an das Modell gesendet werden soll. Nein
Datei-ID Zeichenfolge oder null Nein
file_url Schnur Die URL der Datei, die an das Modell gesendet werden soll. Nein
filename Schnur Der Name der Datei, die an das Modell gesendet werden soll. Nein
type enum Der Typ des Eingabeelements. Immer input_file.
Möglicher Wert: input_file
Ja

OpenAI.InputContentInputImageContentContent

Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.

Name Typ Description Erforderlich Default
detail OpenAI.ImageDetail Ja
Datei-ID Zeichenfolge oder null Nein
image_url Zeichenfolge oder null Nein
type enum Der Typ des Eingabeelements. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.InputContentInputTextContent

Eine Texteingabe für das Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Texteingabe für das Modell. Ja
type enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.InputContentType

Eigentum Wert
Typ Schnur
Werte input_text
input_image
input_file

OpenAI.InputFidelity

Steuern Sie, wie viel Aufwand das Modell ausüben wird, um dem Stil und den Features, insbesondere Gesichtsmerkmalen, von Eingabebildern zu entsprechen. Der Parameter wird nur von gpt-image-1 unterstützt. Nicht unterstützt für gpt-image-1-mini. Unterstützt high und low. Wird standardmäßig auf low festgelegt.

Eigentum Wert
Typ Schnur
Werte high
low

OpenAI.InputFileContent

Eine Dateieingabe für das Modell.

Name Typ Description Erforderlich Default
file_data Schnur Der Inhalt der Datei, die an das Modell gesendet werden soll. Nein
Datei-ID Zeichenfolge oder null Nein
file_url Schnur Die URL der Datei, die an das Modell gesendet werden soll. Nein
filename Schnur Der Name der Datei, die an das Modell gesendet werden soll. Nein
type enum Der Typ des Eingabeelements. Immer input_file.
Möglicher Wert: input_file
Ja

OpenAI.InputImageContent

Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.

Name Typ Description Erforderlich Default
detail OpenAI.ImageDetail Ja
Datei-ID Zeichenfolge oder null Nein
image_url Zeichenfolge oder null Nein
type enum Der Typ des Eingabeelements. Immer input_image.
Möglicher Wert: input_image
Ja

OpenAI.InputItem

Diskriminator für OpenAI.InputItem

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
message OpenAI.EasyInputMessage
item_reference OpenAI.ItemReferenceParam
Name Typ Description Erforderlich Default
type OpenAI.InputItemType Ja

OpenAI.InputItemType

Eigentum Wert
Typ Schnur
Werte message
item_reference

OpenAI.InputMessageContentList

Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhaltstypen enthält.

Array von: OpenAI.InputContent

OpenAI.InputMessageResource

Name Typ Description Erforderlich Default
Inhalt OpenAI.InputMessageContentList Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält
types.
Ja
id Schnur Die eindeutige ID der Nachrichteneingabe. Ja
role enum Die Rolle der Nachrichteneingabe. Einer der folgenden Werte: user, system oder developer.
Mögliche Werte: user, , systemdeveloper
Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ der Nachrichteneingabe. Immer auf message festgelegt.
Möglicher Wert: message
Ja

OpenAI.InputParam

Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen:

Typ: Zeichenfolge oder Array von OpenAI.InputItem

Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen:

OpenAI.InputTextContent

Eine Texteingabe für das Modell.

Name Typ Description Erforderlich Default
Text Schnur Die Texteingabe für das Modell. Ja
type enum Der Typ des Eingabeelements. Immer input_text.
Möglicher Wert: input_text
Ja

OpenAI.ItemReferenceParam

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Typ Description Erforderlich Default
id Schnur Die ID des zu referenzierenden Elements. Ja
type enum Der Typ des zu referenzierenden Elements. Immer item_reference.
Möglicher Wert: item_reference
Ja

OpenAI.ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
message OpenAI.InputMessageResource
output_message OpenAI.ItemResourceOutputMessage
file_search_call OpenAI.ItemResourceFileSearchToolCall
computer_call OpenAI.ItemResourceComputerToolCall
computer_call_output OpenAI.ItemResourceComputerToolCallOutputResource
web_search_call OpenAI.ItemResourceWebSearchToolCall
function_call OpenAI.ItemResourceFunctionToolCallResource
function_call_output OpenAI.ItemResourceFunctionToolCallOutputResource
image_generation_call OpenAI.ItemResourceImageGenToolCall
code_interpreter_call OpenAI.ItemResourceCodeInterpreterToolCall
local_shell_call OpenAI.ItemResourceLocalShellToolCall
local_shell_call_output OpenAI.ItemResourceLocalShellToolCallOutput
shell_call OpenAI.ItemResourceFunctionShellCall
shell_call_output OpenAI.ItemResourceFunctionShellCallOutput
apply_patch_call OpenAI.ItemResourceApplyPatchToolCall
apply_patch_call_output OpenAI.ItemResourceApplyPatchToolCallOutput
mcp_list_tools OpenAI.ItemResourceMcpListTools
mcp_approval_request OpenAI.ItemResourceMcpApprovalRequest
mcp_approval_response OpenAI.ItemResourceMcpApprovalResponseResource
mcp_call OpenAI.ItemResourceMcpToolCall
Name Typ Description Erforderlich Default
type OpenAI.ItemResourceType Ja

OpenAI.ItemResourceApplyPatchToolCall

Ein Toolaufruf, der Datei-Diffs anwendet, indem Dateien erstellt, gelöscht oder aktualisiert werden.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. Ja
created_by Schnur Die ID der Entität, die diesen Toolaufruf erstellt hat. Nein
id Schnur Die eindeutige ID des Aufrufs des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
operation OpenAI.ApplyPatchFileOperation Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden. Ja
└– Typ OpenAI.ApplyPatchFileOperationType Ja
status OpenAI.ApplyPatchCallStatus Ja
type enum Der Typ des Elements Immer apply_patch_call.
Möglicher Wert: apply_patch_call
Ja

OpenAI.ItemResourceApplyPatchToolCallOutput

Die Ausgabe, die von einem Aufruf des Apply Patch-Tools ausgegeben wird.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. Ja
created_by Schnur Die ID der Entität, die diese Toolaufrufausgabe erstellt hat. Nein
id Schnur Die eindeutige ID der Ausgabe des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
output Zeichenfolge oder null Nein
status OpenAI.ApplyPatchCallOutputStatus Ja
type enum Der Typ des Elements Immer apply_patch_call_output.
Möglicher Wert: apply_patch_call_output
Ja

OpenAI.ItemResourceCodeInterpreterToolCall

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
code Zeichenfolge oder null Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
id Schnur Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. Ja
Ergebnisse Array von OpenAI.CodeInterpreterOutputLogs oder OpenAI.CodeInterpreterOutputImage oder null Ja
status enum Der Status des Code-Interpreter-Werkzeugaufrufs. Gültige Werte sind in_progress, completed, incomplete, interpreting und failed.
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Ja
type enum Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.
Möglicher Wert: code_interpreter_call
Ja

OpenAI.ItemResourceComputerToolCall

Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Computer-Nutzungsleitfaden.

Name Typ Description Erforderlich Default
action OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
id Schnur Die eindeutige ID des Computeraufrufs. Ja
pending_safety_checks Array von OpenAI.ComputerCallSafetyCheckParam Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ des Computeraufrufs. Immer computer_call.
Möglicher Wert: computer_call
Ja

OpenAI.ItemResourceComputerToolCallOutputResource

Name Typ Description Erforderlich Default
acknowledged_safety_checks Array von OpenAI.ComputerCallSafetyCheckParam Die von der API gemeldeten Sicherheitskontrollen, die von der API anerkannt wurden.
entwickelnden Person bestätigt wurden
Nein
call_id Schnur Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. Ja
id Schnur Die ID der Ausgabe des Computertoolsaufrufs Nein
output OpenAI.ComputerScreenshotImage Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. Ja
status enum Der Status der Nachrichteneingabe. Einer von in_progress, , completedoder
incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.
Möglicher Wert: computer_call_output
Ja

OpenAI.ItemResourceFileSearchToolCall

Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie im Suchleitfaden Datei.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des Aufrufs des Dateisuchtools. Ja
Abfragen Array von Zeichenfolgen Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array von OpenAI.FileSearchToolCallResults oder Null Nein
status enum Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,
searching, incomplete oder failed
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
type enum Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.
Möglicher Wert: file_search_call
Ja

OpenAI.ItemResourceFunctionShellCall

Ein Toolaufruf, der einen oder mehrere Shellbefehle in einer verwalteten Umgebung ausführt.

Name Typ Description Erforderlich Default
action OpenAI.FunctionShellAction Führen Sie einen Shellbefehl aus. Ja
└– Befehle Array von Zeichenfolgen Ja
└– max_output_length ganze Zahl oder Null Ja
└– timeout_ms ganze Zahl oder Null Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. Ja
created_by Schnur Die ID der Entität, die diesen Toolaufruf erstellt hat. Nein
id Schnur Die eindeutige ID des Shelltoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
status OpenAI.LocalShellCallStatus Ja
type enum Der Typ des Elements Immer shell_call.
Möglicher Wert: shell_call
Ja

OpenAI.ItemResourceFunctionShellCallOutput

Die Ausgabe eines Shelltoolaufrufs, der ausgegeben wurde.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. Ja
created_by Schnur Der Bezeichner des Akteurs, der das Element erstellt hat. Nein
id Schnur Die eindeutige ID der Shellaufrufausgabe. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
max_output_length ganze Zahl oder Null Ja
output Array von OpenAI.FunctionShellCallOutputContent Ein Array von Shellaufrufausgabeinhalten Ja
type enum Der Typ der Shellaufrufausgabe. Immer shell_call_output.
Möglicher Wert: shell_call_output
Ja

OpenAI.ItemResourceFunctionToolCallOutputResource

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
id Schnur Die eindeutige ID der Ausgabe des Funktionstoolaufrufs Aufgefüllt, wenn dieses Element
wird über DIE API zurückgegeben.
Nein
output Zeichenfolge oder Array von OpenAI.FunctionAndCustomToolCallOutput Die Ausgabe des von Ihrem Code generierten Funktionsaufrufs.
Dies kann eine Zeichenfolge oder eine Liste von Ausgabeinhalten sein.
Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.
Möglicher Wert: function_call_output
Ja

OpenAI.ItemResourceFunctionToolCallResource

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
id Schnur Die eindeutige ID des Aufrufs des Funktionswerkzeugs. Nein
Name Schnur Der Name der auszuführenden Funktion. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ des Funktionswerkzeuganrufs. Immer function_call.
Möglicher Wert: function_call
Ja

OpenAI.ItemResourceImageGenToolCall

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des Bilderzeugungsaufrufs. Ja
Ergebnis Zeichenfolge oder null Ja
status enum Der Status des Bilderzeugungsaufrufs.
Mögliche Werte: in_progress, , completed, generatingfailed
Ja
type enum Der Typ des Bilderzeugungsaufrufs. Immer image_generation_call.
Möglicher Wert: image_generation_call
Ja

OpenAI.ItemResourceLocalShellToolCall

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
id Schnur Die eindeutige ID des lokalen Shell-Anrufs. Ja
status enum Der Status des lokalen Shell-Anrufs.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Die Art des lokalen Shell-Rufs. Immer local_shell_call.
Möglicher Wert: local_shell_call
Ja

OpenAI.ItemResourceLocalShellToolCallOutput

Die Ausgabe eines Aufrufs eines lokalen Shelltools.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
output Schnur Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. Ja
status Zeichenfolge oder null Nein
type enum Der Typ des lokalen Schalenwerkzeug-Aufrufsausgangs. Immer local_shell_call_output.
Möglicher Wert: local_shell_call_output
Ja

OpenAI.ItemResourceMcpApprovalRequest

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
id Schnur Die eindeutige ID der Genehmigungsanfrage. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum Der Typ des Elements Immer mcp_approval_request.
Möglicher Wert: mcp_approval_request
Ja

OpenAI.ItemResourceMcpApprovalResponseResource

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Typ Description Erforderlich Default
approval_request_id Schnur Die ID der Genehmigungsanforderung, die beantwortet wird. Ja
Genehmigen boolean Gibt an, ob die Anforderung genehmigt wurde. Ja
id Schnur Die eindeutige ID der Genehmigungsantwort Ja
Grund Zeichenfolge oder null Nein
type enum Der Typ des Elements Immer mcp_approval_response.
Möglicher Wert: mcp_approval_response
Ja

OpenAI.ItemResourceMcpListTools

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Zeichenfolge oder null Nein
id Schnur Die eindeutige ID der Liste. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array von OpenAI.MCPListToolsTool Die auf dem Server verfügbaren Tools. Ja
type enum Der Typ des Elements Immer mcp_list_tools.
Möglicher Wert: mcp_list_tools
Ja

OpenAI.ItemResourceMcpToolCall

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
approval_request_id Zeichenfolge oder null Nein
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Zeichenfolge oder null Nein
id Schnur Die eindeutige ID des Toolaufrufs. Ja
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Zeichenfolge oder null Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
status OpenAI.MCPToolCallStatus Nein
type enum Der Typ des Elements Immer mcp_call.
Möglicher Wert: mcp_call
Ja

OpenAI.ItemResourceOutputMessage

Eine Ausgabemeldung aus dem Modell.

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.OutputMessageContent Der Inhalt der Ausgabenachricht. Ja
id Schnur Die eindeutige ID der Ausgabenachricht. Ja
role enum Die Rolle der Ausgabemeldung. Immer assistant.
Möglicher Wert: assistant
Ja
status enum Der Status der Nachrichteneingabe. Einer von in_progress, , completedoder
incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ der Ausgabemeldung. Immer message.
Möglicher Wert: output_message
Ja

OpenAI.ItemResourceType

Eigentum Wert
Typ Schnur
Werte message
output_message
file_search_call
computer_call
computer_call_output
web_search_call
function_call
function_call_output
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ItemResourceWebSearchToolCall

Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie im Web-Suchguide.

Name Typ Description Erforderlich Default
action OpenAI.WebSearchActionSearch oder OpenAI.WebSearchActionOpenPage oder OpenAI.WebSearchActionFind Ein Objekt, das die spezifische Aktion beschreibt, die in diesem Websuchaufruf ausgeführt wird.
Enthält Details dazu, wie das Modell das Web verwendet hat (Suchen, open_page, Suchen).
Ja
id Schnur Die eindeutige ID des Websuchwerkzeugs ruft auf. Ja
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Ja
type enum Der Typ des Web-Suchwerkzeug-Aufrufs. Immer web_search_call.
Möglicher Wert: web_search_call
Ja

OpenAI.KeyPressAction

Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.

Name Typ Description Erforderlich Default
keys Array von Zeichenfolgen Die Tastenkombination, die das Modell gedrückt haben möchte. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. Ja
type enum Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress gesetzt.
Möglicher Wert: keypress
Ja

OpenAI.ListBatchesResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.Batch Ja
first_id Schnur Nein
has_more boolean Ja
last_id Schnur Nein
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListFilesResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.OpenAIFile Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt Schnur Ja

OpenAI.ListFineTuningCheckpointPermissionResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.FineTuningCheckpointPermission Ja
first_id Zeichenfolge oder null Nein
has_more boolean Ja
last_id Zeichenfolge oder null Nein
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListFineTuningJobCheckpointsResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.FineTuningJobCheckpoint Ja
first_id Zeichenfolge oder null Nein
has_more boolean Ja
last_id Zeichenfolge oder null Nein
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListFineTuningJobEventsResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.FineTuningJobEvent Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListMessagesResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.MessageObject Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt Schnur Ja

OpenAI.ListModelsResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.Model Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListPaginatedFineTuningJobsResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.FineTuningJob Ja
has_more boolean Ja
Objekt enum
Möglicher Wert: list
Ja

OpenAI.ListRunStepsResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.RunStepObject Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt Schnur Ja

OpenAI.ListRunsResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.RunObject Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt Schnur Ja

OpenAI.ListVectorStoreFilesResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.VectorStoreFileObject Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt Schnur Ja

OpenAI.ListVectorStoresResponse

Name Typ Description Erforderlich Default
Daten Array von OpenAI.VectorStoreObject Ja
first_id Schnur Ja
has_more boolean Ja
last_id Schnur Ja
Objekt Schnur Ja

OpenAI.LocalShellCallStatus

Eigentum Wert
Typ Schnur
Werte in_progress
completed
incomplete

OpenAI.LocalShellExecAction

Führen Sie einen Shellbefehl auf dem Server aus.

Name Typ Description Erforderlich Default
command Array von Zeichenfolgen Der auszuführende Befehl. Ja
env Objekt Umgebungsvariablen, die für den Befehl festgelegt werden sollen. Ja
timeout_ms ganze Zahl oder Null Nein
type enum Der Typ der lokalen Shellaktion. Immer exec.
Möglicher Wert: exec
Ja
user Zeichenfolge oder null Nein
working_directory Zeichenfolge oder null Nein

OpenAI.LocalShellToolParam

Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.

Name Typ Description Erforderlich Default
type enum Der Typ des lokalen Shelltools. Immer local_shell.
Möglicher Wert: local_shell
Ja

OpenAI.LogProb

Die Protokollwahrscheinlichkeit eines Tokens.

Name Typ Description Erforderlich Default
Byte Array mit ganzzahliger Zahl Ja
logprob number Ja
token Schnur Ja
top_logprobs Array von OpenAI.TopLogProb Ja

OpenAI.MCPListToolsTool

Ein Tool, das auf einem MCP-Server verfügbar ist.

Name Typ Description Erforderlich Default
Anmerkungen OpenAI.MCPListToolsToolAnnotations oder NULL Nein
Beschreibung Zeichenfolge oder null Nein
input_schema OpenAI.MCPListToolsToolInputSchema Ja
Name Schnur Der Name des Tools. Ja

OpenAI.MCPListToolsToolAnnotations

Typ: Objekt

OpenAI.MCPListToolsToolInputSchema

Typ: Objekt

OpenAI.MCPTool

Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol). Erfahren Sie mehr über MCP.

Name Typ Description Erforderlich Default
erlaubte_Werkzeuge Array von Zeichenfolge oder OpenAI.MCPToolFilter oder NULL Nein
Autorisierung Schnur Ein OAuth-access-Token, das mit einem entfernten MCP-Server verwendet werden kann, entweder
mit einer benutzerdefinierten MCP-Server-URL oder einem Dienstconnector. Ihre Anwendung
muss den OAuth-Autorisierungsfluss verarbeiten und das Token hier bereitstellen.
Nein
connector_id enum Identifikator für Service Connectors, wie sie in ChatGPT verfügbar sind. Einer von
server_url oder connector_id muss bereitgestellt werden. Weitere Informationen zum Dienst
Steckverbinder hier.
Derzeit unterstützte connector_id Werte sind:
-Dropbox: connector_dropbox
-Google mail: connector_gmail
- Google-Kalender: connector_googlecalendar
- Google Drive: connector_googledrive
- Microsoft Teams: connector_microsoftteams
- Outlook-Kalender: connector_outlookcalendar
- Outlook-E-Mail: connector_outlookemail
-Sharepoint: connector_sharepoint
Mögliche Werte: connector_dropbox, , connector_gmail, connector_googlecalendarconnector_googledrive, connector_microsoftteams, , connector_outlookcalendar, connector_outlookemailconnector_sharepoint
Nein
headers -Objekt oder Null Nein
Genehmigung erforderlich OpenAI.MCPToolRequireApproval oder string oder null Nein
server_description Schnur Optionale Beschreibung des MCP-Servers, die verwendet wird, um mehr Kontext zu liefern. Nein
Serverbeschriftung Schnur Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. Ja
server_url Schnur Die URL für den MCP-Server. Einer von server_url oder connector_id muss sein
bereitgestellt.
Nein
type enum Der Typ des MCP-Tools. Immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.MCPToolCallStatus

Eigentum Wert
Typ Schnur
Werte in_progress
completed
incomplete
calling
failed

OpenAI.MCPToolFilter

Ein Filterobjekt, um anzugeben, welche Werkzeuge erlaubt sind.

Name Typ Description Erforderlich Default
read_only boolean Gibt an, ob ein Werkzeug Daten verändert oder nur lesbar ist. Wenn ein
MCP-Server ist mit Anmerkungen versehen mit readOnlyHint,
dieser Filter entspricht.
Nein
tool_names Array von Zeichenfolgen Liste der zulässigen Toolnamen. Nein

OpenAI.MCPToolRequireApproval

Name Typ Description Erforderlich Default
immer OpenAI.MCPToolFilter Ein Filterobjekt, um anzugeben, welche Werkzeuge erlaubt sind. Nein
Niemals OpenAI.MCPToolFilter Ein Filterobjekt, um anzugeben, welche Werkzeuge erlaubt sind. Nein

OpenAI.MessageContent

Diskriminator für OpenAI.MessageContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
image_url OpenAI.MessageContentImageUrlObject
text OpenAI.MessageContentTextObject
refusal OpenAI.MessageContentRefusalObject
Name Typ Description Erforderlich Default
type OpenAI.MessageContentType Ja

OpenAI.MessageContentImageFileObject

Verweist auf eine Bilddatei im Inhalt einer Nachricht.

Name Typ Description Erforderlich Default
image_file OpenAI.MessageContentImageFileObjectImageFile Ja
type enum Immer image_file.
Möglicher Wert: image_file
Ja

OpenAI.MessageContentImageFileObjectImageFile

Name Typ Description Erforderlich Default
detail enum
Mögliche Werte: auto, , lowhigh
Nein
Datei-ID Schnur Ja

OpenAI.MessageContentImageUrlObject

Verweist auf eine Bild-URL im Inhalt einer Nachricht.

Name Typ Description Erforderlich Default
image_url OpenAI.MessageContentImageUrlObjectImageUrl Ja
type enum Der Typ des Inhaltsteils
Möglicher Wert: image_url
Ja

OpenAI.MessageContentImageUrlObjectImageUrl

Name Typ Description Erforderlich Default
detail enum
Mögliche Werte: auto, , lowhigh
Nein
url Schnur Ja

OpenAI.MessageContentRefusalObject

Der vom Assistenten generierte Weigerungsinhalt.

Name Typ Description Erforderlich Default
Ablehnung Schnur Ja
type enum Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.MessageContentTextAnnotationsFileCitationObject

Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „file_search“ für die Dateisuche verwendet.

Name Typ Description Erforderlich Default
end_index integer Einschränkungen: min: 0 Ja
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation Ja
start_index integer Einschränkungen: min: 0 Ja
Text Schnur Der Text im Nachrichteninhalt, der ersetzt werden muss. Ja
type enum Immer file_citation.
Möglicher Wert: file_citation
Ja

OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation

Name Typ Description Erforderlich Default
Datei-ID Schnur Ja

OpenAI.MessageContentTextAnnotationsFilePathObject

Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.

Name Typ Description Erforderlich Default
end_index integer Einschränkungen: min: 0 Ja
file_path OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath Ja
start_index integer Einschränkungen: min: 0 Ja
Text Schnur Der Text im Nachrichteninhalt, der ersetzt werden muss. Ja
type enum Immer file_path.
Möglicher Wert: file_path
Ja

OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath

Name Typ Description Erforderlich Default
Datei-ID Schnur Ja

OpenAI.MessageContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Typ Description Erforderlich Default
Text OpenAI.MessageContentTextObjectTextText Ja
type enum Immer text.
Möglicher Wert: text
Ja

OpenAI.MessageContentTextObjectTextText

Name Typ Description Erforderlich Default
Anmerkungen Array von OpenAI.TextAnnotation Ja
Wert Schnur Ja

OpenAI.MessageContentType

Eigentum Wert
Typ Schnur
Werte image_file
image_url
text
refusal

OpenAI.MessageObject

Stellt eine Nachricht in einem Thread dar.

Name Typ Description Erforderlich Default
assistant_id Zeichenfolge oder null Ja
attachments Array von OpenAI.MessageObjectAttachments oder NULL Ja
abgeschlossen_am Zeichenfolge oder null Ja
Inhalt Array von OpenAI.MessageContent Der Inhalt der Nachricht im Textarray und/oder Bildern. Ja
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht erstellt wurde. Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
incomplete_at Zeichenfolge oder null Ja
incomplete_details OpenAI.MessageObjectIncompleteDetails oder NULL Ja
metadata OpenAI.Metadata oder NULL Ja
Objekt enum Der Objekttyp, der immer thread.message ist.
Möglicher Wert: thread.message
Ja
role enum Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant.
Mögliche Werte: user, assistant
Ja
run_id Zeichenfolge oder null Ja
status enum Der Status der Nachricht (entweder in_progress, incomplete oder completed).
Mögliche Werte: in_progress, , incompletecompleted
Ja
thread_id Schnur Die Thread-ID , zu der diese Nachricht gehört. Ja

OpenAI.MessageObjectAttachments

Name Typ Description Erforderlich Default
Datei-ID Schnur Nein
Werkzeuge Array von OpenAI.AssistantToolsCode oder OpenAI.AssistantToolsFileSearchTypeOnly Nein

OpenAI.MessageObjectIncompleteDetails

Name Typ Description Erforderlich Default
Grund enum
Mögliche Werte: content_filter, , max_tokensrun_cancelled, , run_expiredrun_failed
Ja

OpenAI.MessageRequestContentTextObject

Der Textinhalt, der Teil einer Nachricht ist.

Name Typ Description Erforderlich Default
Text Schnur Textinhalt, der an das Modell gesendet werden soll Ja
type enum Immer text.
Möglicher Wert: text
Ja

OpenAI.MessageRole

Eigentum Wert
Typ Schnur
Werte unknown
user
assistant
system
critic
discriminator
developer
tool

OpenAI.MessageStatus

Eigentum Wert
Typ Schnur
Werte in_progress
completed
incomplete

OpenAI.Metadata

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Typ: Objekt

OpenAI.Model

Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.

Name Typ Description Erforderlich Default
erstellt integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Modells. Ja
id Schnur Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer „model“ lautet.
Möglicher Wert: model
Ja
owned_by Schnur Die Organisation, die das Modell besitzt. Ja

OpenAI.ModifyMessageRequest

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein

OpenAI.ModifyRunRequest

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein

OpenAI.ModifyThreadRequest

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL Nein
tool_resources OpenAI.ModifyThreadRequestToolResources oder NULL Nein

OpenAI.ModifyThreadRequestToolResources

Name Typ Description Erforderlich Default
code_interpreter OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter Nein
file_search OpenAI.ModifyThreadRequestToolResourcesFileSearch Nein

OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter

Name Typ Description Erforderlich Default
Datei-IDs Array von Zeichenfolgen Nein

OpenAI.ModifyThreadRequestToolResourcesFileSearch

Name Typ Description Erforderlich Default
vector_store_ids Array von Zeichenfolgen Nein

OpenAI.Move

Aktion zur Änderung der Mauszeigerposition

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für das Verschieben ist diese Eigenschaft
immer auf move festgelegt.
Möglicher Wert: move
Ja
x integer Die x-Koordinate, zu der verschoben werden soll. Ja
y integer Die y-Koordinate, zu der verschoben werden soll. Ja

OpenAI.NoiseReductionType

Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.

Eigentum Wert
Typ Schnur
Werte near_field
far_field

OpenAI.OpenAIFile

Das File Objekt stellt ein Dokument dar, das in OpenAI hochgeladen wurde.

Name Typ Description Erforderlich Default
Byte integer Die Größe der Datei in Byte. Ja
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Datei. Ja
läuft_ab_am integer Der Unix-Zeitstempel (in Sekunden) für das Ablaufdatum der Datei. Nein
filename Schnur Der Name der Datei. Ja
id Schnur Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. Ja
Objekt enum Der Objekttyp, der immer file ist.
Möglicher Wert: file
Ja
Zweck enum Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, assistants_output, batch, batch_output, fine-tune und fine-tune-results.
Mögliche Werte: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals
Ja
status enum
Mögliche Werte: uploaded, pending, running, processed, error, deleting, deleted
Ja
status_details Zeichenfolge (veraltet) Deprecated. Details dazu, warum bei der Überprüfung einer Trainingsdatei für die Feinabstimmung ein Fehler aufgetreten ist, finden Sie im Feld error im fine_tuning.job. Nein

OpenAI.OtherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.

Name Typ Description Erforderlich Default
type enum Immer other.
Möglicher Wert: other
Ja

OpenAI.OutputContent

Diskriminator für OpenAI.OutputContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
output_text OpenAI.OutputContentOutputTextContent
refusal OpenAI.OutputContentRefusalContent
Name Typ Description Erforderlich Default
type OpenAI.OutputContentType Ja

OpenAI.OutputContentOutputTextContent

Eine Textausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Anmerkungen Array von OpenAI.Annotation Die Anmerkungen der Textausgabe Ja
logprobs Array von OpenAI.LogProb Nein
Text Schnur Die Textausgabe aus dem Modell. Ja
type enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.OutputContentRefusalContent

Eine Ablehnung des Modells

Name Typ Description Erforderlich Default
Ablehnung Schnur Die Erklärung der Ablehnung des Modells Ja
type enum Die Art der Ablehnung. Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.OutputContentType

Eigentum Wert
Typ Schnur
Werte output_text
refusal
reasoning_text

OpenAI.OutputItem

Diskriminator für OpenAI.OutputItem

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
output_message OpenAI.OutputItemOutputMessage
file_search_call OpenAI.OutputItemFileSearchToolCall
function_call OpenAI.OutputItemFunctionToolCall
web_search_call OpenAI.OutputItemWebSearchToolCall
computer_call OpenAI.OutputItemComputerToolCall
reasoning OpenAI.OutputItemReasoningItem
compaction OpenAI.OutputItemCompactionBody
image_generation_call OpenAI.OutputItemImageGenToolCall
code_interpreter_call OpenAI.OutputItemCodeInterpreterToolCall
local_shell_call OpenAI.OutputItemLocalShellToolCall
shell_call OpenAI.OutputItemFunctionShellCall
shell_call_output OpenAI.OutputItemFunctionShellCallOutput
apply_patch_call OpenAI.OutputItemApplyPatchToolCall
apply_patch_call_output OpenAI.OutputItemApplyPatchToolCallOutput
mcp_call OpenAI.OutputItemMcpToolCall
mcp_list_tools OpenAI.OutputItemMcpListTools
mcp_approval_request OpenAI.OutputItemMcpApprovalRequest
custom_tool_call OpenAI.OutputItemCustomToolCall
Name Typ Description Erforderlich Default
type OpenAI.OutputItemType Ja

OpenAI.OutputItemApplyPatchToolCall

Ein Toolaufruf, der Datei-Diffs anwendet, indem Dateien erstellt, gelöscht oder aktualisiert werden.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. Ja
created_by Schnur Die ID der Entität, die diesen Toolaufruf erstellt hat. Nein
id Schnur Die eindeutige ID des Aufrufs des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
operation OpenAI.ApplyPatchFileOperation Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden. Ja
└– Typ OpenAI.ApplyPatchFileOperationType Ja
status OpenAI.ApplyPatchCallStatus Ja
type enum Der Typ des Elements Immer apply_patch_call.
Möglicher Wert: apply_patch_call
Ja

OpenAI.OutputItemApplyPatchToolCallOutput

Die Ausgabe, die von einem Aufruf des Apply Patch-Tools ausgegeben wird.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. Ja
created_by Schnur Die ID der Entität, die diese Toolaufrufausgabe erstellt hat. Nein
id Schnur Die eindeutige ID der Ausgabe des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
output Zeichenfolge oder null Nein
status OpenAI.ApplyPatchCallOutputStatus Ja
type enum Der Typ des Elements Immer apply_patch_call_output.
Möglicher Wert: apply_patch_call_output
Ja

OpenAI.OutputItemCodeInterpreterToolCall

Ein Toolaufruf zum Ausführen von Code.

Name Typ Description Erforderlich Default
code Zeichenfolge oder null Ja
container_id Schnur Die ID des Containers, der zum Ausführen des Codes verwendet wird. Ja
id Schnur Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. Ja
Ergebnisse Array von OpenAI.CodeInterpreterOutputLogs oder OpenAI.CodeInterpreterOutputImage oder null Ja
status enum Der Status des Code-Interpreter-Werkzeugaufrufs. Gültige Werte sind in_progress, completed, incomplete, interpreting und failed.
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Ja
type enum Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.
Möglicher Wert: code_interpreter_call
Ja

OpenAI.OutputItemCompactionBody

Ein von der v1/responses/compact API generiertes Kompaktionselement.

Name Typ Description Erforderlich Default
created_by Schnur Der Bezeichner des Akteurs, der das Element erstellt hat. Nein
encrypted_content Schnur Der verschlüsselte Inhalt, der durch Komprimierung erzeugt wurde. Ja
id Schnur Die eindeutige ID des Kompaktionselements. Ja
type enum Der Typ des Elements Immer compaction.
Möglicher Wert: compaction
Ja

OpenAI.OutputItemComputerToolCall

Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Computer-Nutzungsleitfaden.

Name Typ Description Erforderlich Default
action OpenAI.ComputerAction Ja
call_id Schnur Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird Ja
id Schnur Die eindeutige ID des Computeraufrufs. Ja
pending_safety_checks Array von OpenAI.ComputerCallSafetyCheckParam Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ des Computeraufrufs. Immer computer_call.
Möglicher Wert: computer_call
Ja

OpenAI.OutputItemCustomToolCall

Ein Aufruf eines benutzerdefinierten Tools, das vom Modell erstellt wurde.

Name Typ Description Erforderlich Default
call_id Schnur Eine Identifikator, die verwendet wird, um diesen benutzerdefinierten Werkzeugaufruf auf die Ausgabe eines Werkzeugaufrufs abzubilden. Ja
id Schnur Die eindeutige ID des benutzerdefinierten Werkzeugaufrufs in der OpenAI-Plattform. Nein
Eingabe Schnur Die Eingabe für den benutzerdefinierten Werkzeugaufruf, der vom Modell generiert wird. Ja
Name Schnur Der Name des benutzerdefinierten Tools, das aufgerufen wird. Ja
type enum Der Typ des benutzerdefinierten Werkzeugaufrufs. Immer custom_tool_call.
Möglicher Wert: custom_tool_call
Ja

OpenAI.OutputItemFileSearchToolCall

Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie im Suchleitfaden Datei.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des Aufrufs des Dateisuchtools. Ja
Abfragen Array von Zeichenfolgen Die Zum Suchen nach Dateien verwendeten Abfragen. Ja
results Array von OpenAI.FileSearchToolCallResults oder Null Nein
status enum Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,
searching, incomplete oder failed
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Ja
type enum Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.
Möglicher Wert: file_search_call
Ja

OpenAI.OutputItemFunctionShellCall

Ein Toolaufruf, der einen oder mehrere Shellbefehle in einer verwalteten Umgebung ausführt.

Name Typ Description Erforderlich Default
action OpenAI.FunctionShellAction Führen Sie einen Shellbefehl aus. Ja
└– Befehle Array von Zeichenfolgen Ja
└– max_output_length ganze Zahl oder Null Ja
└– timeout_ms ganze Zahl oder Null Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. Ja
created_by Schnur Die ID der Entität, die diesen Toolaufruf erstellt hat. Nein
id Schnur Die eindeutige ID des Shelltoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
status OpenAI.LocalShellCallStatus Ja
type enum Der Typ des Elements Immer shell_call.
Möglicher Wert: shell_call
Ja

OpenAI.OutputItemFunctionShellCallOutput

Die Ausgabe eines Shelltoolaufrufs, der ausgegeben wurde.

Name Typ Description Erforderlich Default
call_id Schnur Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. Ja
created_by Schnur Der Bezeichner des Akteurs, der das Element erstellt hat. Nein
id Schnur Die eindeutige ID der Shellaufrufausgabe. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. Ja
max_output_length ganze Zahl oder Null Ja
output Array von OpenAI.FunctionShellCallOutputContent Ein Array von Shellaufrufausgabeinhalten Ja
type enum Der Typ der Shellaufrufausgabe. Immer shell_call_output.
Möglicher Wert: shell_call_output
Ja

OpenAI.OutputItemFunctionToolCall

Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie im Funktionsaufruf-Leitfaden.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Ja
id Schnur Die eindeutige ID des Aufrufs des Funktionswerkzeugs. Nein
Name Schnur Der Name der auszuführenden Funktion. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
type enum Der Typ des Funktionswerkzeuganrufs. Immer function_call.
Möglicher Wert: function_call
Ja

OpenAI.OutputItemImageGenToolCall

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Typ Description Erforderlich Default
id Schnur Die eindeutige ID des Bilderzeugungsaufrufs. Ja
Ergebnis Zeichenfolge oder null Ja
status enum Der Status des Bilderzeugungsaufrufs.
Mögliche Werte: in_progress, , completed, generatingfailed
Ja
type enum Der Typ des Bilderzeugungsaufrufs. Immer image_generation_call.
Möglicher Wert: image_generation_call
Ja

OpenAI.OutputItemLocalShellToolCall

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Typ Description Erforderlich Default
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Ja
call_id Schnur Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. Ja
id Schnur Die eindeutige ID des lokalen Shell-Anrufs. Ja
status enum Der Status des lokalen Shell-Anrufs.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Die Art des lokalen Shell-Rufs. Immer local_shell_call.
Möglicher Wert: local_shell_call
Ja

OpenAI.OutputItemMcpApprovalRequest

Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.

Name Typ Description Erforderlich Default
Argumente Schnur Eine JSON-Zeichenfolge mit Argumenten für das Tool. Ja
id Schnur Die eindeutige ID der Genehmigungsanfrage. Ja
Name Schnur Der Name des auszuführenden Tools. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Ja
type enum Der Typ des Elements Immer mcp_approval_request.
Möglicher Wert: mcp_approval_request
Ja

OpenAI.OutputItemMcpListTools

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Typ Description Erforderlich Default
Fehler Zeichenfolge oder null Nein
id Schnur Die eindeutige ID der Liste. Ja
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers. Ja
Werkzeuge Array von OpenAI.MCPListToolsTool Die auf dem Server verfügbaren Tools. Ja
type enum Der Typ des Elements Immer mcp_list_tools.
Möglicher Wert: mcp_list_tools
Ja

OpenAI.OutputItemMcpToolCall

Ein Aufruf eines Tools auf einem MCP-Server.

Name Typ Description Erforderlich Default
approval_request_id Zeichenfolge oder null Nein
Argumente Schnur Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Ja
Fehler Zeichenfolge oder null Nein
id Schnur Die eindeutige ID des Toolaufrufs. Ja
Name Schnur Der Name des tools, das ausgeführt wurde. Ja
output Zeichenfolge oder null Nein
Serverbeschriftung Schnur Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Ja
status OpenAI.MCPToolCallStatus Nein
type enum Der Typ des Elements Immer mcp_call.
Möglicher Wert: mcp_call
Ja

OpenAI.OutputItemOutputMessage

Eine Ausgabemeldung aus dem Modell.

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.OutputMessageContent Der Inhalt der Ausgabenachricht. Ja
id Schnur Die eindeutige ID der Ausgabenachricht. Ja
role enum Die Rolle der Ausgabemeldung. Immer assistant.
Möglicher Wert: assistant
Ja
status enum Der Status der Nachrichteneingabe. Einer von in_progress, , completedoder
incomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Ja
type enum Der Typ der Ausgabemeldung. Immer message.
Möglicher Wert: output_message
Ja

OpenAI.OutputItemReasoningItem

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Stellen Sie sicher, dass Sie diese Elemente in Ihre input in die Responses-API für spätere Runden eines Gesprächs aufnehmen, wenn Sie manuell Kontextverwaltung durchführen.

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.ReasoningTextContent Argumentation des Textinhalts. Nein
encrypted_content Zeichenfolge oder null Nein
id Schnur Der eindeutige Bezeichner des Argumentationsinhalts. Ja
status enum Der Status des Elements. Einer von in_progress, , completedoder
incomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Nein
summary Array von OpenAI.Summary Inhalt der Zusammenfassung der Begründung. Ja
type enum Der Typ des Objekts. Immer reasoning.
Möglicher Wert: reasoning
Ja

OpenAI.OutputItemType

Eigentum Wert
Typ Schnur
Werte output_message
file_search_call
function_call
web_search_call
computer_call
reasoning
compaction
image_generation_call
code_interpreter_call
local_shell_call
shell_call
shell_call_output
apply_patch_call
apply_patch_call_output
mcp_call
mcp_list_tools
mcp_approval_request
custom_tool_call

OpenAI.OutputItemWebSearchToolCall

Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie im Web-Suchguide.

Name Typ Description Erforderlich Default
action OpenAI.WebSearchActionSearch oder OpenAI.WebSearchActionOpenPage oder OpenAI.WebSearchActionFind Ein Objekt, das die spezifische Aktion beschreibt, die in diesem Websuchaufruf ausgeführt wird.
Enthält Details dazu, wie das Modell das Web verwendet hat (Suchen, open_page, Suchen).
Ja
id Schnur Die eindeutige ID des Websuchwerkzeugs ruft auf. Ja
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Ja
type enum Der Typ des Web-Suchwerkzeug-Aufrufs. Immer web_search_call.
Möglicher Wert: web_search_call
Ja

OpenAI.OutputMessageContent

Diskriminator für OpenAI.OutputMessageContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
output_text OpenAI.OutputMessageContentOutputTextContent
refusal OpenAI.OutputMessageContentRefusalContent
Name Typ Description Erforderlich Default
type OpenAI.OutputMessageContentType Ja

OpenAI.OutputMessageContentOutputTextContent

Eine Textausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Anmerkungen Array von OpenAI.Annotation Die Anmerkungen der Textausgabe Ja
logprobs Array von OpenAI.LogProb Nein
Text Schnur Die Textausgabe aus dem Modell. Ja
type enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.OutputMessageContentRefusalContent

Eine Ablehnung des Modells

Name Typ Description Erforderlich Default
Ablehnung Schnur Die Erklärung der Ablehnung des Modells Ja
type enum Die Art der Ablehnung. Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.OutputMessageContentType

Eigentum Wert
Typ Schnur
Werte output_text
refusal

OpenAI.OutputTextContent

Eine Textausgabe aus dem Modell.

Name Typ Description Erforderlich Default
Anmerkungen Array von OpenAI.Annotation Die Anmerkungen der Textausgabe Ja
logprobs Array von OpenAI.LogProb Nein
Text Schnur Die Textausgabe aus dem Modell. Ja
type enum Der Typ des Ausgabetexts. Immer output_text.
Möglicher Wert: output_text
Ja

OpenAI.ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Typ: boolean

OpenAI.PredictionContent

Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.

Name Typ Description Erforderlich Default
Inhalt Zeichenfolge oder Array von OpenAI.ChatCompletionRequestMessageContentPartText Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll.
Wenn generierte Token mit diesem Inhalt übereinstimmen würden, würde die gesamte Modellantwort
kann viel schneller zurückgegeben werden.
Ja
type enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist
aktuell immer content.
Möglicher Wert: content
Ja

OpenAI.Prompt

Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr.

Name Typ Description Erforderlich Default
id Schnur Der eindeutige Bezeichner der zu verwendenden Promptvorlage. Ja
variables OpenAI.ResponsePromptVariables oder NULL Nein
version Zeichenfolge oder null Nein

OpenAI.RankerVersionType

Eigentum Wert
Typ Schnur
Werte auto
default-2024-11-15

OpenAI.RankingOptions

Name Typ Description Erforderlich Default
hybrid_search OpenAI.HybridSearchOptions Nein
└– embedding_weight number Das Gewicht der Einbettung in der reziproken Rangfolgefusion. Ja
└– text_weight number Das Gewicht des Textes in der wechselseitigen Rangfolgefusion. Ja
Bewerter OpenAI.RankerVersionType Nein
score-threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. Nein

OpenAI.RealtimeAudioFormats

Diskriminator für OpenAI.RealtimeAudioFormats

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
audio/pcm OpenAI.RealtimeAudioFormatsAudioPcm
audio/pcmu OpenAI.RealtimeAudioFormatsAudioPcmu
audio/pcma OpenAI.RealtimeAudioFormatsAudioPcma
Name Typ Description Erforderlich Default
type OpenAI.RealtimeAudioFormatsType Ja

OpenAI.RealtimeAudioFormatsAudioPcm

Name Typ Description Erforderlich Default
rate enum
Möglicher Wert: 24000
Nein
type enum
Möglicher Wert: audio/pcm
Ja

OpenAI.RealtimeAudioFormatsAudioPcma

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: audio/pcma
Ja

OpenAI.RealtimeAudioFormatsAudioPcmu

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: audio/pcmu
Ja

OpenAI.RealtimeAudioFormatsType

Eigentum Wert
Typ Schnur
Werte audio/pcm
audio/pcmu
audio/pcma

OpenAI.RealtimeCallCreateRequest

Name Typ Description Erforderlich Default
Sdp Schnur WebRTC Session Description Protocol (SDP)-Angebot, das vom Aufrufer generiert wird. Ja
session OpenAI.RealtimeSessionCreateRequestGA Objektkonfiguration der Echtzeitsitzung. Nein
└– Audio OpenAI.RealtimeSessionCreateRequestGAAudio Konfiguration für Eingabe- und Ausgabeaudio. Nein
└- einschließen Array von Zeichenfolgen Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.
item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein.
Nein
└– Anweisungen Schnur Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind.
Nein
└– max_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
└─ Modell Schnur Das für diese Sitzung verwendete Realtime-Modell. Nein
└– output_modalities Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dass
dass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, um
Das Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern.
Nein ['audio']
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus
function/MCP tool.
Nein auto
└- Werkzeuge Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool Tools, die für das Modell verfügbar sind. Nein
└– Ablaufverfolgung string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein auto
└– Abschneiden OpenAI.RealtimeTruncation Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt.
Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist.
Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird.
Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
Nein
└– Typ enum Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.
Möglicher Wert: realtime
Ja

OpenAI.RealtimeCallReferRequest

Parameter, die zum Übertragen eines SIP-Aufrufs an ein neues Ziel mithilfe der Realtime-API erforderlich sind.

Name Typ Description Erforderlich Default
target_uri Schnur URI, der im SIP-Refer-To-Header angezeigt werden soll. Unterstützt Werte wie
tel:+14155550123 oder sip:agent\@example.com.
Ja

OpenAI.RealtimeCallRejectRequest

Parameter, die zum Ablehnen eines eingehenden SIP-Anrufs verwendet werden, der von der Realtime-API verarbeitet wird.

Name Typ Description Erforderlich Default
status_code integer SIP-Antwortcode, der an den Anrufer zurücksenden soll. Standardwerte sind 603 (Ablehnen)
ausgelassen.
Nein

OpenAI.RealtimeCreateClientSecretRequest

Erstellen Sie eine Sitzung und einen geheimen Clientschlüssel für die Realtime-API. Die Anforderung kann entweder eine Echtzeit- oder eine Transkriptionssitzungskonfiguration angeben. Erfahren Sie mehr über die Realtime-API.

Name Typ Description Erforderlich Default
expires_after OpenAI.RealtimeCreateClientSecretRequestExpiresAfter Nein
└– Anker enum
Möglicher Wert: created_at
Nein
└─ Sekunden integer Einschränkungen: min: 10, max: 7200 Nein 600
session OpenAI.RealtimeSessionCreateRequestUnion Nein
└– Typ OpenAI.RealtimeSessionCreateRequestUnionType Ja

OpenAI.RealtimeCreateClientSecretRequestExpiresAfter

Name Typ Description Erforderlich Default
anchor enum
Möglicher Wert: created_at
Nein
Sekunden integer Einschränkungen: min: 10, max: 7200 Nein 600

OpenAI.RealtimeCreateClientSecretResponse

Antwort vom Erstellen einer Sitzung und eines geheimen Clientschlüssels für die Realtime-API.

Name Typ Description Erforderlich Default
läuft_ab_am integer Ablaufzeitstempel für den geheimen Clientschlüssel in Sekunden seit der Epoche. Ja
session OpenAI.RealtimeSessionCreateResponseUnion Ja
└– Typ OpenAI.RealtimeSessionCreateResponseUnionType Ja
Wert Schnur Der generierte geheime Clientschlüsselwert. Ja

OpenAI.RealtimeFunctionTool

Name Typ Description Erforderlich Default
Beschreibung Schnur Beschreibung der Funktion, einschließlich Anleitungen zu wann und wie
um sie aufzurufen, und Anleitungen darüber, was der Benutzer beim Anrufen mitteilen soll
(falls vorhanden).
Nein
Name Schnur Der Name der Funktion. Nein
parameters OpenAI.RealtimeFunctionToolParameters Nein
type enum Der Typ des Tools, d. h. function.
Möglicher Wert: function
Nein

OpenAI.RealtimeFunctionToolParameters

Typ: Objekt

OpenAI.RealtimeSessionCreateRequest

Eine neue Realtime-Sitzungskonfiguration mit einem kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute.

Name Typ Description Erforderlich Default
client_secret OpenAI.RealtimeSessionCreateRequestClientSecret Ja
└– abläuft_am integer Ja
└– Wert Schnur Ja
input_audio_format Schnur Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. Nein
input_audio_transcription OpenAI.RealtimeSessionCreateRequestInputAudioTranscription Nein
└─ Modell Schnur Nein
instructions Schnur Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind.
Nein
max_response_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
modalities Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio
legen Sie dies auf ["text"] fest.
Nein ['text'; 'audio']
output_audio_format Schnur Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw. Nein
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
speed number Die Geschwindigkeit der gesprochenen Antwort des Modells. 1.0 ist die Standardgeschwindigkeit. 0.25 ist
die Mindestgeschwindigkeit. 1,5 ist die maximale Geschwindigkeit. Dieser Wert kann nur geändert werden.
in between model turns, not while a response is in progress.
Einschränkungen: min: 0,25, max: 1,5
Nein 1
Temperatur number Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8. Nein
tool_choice Schnur Gibt an, wie das Modell Tools auswählt. Optionen sind auto, , none, requiredoder
geben Sie eine Funktion an.
Nein
Werkzeuge Array von OpenAI.RealtimeSessionCreateRequestTools Tools (Funktionen), die für das Modell verfügbar sind. Nein
tracing Zeichenfolge oder Objekt Konfigurationsoptionen für die Ablaufverfolgung. Legen Sie auf NULL fest, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein
truncation OpenAI.RealtimeTruncation Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt.
Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist.
Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird.
Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
Nein
turn_detection OpenAI.RealtimeSessionCreateRequestTurnDetection Nein
└– prefix_padding_ms integer Nein
└– Dauer_der_Stille_in_ms integer Nein
└– Schwellenwert number Nein
└– Typ Schnur Nein
type enum
Möglicher Wert: realtime
Ja
voice OpenAI.VoiceIdsShared Nein

OpenAI.RealtimeSessionCreateRequestClientSecret

Name Typ Description Erforderlich Default
läuft_ab_am integer Ja
Wert Schnur Ja

OpenAI.RealtimeSessionCreateRequestGA

Objektkonfiguration der Echtzeitsitzung.

Name Typ Description Erforderlich Default
audio OpenAI.RealtimeSessionCreateRequestGAAudio Nein
└– Eingabe OpenAI.RealtimeSessionCreateRequestGAAudioInput Nein
└─ Ausgabe OpenAI.RealtimeSessionCreateRequestGAAudioOutput Nein
einschließen Array von Zeichenfolgen Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.
item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein.
Nein
instructions Schnur Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten.
Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind.
Nein
max_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
Modell Schnur Das für diese Sitzung verwendete Realtime-Modell. Nein
Ausgabemodalitäten Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dass
dass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, um
Das Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern.
Nein ['audio']
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus
function/MCP tool.
Nein
Werkzeuge Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool Tools, die für das Modell verfügbar sind. Nein
tracing string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein
truncation OpenAI.RealtimeTruncation Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt.
Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist.
Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird.
Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
Nein
type enum Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.
Möglicher Wert: realtime
Ja

OpenAI.RealtimeSessionCreateRequestGAAudio

Name Typ Description Erforderlich Default
Eingabe OpenAI.RealtimeSessionCreateRequestGAAudioInput Nein
output OpenAI.RealtimeSessionCreateRequestGAAudioOutput Nein

OpenAI.RealtimeSessionCreateRequestGAAudioInput

Name Typ Description Erforderlich Default
format OpenAI.RealtimeAudioFormats Nein
noise_reduction OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction Nein
Transkription OpenAI.AudioTranscription Nein
turn_detection OpenAI.RealtimeTurnDetection Nein

OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction

Name Typ Description Erforderlich Default
type OpenAI.NoiseReductionType Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. Nein

OpenAI.RealtimeSessionCreateRequestGAAudioOutput

Name Typ Description Erforderlich Default
format OpenAI.RealtimeAudioFormats Nein
speed number Einschränkungen: min: 0,25, max: 1,5 Nein 1
voice OpenAI.VoiceIdsShared Nein

OpenAI.RealtimeSessionCreateRequestGATracing

Name Typ Description Erforderlich Default
group_id Schnur Nein
metadata Objekt Nein
workflow_name Schnur Nein

OpenAI.RealtimeSessionCreateRequestInputAudioTranscription

Name Typ Description Erforderlich Default
Modell Schnur Nein

OpenAI.RealtimeSessionCreateRequestTools

Name Typ Description Erforderlich Default
Beschreibung Schnur Nein
Name Schnur Nein
parameters OpenAI.RealtimeSessionCreateRequestToolsParameters Nein
type enum
Möglicher Wert: function
Nein

OpenAI.RealtimeSessionCreateRequestToolsParameters

Typ: Objekt

OpenAI.RealtimeSessionCreateRequestTurnDetection

Name Typ Description Erforderlich Default
prefix_padding_ms integer Nein
Stille_Dauer_ms integer Nein
threshold number Nein
type Schnur Nein

OpenAI.RealtimeSessionCreateRequestUnion

Diskriminator für OpenAI.RealtimeSessionCreateRequestUnion

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
realtime OpenAI.RealtimeSessionCreateRequest
transcription OpenAI.RealtimeTranscriptionSessionCreateRequest
Name Typ Description Erforderlich Default
type OpenAI.RealtimeSessionCreateRequestUnionType Ja

OpenAI.RealtimeSessionCreateRequestUnionType

Eigentum Wert
Typ Schnur
Werte realtime
transcription

OpenAI.RealtimeSessionCreateResponse

Ein Realtime-Sitzungskonfigurationsobjekt.

Name Typ Description Erforderlich Default
audio OpenAI.RealtimeSessionCreateResponseAudio Nein
└– Eingabe OpenAI.RealtimeSessionCreateResponseAudioInput Nein
└─ Ausgabe OpenAI.RealtimeSessionCreateResponseAudioOutput Nein
läuft_ab_am integer Ablaufzeitstempel für die Sitzung in Sekunden seit der Epoche. Nein
id Schnur Eindeutiger Bezeichner für die Sitzung, die wie sess_1234567890abcdeffolgt aussieht. Nein
einschließen Array von Zeichenfolgen Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.
- item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein.
Nein
instructions Schnur Die Standardsystemanweisungen (d. h. Systemmeldung) werden dem Modell vorangestellt
Anrufe. Dieses Feld ermöglicht es dem Client, das Modell nach Wunsch zu leiten.
Antworten. Das Modell kann für Antwortinhalte und -formate angewiesen werden,
(Beispiel: "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute
Antworten") und über das Audioverhalten (z. B. "Schnell sprechen", "Emotion injizieren")
in deine Stimme", "lacht häufig"). Die Anweisungen sind nicht garantiert
auf das Modell folgen, aber sie bieten Anleitungen für das Modell auf dem
gewünschtes Verhalten.
Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dies der Fall ist.
field is not set and are visible in the session.created event at the
Beginn der Sitzung.
Nein
max_output_tokens ganze Zahl (siehe gültige Modelle unten) Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort,
einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an
Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für ein
angegebenes Modell. Wird standardmäßig auf inf festgelegt.
Nein
Modell Schnur Das für diese Sitzung verwendete Realtime-Modell. Nein
Objekt Schnur Der Objekttyp. Immer realtime.session. Nein
Ausgabemodalitäten Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio
legen Sie dies auf ["text"] fest.
Nein
tool_choice Schnur Gibt an, wie das Modell Tools auswählt. Optionen sind auto, , none, requiredoder
geben Sie eine Funktion an.
Nein
Werkzeuge Array von OpenAI.RealtimeFunctionTool Tools (Funktionen), die für das Modell verfügbar sind. Nein
tracing Zeichenfolge oder Objekt Konfigurationsoptionen für die Ablaufverfolgung. Legen Sie auf NULL fest, um die Ablaufverfolgung zu deaktivieren. Einmal
Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden.
auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für die
Workflowname, Gruppen-ID und Metadaten.
Nein
turn_detection OpenAI.RealtimeSessionCreateResponseTurnDetection Nein
└– prefix_padding_ms integer Nein
└– Dauer_der_Stille_in_ms integer Nein
└– Schwellenwert number Nein
└– Typ Schnur Nein
type enum
Möglicher Wert: realtime
Ja

OpenAI.RealtimeSessionCreateResponseAudio

Name Typ Description Erforderlich Default
Eingabe OpenAI.RealtimeSessionCreateResponseAudioInput Nein
output OpenAI.RealtimeSessionCreateResponseAudioOutput Nein

OpenAI.RealtimeSessionCreateResponseAudioInput

Name Typ Description Erforderlich Default
format OpenAI.RealtimeAudioFormats Nein
noise_reduction OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction Nein
Transkription OpenAI.AudioTranscription Nein
turn_detection OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection Nein

OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction

Name Typ Description Erforderlich Default
type OpenAI.NoiseReductionType Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. Nein

OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection

Name Typ Description Erforderlich Default
prefix_padding_ms integer Nein
Stille_Dauer_ms integer Nein
threshold number Nein
type Schnur Nein

OpenAI.RealtimeSessionCreateResponseAudioOutput

Name Typ Description Erforderlich Default
format OpenAI.RealtimeAudioFormats Nein
speed number Nein
voice OpenAI.VoiceIdsShared Nein

OpenAI.RealtimeSessionCreateResponseTurnDetection

Name Typ Description Erforderlich Default
prefix_padding_ms integer Nein
Stille_Dauer_ms integer Nein
threshold number Nein
type Schnur Nein

OpenAI.RealtimeSessionCreateResponseUnion

Diskriminator für OpenAI.RealtimeSessionCreateResponseUnion

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
realtime OpenAI.RealtimeSessionCreateResponse
transcription OpenAI.RealtimeTranscriptionSessionCreateResponse
Name Typ Description Erforderlich Default
type OpenAI.RealtimeSessionCreateResponseUnionType Ja

OpenAI.RealtimeSessionCreateResponseUnionType

Eigentum Wert
Typ Schnur
Werte realtime
transcription

OpenAI.RealtimeTranscriptionSessionCreateRequest

Echtzeit-Transkriptionssitzungsobjektkonfiguration.

Name Typ Description Erforderlich Default
einschließen Array von Zeichenfolgen Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:
item.input_audio_transcription.logprobs
Nein
input_audio_format enum Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.
Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Abtastrate sein,
Einzelkanal (Mono) und kleine Bytereihenfolge.
Mögliche Werte: pcm16, , g711_ulawg711_alaw
Nein
input_audio_noise_reduction OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction Nein
└– Typ OpenAI.NoiseReductionType Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. Nein
input_audio_transcription OpenAI.AudioTranscription Nein
└– Sprache Schnur Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in
ISO-639-1 (z. B. en) Format
verbessert die Genauigkeit und Latenz.
Nein
└─ Modell Schnur Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. Nein
└– Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals
Segment.
For whisper-1, the prompt is a list of keywords.
Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
Nein
turn_detection OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection Nein
└– prefix_padding_ms integer Nein
└– Dauer_der_Stille_in_ms integer Nein
└– Schwellenwert number Nein
└– Typ enum
Möglicher Wert: server_vad
Nein
type enum
Möglicher Wert: transcription
Ja

OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction

Name Typ Description Erforderlich Default
type OpenAI.NoiseReductionType Art der Rauschunterdrückung. near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. Nein

OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection

Name Typ Description Erforderlich Default
prefix_padding_ms integer Nein
Stille_Dauer_ms integer Nein
threshold number Nein
type enum
Möglicher Wert: server_vad
Nein

OpenAI.RealtimeTranscriptionSessionCreateResponse

Eine neue Realtime-Transkriptionssitzungskonfiguration. Wenn eine Sitzung über die REST-API auf dem Server erstellt wird, enthält das Sitzungsobjekt auch einen kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt 10 Minuten. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.

Name Typ Description Erforderlich Default
client_secret OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret Ja
└– abläuft_am integer Ja
└– Wert Schnur Ja
input_audio_format Schnur Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. Nein
input_audio_transcription OpenAI.AudioTranscription Nein
└– Sprache Schnur Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in
ISO-639-1 (z. B. en) Format
verbessert die Genauigkeit und Latenz.
Nein
└─ Modell Schnur Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. Nein
└– Eingabeaufforderung Schnur Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals
Segment.
For whisper-1, the prompt is a list of keywords.
Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten".
Nein
modalities Array von Zeichenfolgen Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio
legen Sie dies auf ["text"] fest.
Nein
turn_detection OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection Nein
└– prefix_padding_ms integer Nein
└– Dauer_der_Stille_in_ms integer Nein
└– Schwellenwert number Nein
└– Typ Schnur Nein
type enum
Möglicher Wert: transcription
Ja

OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret

Name Typ Description Erforderlich Default
läuft_ab_am integer Ja
Wert Schnur Ja

OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection

Name Typ Description Erforderlich Default
prefix_padding_ms integer Nein
Stille_Dauer_ms integer Nein
threshold number Nein
type Schnur Nein

OpenAI.RealtimeTruncation

Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.

Eigentum Wert
Typ Schnur
Werte auto
disabled

OpenAI.RealtimeTurnDetection

Diskriminator für OpenAI.RealtimeTurnDetection

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
Name Typ Description Erforderlich Default
type OpenAI.RealtimeTurnDetectionType Ja

OpenAI.RealtimeTurnDetectionType

Typ: string

OpenAI.Reasoning

Nur GPT-5 und O-Serie Modelle Konfigurationsoptionen für Schlussfolgermodelle.

Name Typ Description Erforderlich Default
effort OpenAI.ReasoningEffort Schränkt den Begründungsaufwand ein für
Begründungsmodelle.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Reduzieren
Der Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen.
die bei der Begründung in einer Antwort verwendet werden.
- gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.
- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.
- xhigh wird für alle Modelle nach gpt-5.1-codex-max.
Nein
generate_summary Zeichenfolge oder null Nein
summary Zeichenfolge oder null Nein

OpenAI.ReasoningEffort

Schränkt den Begründungsaufwand für Begründungsmodelle ein. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

  • gpt-5.1 standardmäßig auf none, was kein Schlussfolgern ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.
  • Alle Modelle dienen vorher gpt-5.1 standardmäßig dem medium Reasoning-Aufwand und unterstützen nonenicht .
  • Das gpt-5-pro Modell basiert standardmäßig auf (und unterstützt nur) high den Schlussfolgerungsaufwand.
  • xhigh wird für alle Modelle nach gpt-5.1-codex-maxunterstützt.
Eigentum Wert
Typ Schnur
Werte none
minimal
low
medium
high
xhigh

OpenAI.ReasoningTextContent

Argumentationstext aus dem Modell.

Name Typ Description Erforderlich Default
Text Schnur Der Argumentationstext des Modells. Ja
type enum Die Art des Argumentationstextes. Immer reasoning_text.
Möglicher Wert: reasoning_text
Ja

OpenAI.RefusalContent

Eine Ablehnung des Modells

Name Typ Description Erforderlich Default
Ablehnung Schnur Die Erklärung der Ablehnung des Modells Ja
type enum Die Art der Ablehnung. Immer refusal.
Möglicher Wert: refusal
Ja

OpenAI.Response

Name Typ Description Erforderlich Default
background Boolescher Wert oder Null Nein
abgeschlossen_am Zeichenfolge oder null Nein
content_filters Array von AzureContentFilterForResponsesAPI Der Inhaltsfilter ergibt sich aus RAI. Ja
-Unterhaltung OpenAI.ConversationReference oder NULL Nein
erstellt_am integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
Fehler OpenAI.ResponseError oder NULL Ja
id Schnur Eindeutiger Bezeichner für diese Antwort Ja
incomplete_details OpenAI.ResponseIncompleteDetails oder NULL Ja
instructions Zeichenfolge oder Array von OpenAI.InputItem oder NULL Ja
max_output_tokens ganze Zahl oder Null Nein
max_tool_calls ganze Zahl oder Null Nein
metadata OpenAI.Metadata oder NULL Nein
Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
output Array von OpenAI.OutputItem Ein Array von Inhaltselementen, die vom Modell generiert werden.
- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
output_text Zeichenfolge oder null Nein
Parallele Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
previous_response_id Zeichenfolge oder null Nein
prompt OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
prompt_cache_retention Zeichenfolge oder null Nein
reasoning OpenAI.Reasoning oder NULL Nein
safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
Temperatur Zahl oder Null Nein
Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
tool_choice OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
top_logprobs ganze Zahl oder Null Nein
top_p Zahl oder Null Nein
truncation Zeichenfolge oder null Nein
usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
user Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein

OpenAI.ResponseAudioDeltaEvent

Wird ausgegeben, wenn eine partielle Audioantwort vorhanden ist.

Name Typ Description Erforderlich Default
delta Schnur Ein Block der Base64-codierten Antwortaudiobytes Ja
sequence_number integer Eine Sequenznummer für diesen Datenblock der Datenstromantwort. Ja
type enum Typ des Ereignisses Immer response.audio.delta.
Möglicher Wert: response.audio.delta
Ja

OpenAI.ResponseAudioTranscriptDeltaEvent

Wird ausgegeben, wenn eine partielle Transkription von Audio vorhanden ist.

Name Typ Description Erforderlich Default
delta Schnur Die partielle Transkription der Audioantwort. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.audio.transcript.delta.
Möglicher Wert: response.audio.transcript.delta
Ja

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeschnipsel vom Code-Interpreter gestreamt wird.

Name Typ Description Erforderlich Default
delta Schnur Der partielle Codeschnipsel, der vom Code-Interpreter gestreamt wird. Ja
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses, die zum Sortieren von Streamingereignissen verwendet wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call_code.delta.
Möglicher Wert: response.code_interpreter_call_code.delta
Ja

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters in Arbeit ist. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses, die zum Sortieren von Streamingereignissen verwendet wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.in_progress.
Möglicher Wert: response.code_interpreter_call.in_progress
Ja

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. Ja
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code-Interpreter Code interpretiert. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses, die zum Sortieren von Streamingereignissen verwendet wird. Ja
type enum Typ des Ereignisses Immer response.code_interpreter_call.interpreting.
Möglicher Wert: response.code_interpreter_call.interpreting
Ja

OpenAI.ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Typ Description Erforderlich Default
content_index integer Der Index des hinzugefügten Inhaltsteils. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Ja
part OpenAI.OutputContent Ja
└– Typ OpenAI.OutputContentType Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.content_part.added.
Möglicher Wert: response.content_part.added
Ja

OpenAI.ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Typ Description Erforderlich Default
response OpenAI.Response Ja
└– Hintergrund Boolescher Wert oder Null Nein
└– completed_at Zeichenfolge oder null Nein
└- content_filters Array von AzureContentFilterForResponsesAPI Der Inhaltsfilter ergibt sich aus RAI. Ja
└– Unterhaltung OpenAI.ConversationReference oder NULL Nein
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
└– Fehler OpenAI.ResponseError oder NULL Ja
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Ja
└─ unvollständige_Details OpenAI.ResponseIncompleteDetails oder NULL Ja
└– Anweisungen Zeichenfolge oder Array von OpenAI.InputItem oder NULL Ja
└– max_output_tokens ganze Zahl oder Null Nein
└– max_tool_calls ganze Zahl oder Null Nein
└- Metadaten OpenAI.Metadata oder NULL Nein
└─ Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
└─ Ausgabe Array von OpenAI.OutputItem Ein Array von Inhaltselementen, die vom Modell generiert werden.
- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
└─ Ausgabentext Zeichenfolge oder null Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
└– vorherige_Antwort_ID Zeichenfolge oder null Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
└– prompt_cache_retention Zeichenfolge oder null Nein
└– Begründung OpenAI.Reasoning oder NULL Nein
└– safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur Zahl oder Null Nein 1
└– Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
└– top_logprobs ganze Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
└– Abschneiden Zeichenfolge oder null Nein deaktiviert
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein
sequence_number integer Die Sequenznummer für dieses Ereignis. Ja
type enum Typ des Ereignisses Immer response.created.
Möglicher Wert: response.created
Ja

OpenAI.ResponseCustomToolCallInputDeltaEvent

Ereignis, das ein Delta (partielle Aktualisierung) für die Eingabe eines benutzerdefinierten Toolaufrufs darstellt.

Name Typ Description Erforderlich Default
delta Schnur Die inkrementellen Eingabedaten (Delta) für den benutzerdefinierten Toolaufruf. Ja
item_id Schnur Eindeutiger Bezeichner für das API-Element, das diesem Ereignis zugeordnet ist. Ja
output_index integer Der Index der Ausgabe, auf die dieses Delta angewendet wird. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Der Ereignistypbezeichner.
Möglicher Wert: response.custom_tool_call_input.delta
Ja

OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Typ Description Erforderlich Default
code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Ja
Nachricht Schnur Eine für Menschen lesbare Beschreibung des Fehlers. Ja

OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

Eigentum Wert
Typ Schnur
Werte server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Typ Description Erforderlich Default
code Zeichenfolge oder null Ja
Nachricht Schnur Die Fehlermeldung. Ja
param Zeichenfolge oder null Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer error.
Möglicher Wert: error
Ja

OpenAI.ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Typ Description Erforderlich Default
response OpenAI.Response Ja
└– Hintergrund Boolescher Wert oder Null Nein
└– completed_at Zeichenfolge oder null Nein
└- content_filters Array von AzureContentFilterForResponsesAPI Der Inhaltsfilter ergibt sich aus RAI. Ja
└– Unterhaltung OpenAI.ConversationReference oder NULL Nein
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
└– Fehler OpenAI.ResponseError oder NULL Ja
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Ja
└─ unvollständige_Details OpenAI.ResponseIncompleteDetails oder NULL Ja
└– Anweisungen Zeichenfolge oder Array von OpenAI.InputItem oder NULL Ja
└– max_output_tokens ganze Zahl oder Null Nein
└– max_tool_calls ganze Zahl oder Null Nein
└- Metadaten OpenAI.Metadata oder NULL Nein
└─ Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
└─ Ausgabe Array von OpenAI.OutputItem Ein Array von Inhaltselementen, die vom Modell generiert werden.
- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
└─ Ausgabentext Zeichenfolge oder null Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
└– vorherige_Antwort_ID Zeichenfolge oder null Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
└– prompt_cache_retention Zeichenfolge oder null Nein
└– Begründung OpenAI.Reasoning oder NULL Nein
└– safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur Zahl oder Null Nein 1
└– Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
└– top_logprobs ganze Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
└– Abschneiden Zeichenfolge oder null Nein deaktiviert
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.failed.
Möglicher Wert: response.failed
Ja

OpenAI.ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index integer Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.file_search_call.in_progress.
Möglicher Wert: response.file_search_call.in_progress
Ja

OpenAI.ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. Ja
output_index integer Der Index des Ausgabeelements, das der Dateisuchaufruf sucht. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.file_search_call.searching.
Möglicher Wert: response.file_search_call.searching
Ja

OpenAI.ResponseFormatJsonObject

JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Ja

OpenAI.ResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Erfahren Sie mehr über Structured Outputs.

Name Typ Description Erforderlich Default
JSON-Schema OpenAI.ResponseFormatJsonSchemaJsonSchema Ja
└– Beschreibung Schnur Nein
└– Name Schnur Ja
└- Schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Nein
└– streng Boolescher Wert oder Null Nein
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ResponseFormatJsonSchemaJsonSchema

Name Typ Description Erforderlich Default
Beschreibung Schnur Nein
Name Schnur Ja
Schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Nein
strict Boolescher Wert oder Null Nein

OpenAI.ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.

Typ: Objekt

OpenAI.ResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer text.
Möglicher Wert: text
Ja

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.

Name Typ Description Erforderlich Default
delta Schnur Das hinzugefügte Argumentdelta des Funktionsaufrufs Ja
item_id Schnur Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. Ja
output_index integer Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.function_call_arguments.delta.
Möglicher Wert: response.function_call_arguments.delta
Ja

OpenAI.ResponseImageGenCallGeneratingEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild (Zwischenzustand) generiert.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
sequence_number integer Die Sequenznummer des verarbeiteten Bildgenerierungselements. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.generating.
Möglicher Wert: response.image_generation_call.generating
Ja

OpenAI.ResponseImageGenCallInProgressEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
sequence_number integer Die Sequenznummer des verarbeiteten Bildgenerierungselements. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.in_progress”.
Möglicher Wert: response.image_generation_call.in_progress
Ja

OpenAI.ResponseImageGenCallPartialImageEvent

Wird ausgegeben, wenn ein Teilbild während des Bildgenerierungsstreamings verfügbar ist.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
partial_image_b64 Schnur Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. Ja
partial_image_index integer 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). Ja
sequence_number integer Die Sequenznummer des verarbeiteten Bildgenerierungselements. Ja
type enum Typ des Ereignisses Immer „response.image_generation_call.partial_image”.
Möglicher Wert: response.image_generation_call.partial_image
Ja

OpenAI.ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.

Name Typ Description Erforderlich Default
response OpenAI.Response Ja
└– Hintergrund Boolescher Wert oder Null Nein
└– completed_at Zeichenfolge oder null Nein
└- content_filters Array von AzureContentFilterForResponsesAPI Der Inhaltsfilter ergibt sich aus RAI. Ja
└– Unterhaltung OpenAI.ConversationReference oder NULL Nein
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
└– Fehler OpenAI.ResponseError oder NULL Ja
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Ja
└─ unvollständige_Details OpenAI.ResponseIncompleteDetails oder NULL Ja
└– Anweisungen Zeichenfolge oder Array von OpenAI.InputItem oder NULL Ja
└– max_output_tokens ganze Zahl oder Null Nein
└– max_tool_calls ganze Zahl oder Null Nein
└- Metadaten OpenAI.Metadata oder NULL Nein
└─ Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
└─ Ausgabe Array von OpenAI.OutputItem Ein Array von Inhaltselementen, die vom Modell generiert werden.
- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
└─ Ausgabentext Zeichenfolge oder null Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
└– vorherige_Antwort_ID Zeichenfolge oder null Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
└– prompt_cache_retention Zeichenfolge oder null Nein
└– Begründung OpenAI.Reasoning oder NULL Nein
└– safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur Zahl oder Null Nein 1
└– Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
└– top_logprobs ganze Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
└– Abschneiden Zeichenfolge oder null Nein deaktiviert
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.in_progress.
Möglicher Wert: response.in_progress
Ja

OpenAI.ResponseIncompleteDetails

Name Typ Description Erforderlich Default
Grund enum
Mögliche Werte: max_output_tokens, content_filter
Nein

OpenAI.ResponseIncompleteEvent

Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig beendet wird.

Name Typ Description Erforderlich Default
response OpenAI.Response Ja
└– Hintergrund Boolescher Wert oder Null Nein
└– completed_at Zeichenfolge oder null Nein
└- content_filters Array von AzureContentFilterForResponsesAPI Der Inhaltsfilter ergibt sich aus RAI. Ja
└– Unterhaltung OpenAI.ConversationReference oder NULL Nein
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
└– Fehler OpenAI.ResponseError oder NULL Ja
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Ja
└─ unvollständige_Details OpenAI.ResponseIncompleteDetails oder NULL Ja
└– Anweisungen Zeichenfolge oder Array von OpenAI.InputItem oder NULL Ja
└– max_output_tokens ganze Zahl oder Null Nein
└– max_tool_calls ganze Zahl oder Null Nein
└- Metadaten OpenAI.Metadata oder NULL Nein
└─ Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
└─ Ausgabe Array von OpenAI.OutputItem Ein Array von Inhaltselementen, die vom Modell generiert werden.
- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
└─ Ausgabentext Zeichenfolge oder null Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
└– vorherige_Antwort_ID Zeichenfolge oder null Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
└– prompt_cache_retention Zeichenfolge oder null Nein
└– Begründung OpenAI.Reasoning oder NULL Nein
└– safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur Zahl oder Null Nein 1
└– Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
└– top_logprobs ganze Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
└– Abschneiden Zeichenfolge oder null Nein deaktiviert
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.incomplete.
Möglicher Wert: response.incomplete
Ja

OpenAI.ResponseItemList

Eine Liste der Antwortelemente.

Name Typ Description Erforderlich Default
Daten Array von OpenAI.ItemResource Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. Ja
first_id Schnur Die ID des ersten Elements in der Liste. Ja
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Ja
last_id Schnur Die ID des letzten Elements in der Liste. Ja
Objekt enum Der Typ des zurückgegebenen Objekts muss sein list.
Möglicher Wert: list
Ja

OpenAI.ResponseLogProb

Ein Logprob ist die logarithmische Wahrscheinlichkeit, die das Modell der Erstellung eines bestimmten Tokens an einer bestimmten Position in der Sequenz zuweist. Weniger negative (höhere) Logprobwerte deuten auf eine höhere Modellvertrauensstufe in diese Tokenauswahl hin.

Name Typ Description Erforderlich Default
logprob number Die logarithmierte Wahrscheinlichkeit dieses Tokens Ja
token Schnur Ein mögliches Texttoken. Ja
top_logprobs Array von OpenAI.ResponseLogProbTopLogprobs Die Protokollwahrscheinlichkeit der top 20 höchstwahrscheinlichen Token. Nein

OpenAI.ResponseLogProbTopLogprobs

Name Typ Description Erforderlich Default
logprob number Nein
token Schnur Nein

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.

Name Typ Description Erforderlich Default
delta Schnur Eine JSON-Zeichenfolge, die die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf enthält. Ja
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer "response.mcp_call_arguments.delta".
Möglicher Wert: response.mcp_call_arguments.delta
Ja

OpenAI.ResponseMCPCallFailedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des MCP-Toolaufrufelements, das fehlgeschlagen ist. Ja
output_index integer Der Index des Ausgabeelements, das fehlgeschlagen ist. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.failed“.
Möglicher Wert: response.mcp_call.failed
Ja

OpenAI.ResponseMCPCallInProgressEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf ausgeführt wird.

Name Typ Description Erforderlich Default
item_id Schnur Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer „response.mcp_call.in_progress”.
Möglicher Wert: response.mcp_call.in_progress
Ja

OpenAI.ResponseMCPListToolsFailedEvent

Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools auflisten, fehlgeschlagen ist.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des MCP-Toolaufrufelements, das fehlgeschlagen ist. Ja
output_index integer Der Index des Ausgabeelements, das fehlgeschlagen ist. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer „response.mcp_list_tools.failed”.
Möglicher Wert: response.mcp_list_tools.failed
Ja

OpenAI.ResponseMCPListToolsInProgressEvent

Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des MCP-Toolaufrufelements, das verarbeitet wird. Ja
output_index integer Der Index des Ausgabeelements, das verarbeitet wird. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer „response.mcp_list_tools.in_progress”.
Möglicher Wert: response.mcp_list_tools.in_progress
Ja

OpenAI.ResponseModalities

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"] Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden: ["text", "audio"]

Dieses Schema akzeptiert einen der folgenden Typen:

  • Anordnung
  • null

OpenAI.ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Typ Description Erforderlich Default
item OpenAI.OutputItem Ja
└– Typ OpenAI.OutputItemType Ja
output_index integer Der Index des Ausgabeelements, das hinzugefügt wurde. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.output_item.added.
Möglicher Wert: response.output_item.added
Ja

OpenAI.ResponseOutputTextAnnotationAddedEvent

Wird ausgegeben, wenn eine Anmerkung zum Ausgabetextinhalt hinzugefügt wird.

Name Typ Description Erforderlich Default
annotation OpenAI.Annotation Eine Anmerkung, die sich auf einen Bereich von Ausgabetext bezieht. Ja
└– Typ OpenAI.AnnotationType Ja
annotation_index integer Der Index der Anmerkung innerhalb des Inhaltsteils. Ja
content_index integer Der Index des Inhaltsteils innerhalb des Ausgabeelements. Ja
item_id Schnur Der eindeutige Bezeichner des Elements, dem die Anmerkung hinzugefügt wird. Ja
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer "response.output_text.annotation.added".
Möglicher Wert: response.output_text.annotation.added
Ja

OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Typ: Objekt

OpenAI.ResponseQueuedEvent

Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.

Name Typ Description Erforderlich Default
response OpenAI.Response Ja
└– Hintergrund Boolescher Wert oder Null Nein
└– completed_at Zeichenfolge oder null Nein
└- content_filters Array von AzureContentFilterForResponsesAPI Der Inhaltsfilter ergibt sich aus RAI. Ja
└– Unterhaltung OpenAI.ConversationReference oder NULL Nein
└– created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Ja
└– Fehler OpenAI.ResponseError oder NULL Ja
└– ID Schnur Eindeutiger Bezeichner für diese Antwort Ja
└─ unvollständige_Details OpenAI.ResponseIncompleteDetails oder NULL Ja
└– Anweisungen Zeichenfolge oder Array von OpenAI.InputItem oder NULL Ja
└– max_output_tokens ganze Zahl oder Null Nein
└– max_tool_calls ganze Zahl oder Null Nein
└- Metadaten OpenAI.Metadata oder NULL Nein
└─ Modell Schnur Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAI
bietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung
Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung
um verfügbare Modelle zu durchsuchen und zu vergleichen.
Nein
└- Objekt enum Der Objekttyp dieser Ressource, immer auf response festgelegt.
Möglicher Wert: response
Ja
└─ Ausgabe Array von OpenAI.OutputItem Ein Array von Inhaltselementen, die vom Modell generiert werden.
- Die Länge und Reihenfolge der Elemente im output Array ist abhängig
von der Antwort des Modells.
- Statt auf das erste Element im Array output zuzugreifen und
davon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, der
vom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, sofern
dies in SDKs unterstützt wird.
Ja
└─ Ausgabentext Zeichenfolge oder null Nein
└─ parallele_Werkzeugaufrufe boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Ja Richtig
└– vorherige_Antwort_ID Zeichenfolge oder null Nein
└– Eingabeaufforderung OpenAI.Prompt Verweisen Sie auf eine Promptvorlage und deren Variablen.
Erfahren Sie mehr.
Nein
└– prompt_cache_key Schnur Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld. Erfahren Sie mehr. Nein
└– prompt_cache_retention Zeichenfolge oder null Nein
└– Begründung OpenAI.Reasoning oder NULL Nein
└– safety_identifier Schnur Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen.
Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr.
Nein
└─ Status enum Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
Nein
└– Temperatur Zahl oder Null Nein 1
└– Text OpenAI.ResponseTextParam Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher
Text oder strukturierte JSON-Daten sein. Weitere Informationen:
- Texteingaben und -ausgaben
- Strukturierte Ausgaben
Nein
└─ Werkzeugwahl OpenAI.ToolChoiceParam Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen
einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Tools
das Modell aufrufen kann.
Nein
└- Werkzeuge OpenAI.ToolsArray Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden
Die Funktionen des Modells, wie Websuche
oder Dateisuche. Weitere Informationen zu
eingebaute Werkzeuge.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server
oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu
MCP-Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden,
Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten
und Ausgaben. Weitere Informationen zu
Funktionsaufruf. Sie können auch verwenden
Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes.
Nein
└– top_logprobs ganze Zahl oder Null Nein
└– top_p Zahl oder Null Nein 1
└– Abschneiden Zeichenfolge oder null Nein deaktiviert
└– Nutzung OpenAI.ResponseUsage Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken,
eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken.
Nein
└– Benutzer Zeichenfolge (veraltet) Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.
Ein stabiler Bezeichner für Ihre Endbenutzer.
Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr.
Nein
sequence_number integer Die Sequenznummer für dieses Ereignis. Ja
type enum Typ des Ereignisses Immer „response.queued”.
Möglicher Wert: response.queued
Ja

OpenAI.ResponseReasoningSummaryPartAddedEvent

Wird ausgegeben, wenn ein neuer Zusammenfassungsteil für die Begründung hinzugefügt wird.

Name Typ Description Erforderlich Default
item_id Schnur Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Ja
part OpenAI.ResponseReasoningSummaryPartAddedEventPart Ja
└– Text Schnur Ja
└– Typ enum
Möglicher Wert: summary_text
Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
summary_index integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_part.added.
Möglicher Wert: response.reasoning_summary_part.added
Ja

OpenAI.ResponseReasoningSummaryPartAddedEventPart

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: summary_text
Ja

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Wird ausgegeben, wenn ein Delta zu einem Begründungszusammenfassungstext hinzugefügt wird.

Name Typ Description Erforderlich Default
delta Schnur Das Textdelta, das der Zusammenfassung hinzugefügt wurde. Ja
item_id Schnur Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
summary_index integer Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. Ja
type enum Typ des Ereignisses Immer response.reasoning_summary_text.delta.
Möglicher Wert: response.reasoning_summary_text.delta
Ja

OpenAI.ResponseReasoningTextDeltaEvent

Wird ausgegeben, wenn ein Delta einem Grundsatztext hinzugefügt wird.

Name Typ Description Erforderlich Default
content_index integer Der Index des Grundinhaltsteils, dem dieses Delta zugeordnet ist. Ja
delta Schnur Das Textdelta, das dem Grundinhalt hinzugefügt wurde. Ja
item_id Schnur Die ID des Elements, dem dieses Grundtextdelta zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem dieses Grundtextdelta zugeordnet ist. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.reasoning_text.delta.
Möglicher Wert: response.reasoning_text.delta
Ja

OpenAI.ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.

Name Typ Description Erforderlich Default
content_index integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. Ja
delta Schnur Der Verweigerungstext, der hinzugefügt wird. Ja
item_id Schnur Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
output_index integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Ja
sequence_number integer Die Sequenznummer dieses Ereignisses. Ja
type enum Typ des Ereignisses Immer response.refusal.delta.
Möglicher Wert: response.refusal.delta
Ja

OpenAI.ResponseStreamOptions

Optionen für Antworten im Streaming-Bereich. Legen Sie dies nur fest, wenn Sie stream: true festlegen.

Name Typ Description Erforderlich Default
include_obfuscation boolean Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt hinzu
Zufällige Zeichen für ein obfuscation Feld bei Streaming-Delta-Ereignissen
normalisieren Sie Nutzlastgrößen als Gegenmaßnahme für bestimmte Seitenkanalangriffe.
Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch einen kleinen Betrag hinzu.
mehr Aufwand für den Datenstrom. Sie können auf include_obfuscation
false, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen
Ihre Anwendung und die OpenAI-API.
Nein

OpenAI.ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Typ Description Erforderlich Default
content_index integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde Ja
delta Schnur Das Textdelta, das hinzugefügt wurde Ja
item_id Schnur Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. Ja
logprobs Array von OpenAI.ResponseLogProb Die Protokollwahrscheinlichkeiten der Token im Delta. Ja
output_index integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde Ja
sequence_number integer Die Sequenznummer für dieses Ereignis. Ja
type enum Typ des Ereignisses Immer response.output_text.delta.
Möglicher Wert: response.output_text.delta
Ja

OpenAI.ResponseTextParam

Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen:

Name Typ Description Erforderlich Default
format OpenAI.TextResponseFormatConfiguration Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,
dadurch wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
*Nicht empfohlen für gpt-4o und neuere Modelle:
Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, der
stellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schema
wird für Modelle bevorzugt, die es unterstützen.
Nein
Wortfülle OpenAI.Verbosity Begrenzt die Wortreichweite der Antwort des Modells. Niedrigere Werte führen zu
präzisere Antworten, während höhere Werte zu ausführlicheren Antworten führen.
Derzeit werden die Werte low, medium und high unterstützt.
Nein

OpenAI.ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Typ Description Erforderlich Default
input_tokens integer Die Anzahl der Eingabetoken. Ja
input_tokens_details OpenAI.ResponseUsageInputTokensDetails Ja
└– zwischengespeicherte_Token integer Ja
output_tokens integer Die Anzahl der Ausgabetoken. Ja
output_tokens_details OpenAI.ResponseUsageOutputTokensDetails Ja
└– reasoning_tokens integer Ja
Gesamtanzahl Tokens integer Die Gesamtzahl der verwendeten Token. Ja

OpenAI.ResponseUsageInputTokensDetails

Name Typ Description Erforderlich Default
cached_tokens integer Ja

OpenAI.ResponseUsageOutputTokensDetails

Name Typ Description Erforderlich Default
Begründungs_Token integer Ja

OpenAI.ResponseWebSearchCallInProgressEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
sequence_number integer Die Sequenznummer des verarbeiteten Websuchaufrufs. Ja
type enum Typ des Ereignisses Immer response.web_search_call.in_progress.
Möglicher Wert: response.web_search_call.in_progress
Ja

OpenAI.ResponseWebSearchCallSearchingEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
item_id Schnur Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Ja
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Ja
sequence_number integer Die Sequenznummer des verarbeiteten Websuchaufrufs. Ja
type enum Typ des Ereignisses Immer response.web_search_call.searching.
Möglicher Wert: response.web_search_call.searching
Ja

OpenAI.RunCompletionUsage

Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert wird null, wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, queuedusw.).

Name Typ Description Erforderlich Default
completion_tokens integer Die Anzahl von Vervollständigungstoken, die im Laufe der Ausführung verwendet wurden. Ja
prompt_tokens integer Die Anzahl von Prompttoken, die im Laufe der Ausführung verwendet wurden. Ja
Gesamtanzahl Tokens integer Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). Ja

OpenAI.RunGraderRequest

Name Typ Description Erforderlich Default
Bewerter OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint Der Grader, der für den Feinabstimmungsauftrag verwendet wird. Ja
item OpenAI.RunGraderRequestItem Nein
model_sample Schnur Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen
des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.
Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel eine
gültige JSON-Zeichenfolge ist.
Ja

OpenAI.RunGraderRequestItem

Typ: Objekt

OpenAI.RunGraderResponse

Name Typ Description Erforderlich Default
metadata OpenAI.RunGraderResponseMetadata Ja
model_grader_token_usage_per_model Objekt Ja
reward number Ja
sub_rewards Objekt Ja

OpenAI.RunGraderResponseMetadata

Name Typ Description Erforderlich Default
Irrtümer OpenAI.RunGraderResponseMetadataErrors Ja
execution_time number Ja
Name Schnur Ja
sampled_model_name Zeichenfolge oder null Ja
Spielergebnisse Objekt Ja
token_usage ganze Zahl oder Null Ja
type Schnur Ja

OpenAI.RunGraderResponseMetadataErrors

Name Typ Description Erforderlich Default
formula_parse_error boolean Ja
invalid_variable_error boolean Ja
model_grader_parse_error boolean Ja
model_grader_refusal_error boolean Ja
model_grader_server_error boolean Ja
model_grader_server_error_details Zeichenfolge oder null Ja
other_error boolean Ja
python_grader_runtime_error boolean Ja
python_grader_runtime_error_details Zeichenfolge oder null Ja
python_grader_server_error boolean Ja
python_grader_server_error_type Zeichenfolge oder null Ja
sample_parse_error boolean Ja
truncated_observation_error boolean Ja
unresponsive_reward_error boolean Ja

OpenAI.RunObject

Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.

Name Typ Description Erforderlich Default
assistant_id Schnur Die ID des Assistenten , der für die Ausführung dieser Ausführung verwendet wird. Ja
cancelled_at Zeichenfolge oder null Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgebrochen wurde. Ja
abgeschlossen_am Zeichenfolge oder null Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde Ja
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde Ja
läuft_ab_am Zeichenfolge oder null Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft Ja
failed_at Zeichenfolge oder null Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
incomplete_details OpenAI.RunObjectIncompleteDetails oder NULL Details zum Grund für die unvollständige Ausführung. Wird null, wenn die Ausführung nicht unvollständig ist. Ja
instructions Schnur Die Anweisungen, die der Assistent für diese Ausführung verwendet hat. Ja
last_error OpenAI.RunObjectLastError oder NULL Der letzte Fehler im Zusammenhang mit dieser Ausführung. Ist null, wenn keine Fehler vorliegen. Ja
max_completion_tokens ganze Zahl oder Null Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden Ja
max_prompt_tokens ganze Zahl oder Null Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden Ja
metadata OpenAI.Metadata oder NULL Ja
Modell Schnur Das Modell, das der Assistent für diese Ausführung verwendet hat. Ja
Objekt enum Der Objekttyp, der immer thread.run ist.
Möglicher Wert: thread.run
Ja
Parallele Werkzeugaufrufe OpenAI.ParallelToolCalls Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. Ja
required_action OpenAI.RunObjectRequiredAction oder NULL Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. Ja
Antwortformat OpenAI.AssistantsApiResponseFormatOption Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im
Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Ja
started_at Zeichenfolge oder null Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde Ja
status OpenAI.RunStatus Der Status der Ausführung, die entweder , , in_progress, , requires_action, cancelling, cancelled, failed, , completed, oder incompleteexpired.queued Ja
Temperatur Zahl oder Null Die für diese Ausführung verwendete Temperatur für die Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. Nein
thread_id Schnur Die ID des Threads , der als Teil dieser Ausführung ausgeführt wurde. Ja
tool_choice OpenAI.AssistantsApiToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Ja
Werkzeuge Array von OpenAI.AssistantTool Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat. Ja []
top_p Zahl oder Null Der für diese Ausführung verwendete Wert für die Nukleus-Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. Nein
truncation_strategy OpenAI.TruncationObject Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. Ja
usage OpenAI.RunCompletionUsage oder NULL Ja

OpenAI.RunObjectIncompleteDetails

Name Typ Description Erforderlich Default
Grund enum
Mögliche Werte: max_completion_tokens, max_prompt_tokens
Nein

OpenAI.RunObjectLastError

Name Typ Description Erforderlich Default
code enum
Mögliche Werte: server_error, , rate_limit_exceededinvalid_prompt
Ja
Nachricht Schnur Ja

OpenAI.RunObjectRequiredAction

Name Typ Description Erforderlich Default
submit_tool_outputs OpenAI.RunObjectRequiredActionSubmitToolOutputs Ja
type enum
Möglicher Wert: submit_tool_outputs
Ja

OpenAI.RunObjectRequiredActionSubmitToolOutputs

Name Typ Description Erforderlich Default
tool_calls Array von OpenAI.RunToolCallObject Ja

OpenAI.RunStatus

Der Status der Ausführung, die entweder , , in_progress, , requires_action, cancelling, cancelled, failed, , completed, oder incompleteexpired.queued

Eigentum Wert
Typ Schnur
Werte queued
in_progress
requires_action
cancelling
cancelled
failed
completed
incomplete
expired

OpenAI.RunStepCompletionUsage

Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat.

Name Typ Description Erforderlich Default
completion_tokens integer Die Anzahl von Vervollständigungstoken, die im Laufe des Ausführungsschritts verwendet wurden. Ja
prompt_tokens integer Die Anzahl von Prompttoken, die im Laufe des Ausführungsschritts verwendet wurden. Ja
Gesamtanzahl Tokens integer Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). Ja

OpenAI.RunStepDetailsMessageCreationObject

Details zur Nachrichterstellung durch den Ausführungsschritt.

Name Typ Description Erforderlich Default
message_creation OpenAI.RunStepDetailsMessageCreationObjectMessageCreation Ja
type enum Immer message_creation.
Möglicher Wert: message_creation
Ja

OpenAI.RunStepDetailsMessageCreationObjectMessageCreation

Name Typ Description Erforderlich Default
message_id Schnur Ja

OpenAI.RunStepDetailsToolCall

Diskriminator für OpenAI.RunStepDetailsToolCall

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObject
file_search OpenAI.RunStepDetailsToolCallsFileSearchObject
function OpenAI.RunStepDetailsToolCallsFunctionObject
Name Typ Description Erforderlich Default
type OpenAI.RunStepDetailsToolCallType Ja

OpenAI.RunStepDetailsToolCallType

Eigentum Wert
Typ Schnur
Werte code_interpreter
file_search
function

OpenAI.RunStepDetailsToolCallsCodeObject

Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.

Name Typ Description Erforderlich Default
code_interpreter OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter Ja
└– Eingabe Schnur Ja
└─ Ausgaben Array von OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject oder OpenAI.RunStepDetailsToolCallsCodeOutputImageObject Ja
id Schnur Die ID des Toolaufrufs Ja
type enum Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter.
Möglicher Wert: code_interpreter
Ja

OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter

Name Typ Description Erforderlich Default
Eingabe Schnur Ja
Ergebnisse Array von OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject oder OpenAI.RunStepDetailsToolCallsCodeOutputImageObject Ja

OpenAI.RunStepDetailsToolCallsCodeOutputImageObject

Name Typ Description Erforderlich Default
image OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage Ja
type enum Immer image.
Möglicher Wert: image
Ja

OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage

Name Typ Description Erforderlich Default
Datei-ID Schnur Ja

OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject

Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.

Name Typ Description Erforderlich Default
logs Schnur Die Textausgabe des Code-Interpreter-Toolaufrufs. Ja
type enum Immer logs.
Möglicher Wert: logs
Ja

OpenAI.RunStepDetailsToolCallsFileSearchObject

Name Typ Description Erforderlich Default
file_search OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch Ja
└– ranking_options OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Die Bewertungsoptionen für die Dateisuche. Nein
└- Ergebnisse Array von OpenAI.RunStepDetailsToolCallsFileSearchResultObject Nein
id Schnur Die ID des Toolaufrufobjekts. Ja
type enum Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer file_search.
Möglicher Wert: file_search
Ja

OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch

Name Typ Description Erforderlich Default
Ranglistenoptionen OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject Die Bewertungsoptionen für die Dateisuche. Nein
results Array von OpenAI.RunStepDetailsToolCallsFileSearchResultObject Nein

OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject

Die Bewertungsoptionen für die Dateisuche.

Name Typ Description Erforderlich Default
Bewerter OpenAI.FileSearchRanker Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet. Ja
score-threshold number Der Schwellenwert für die Bewertung für die Dateisuche. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein.
Einschränkungen: min: 0, max: 1
Ja

OpenAI.RunStepDetailsToolCallsFileSearchResultObject

Eine Ergebnisinstanz der Dateisuche.

Name Typ Description Erforderlich Default
Inhalt Array von OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur einbezogen, wenn er über den Include-Abfrageparameter angefordert wird. Nein
Datei-ID Schnur Die ID der Datei, in der das Ergebnis gefunden wurde. Ja
file_name Schnur Der Name der Datei, in der das Ergebnis gefunden wurde. Ja
score number Die Ergebnisbewertung. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein.
Einschränkungen: min: 0, max: 1
Ja

OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent

Name Typ Description Erforderlich Default
Text Schnur Nein
type enum
Möglicher Wert: text
Nein

OpenAI.RunStepDetailsToolCallsFunctionObject

Name Typ Description Erforderlich Default
Funktion OpenAI.RunStepDetailsToolCallsFunctionObjectFunction Ja
└- Argumente Schnur Ja
└– Name Schnur Ja
└─ Ausgabe Zeichenfolge oder null Ja
id Schnur Die ID des Toolaufrufobjekts. Ja
type enum Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function.
Möglicher Wert: function
Ja

OpenAI.RunStepDetailsToolCallsFunctionObjectFunction

Name Typ Description Erforderlich Default
Argumente Schnur Ja
Name Schnur Ja
output Zeichenfolge oder null Ja

OpenAI.RunStepDetailsToolCallsObject

Details des Toolaufrufs.

Name Typ Description Erforderlich Default
tool_calls Array von OpenAI.RunStepDetailsToolCall Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Arten von Tools zugeordnet werden: code_interpreter, , , file_searchoder function. Ja
type enum Immer tool_calls.
Möglicher Wert: tool_calls
Ja

OpenAI.RunStepObject

Stellt einen Schritt in einer Ausführung dar.

Name Typ Description Erforderlich Default
assistant_id Schnur Die ID des Assistenten , der dem Ausführungsschritt zugeordnet ist. Ja
cancelled_at Zeichenfolge oder null Ja
abgeschlossen_am Zeichenfolge oder null Ja
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt erstellt wurde Ja
abgelaufen_am Zeichenfolge oder null Ja
failed_at Zeichenfolge oder null Ja
id Schnur Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann Ja
last_error OpenAI.RunStepObjectLastError oder NULL Ja
metadata OpenAI.Metadata oder NULL Ja
Objekt enum Der Objekttyp, der immer thread.run.step ist.
Möglicher Wert: thread.run.step
Ja
run_id Schnur Die ID der Ausführung , zu der dieser Ausführungsschritt gehört. Ja
status enum Der Status des Ausführungsschritts, der entweder in_progress, , cancelled, , failed, completedoder expired.
Mögliche Werte: in_progress, , cancelledfailed, , completedexpired
Ja
step_details OpenAI.RunStepDetailsMessageCreationObject oder OpenAI.RunStepDetailsToolCallsObject Die Details des Ausführungsschritts Ja
thread_id Schnur Die ID des ausgeführten Threads . Ja
type enum Die Art des Ausführungsschritts (message_creation oder tool_calls).
Mögliche Werte: message_creation, tool_calls
Ja
usage OpenAI.RunStepCompletionUsage Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat. Ja

OpenAI.RunStepObjectLastError

Name Typ Description Erforderlich Default
code enum
Mögliche Werte: server_error, rate_limit_exceeded
Ja
Nachricht Schnur Ja

OpenAI.RunToolCallObject

Toolaufrufobjekte

Name Typ Description Erforderlich Default
Funktion OpenAI.RunToolCallObjectFunction Ja
└- Argumente Schnur Ja
└– Name Schnur Ja
id Schnur Die ID des Toolaufrufs Auf diese ID muss verwiesen werden, wenn Sie die Toolausgabe mithilfe der Ausgabe des Übermittlungstools zum Ausführen des Endpunkts übermitteln. Ja
type enum Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Dieser Wert ist vorerst immer function.
Möglicher Wert: function
Ja

OpenAI.RunToolCallObjectFunction

Name Typ Description Erforderlich Default
Argumente Schnur Ja
Name Schnur Ja

OpenAI.Screenshot

Screenshotaktion

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft
immer auf screenshot festgelegt.
Möglicher Wert: screenshot
Ja

OpenAI.Scroll

Eine Scrollaktion

Name Typ Description Erforderlich Default
scroll_x integer Der horizontale Scrollabstand Ja
scroll_y integer Der vertikale Scrollabstand Ja
type enum Gibt den Ereignistyp an. Für eine Scrollaktion ist diese Eigenschaft
immer auf scroll festgelegt.
Möglicher Wert: scroll
Ja
x integer Die X-Koordinate, an der das Scrollen erfolgt ist Ja
y integer Die y-Koordinate, bei der das Scrollen stattfindet. Ja

OpenAI.SearchContextSize

Eigentum Wert
Typ Schnur
Werte low
medium
high

OpenAI.SpecificApplyPatchParam

Erzwingt das Modell, das apply_patch Tool aufzurufen, wenn ein Toolaufruf ausgeführt wird.

Name Typ Description Erforderlich Default
type enum Das tool, das aufgerufen werden soll. Immer apply_patch.
Möglicher Wert: apply_patch
Ja

OpenAI.SpecificFunctionShellParam

Erzwingt das Modell, das Shelltool aufzurufen, wenn ein Toolaufruf erforderlich ist.

Name Typ Description Erforderlich Default
type enum Das tool, das aufgerufen werden soll. Immer shell.
Möglicher Wert: shell
Ja

OpenAI.StaticChunkingStrategy

Name Typ Description Erforderlich Default
chunk_overlap_tokens integer Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.
Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf.
Ja
max_chunk_size_tokens integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096.
Einschränkungen: min: 100, max: 4096
Ja

OpenAI.StaticChunkingStrategyRequestParam

Passen Sie Ihre eigene Blockerstellungsstrategie an, indem Sie die Blockgröße und die Blocküberlappung festlegen.

Name Typ Description Erforderlich Default
Statisch OpenAI.StaticChunkingStrategy Ja
type enum Immer static.
Möglicher Wert: static
Ja

OpenAI.StaticChunkingStrategyResponseParam

Name Typ Description Erforderlich Default
Statisch OpenAI.StaticChunkingStrategy Ja
type enum Immer static.
Möglicher Wert: static
Ja

OpenAI.StopConfiguration

Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini. Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.

Dieses Schema akzeptiert einen der folgenden Typen:

  • Anordnung
  • null

OpenAI.SubmitToolOutputsRunRequest

Name Typ Description Erforderlich Default
Datenstrom Boolescher Wert oder Null Nein
tool_outputs Array von OpenAI.SubmitToolOutputsRunRequestToolOutputs Eine Liste der Tools, für die die Ausgaben übermittelt werden Ja

OpenAI.SubmitToolOutputsRunRequestToolOutputs

Name Typ Description Erforderlich Default
output Schnur Nein
tool_call_id Schnur Nein

OpenAI.Summary

Ein Zusammenfassungstext des Modells.

Name Typ Description Erforderlich Default
Text Schnur Eine Zusammenfassung der bisherigen Argumentationsergebnisse des Modells. Ja
type enum Der Typ des Objekts. Immer summary_text.
Möglicher Wert: summary_text
Ja

OpenAI.SummaryTextContent

Ein Zusammenfassungstext des Modells.

Name Typ Description Erforderlich Default
Text Schnur Eine Zusammenfassung der bisherigen Argumentationsergebnisse des Modells. Ja
type enum Der Typ des Objekts. Immer summary_text.
Möglicher Wert: summary_text
Ja

OpenAI.TextAnnotation

Diskriminator für OpenAI.TextAnnotation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
file_citation OpenAI.MessageContentTextAnnotationsFileCitationObject
file_path OpenAI.MessageContentTextAnnotationsFilePathObject
Name Typ Description Erforderlich Default
type OpenAI.TextAnnotationType Ja

OpenAI.TextAnnotationType

Eigentum Wert
Typ Schnur
Werte file_citation
file_path

OpenAI.TextContent

Ein Textinhalt.

Name Typ Description Erforderlich Default
Text Schnur Ja
type enum
Möglicher Wert: text
Ja

OpenAI.TextResponseFormatConfiguration

Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar. Nicht empfohlen für GPT-4o und neuere Modelle:* Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Diskriminator für OpenAI.TextResponseFormatConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
json_schema OpenAI.TextResponseFormatJsonSchema
text OpenAI.TextResponseFormatConfigurationResponseFormatText
json_object OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Name Typ Description Erforderlich Default
type OpenAI.TextResponseFormatConfigurationType Ja

OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject

JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Möglicher Wert: json_object
Ja

OpenAI.TextResponseFormatConfigurationResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Typ Description Erforderlich Default
type enum Der Typ des zu definierenden Antwortformats. Immer text.
Möglicher Wert: text
Ja

OpenAI.TextResponseFormatConfigurationType

Eigentum Wert
Typ Schnur
Werte text
json_schema
json_object

OpenAI.TextResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Erfahren Sie mehr über Structured Outputs.

Name Typ Description Erforderlich Default
Beschreibung Schnur Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell
bestimmt wird, wie im Format geantwortet werden soll.
Nein
Name Schnur Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder
Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen).
Ja
Schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Ja
strict Boolescher Wert oder Null Nein
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Möglicher Wert: json_schema
Ja

OpenAI.ThreadObject

Stellt einen Thread dar, der Nachrichten enthält.

Name Typ Description Erforderlich Default
erstellt_am integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
metadata OpenAI.Metadata oder NULL Ja
Objekt enum Der Objekttyp, der immer thread ist.
Möglicher Wert: thread
Ja
tool_resources OpenAI.ThreadObjectToolResources oder NULL Ja

OpenAI.ThreadObjectToolResources

Name Typ Description Erforderlich Default
code_interpreter OpenAI.ThreadObjectToolResourcesCodeInterpreter Nein
file_search OpenAI.ThreadObjectToolResourcesFileSearch Nein

OpenAI.ThreadObjectToolResourcesCodeInterpreter

Name Typ Description Erforderlich Default
Datei-IDs Array von Zeichenfolgen Nein

OpenAI.ThreadObjectToolResourcesFileSearch

Name Typ Description Erforderlich Default
vector_store_ids Array von Zeichenfolgen Nein

OpenAI.TokenLimits

Name Typ Description Erforderlich Default
post_instructions integer Einschränkungen: min: 0 Nein

OpenAI.Tool

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

Diskriminator für OpenAI.Tool

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
code_interpreter OpenAI.CodeInterpreterTool
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search OpenAI.WebSearchTool
mcp OpenAI.MCPTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellToolParam
shell OpenAI.FunctionShellToolParam
custom OpenAI.CustomToolParam
web_search_preview OpenAI.WebSearchPreviewTool
apply_patch OpenAI.ApplyPatchToolParam
Name Typ Description Erforderlich Default
type OpenAI.ToolType Ja

OpenAI.ToolChoiceAllowed

Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.

Name Typ Description Erforderlich Default
mode enum Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.
auto ermöglicht es dem Modell, zwischen den zulässigen Tools zu wählen und eine
Meldung.
required erfordert, dass das Modell mindestens eins der zulässigen Tools aufruft.
Mögliche Werte: auto, required
Ja
Werkzeuge Objektarray Eine Liste der Tooldefinitionen, die das Modell aufrufen darf.
Für die Antwort-API könnte die Liste der Tooldefinitionen wie folgt aussehen:
json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br>
Ja
type enum Zulässiger Toolkonfigurationstyp. Immer allowed_tools.
Möglicher Wert: allowed_tools
Ja

OpenAI.ToolChoiceCodeInterpreter

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: code_interpreter
Ja

OpenAI.ToolChoiceComputerUsePreview

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: computer_use_preview
Ja

OpenAI.ToolChoiceCustom

Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes benutzerdefiniertes Tool aufruft.

Name Typ Description Erforderlich Default
Name Schnur Der Name des benutzerdefinierten Tools, das aufgerufen werden soll. Ja
type enum Für benutzerdefinierte Toolaufrufe ist der Typ immer custom.
Möglicher Wert: custom
Ja

OpenAI.ToolChoiceFileSearch

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: file_search
Ja

OpenAI.ToolChoiceFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Typ Description Erforderlich Default
Name Schnur Der Name der aufzurufenden Funktion. Ja
type enum Bei Funktionsaufrufen ist der Typ immer function.
Möglicher Wert: function
Ja

OpenAI.ToolChoiceImageGeneration

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: image_generation
Ja

OpenAI.ToolChoiceMCP

Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.

Name Typ Description Erforderlich Default
Name Zeichenfolge oder null Nein
Serverbeschriftung Schnur Die Bezeichnung des zu verwendenden MCP-Servers. Ja
type enum Bei MCP-Tools ist der Typ immer mcp.
Möglicher Wert: mcp
Ja

OpenAI.ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann. required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.

Eigentum Wert
Typ Schnur
Werte none
auto
required

OpenAI.ToolChoiceParam

Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.

Diskriminator für OpenAI.ToolChoiceParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Typwert Schema
allowed_tools OpenAI.ToolChoiceAllowed
mcp OpenAI.ToolChoiceMCP
custom OpenAI.ToolChoiceCustom
apply_patch OpenAI.SpecificApplyPatchParam
shell OpenAI.SpecificFunctionShellParam
file_search OpenAI.ToolChoiceFileSearch
web_search_preview OpenAI.ToolChoiceWebSearchPreview
computer_use_preview OpenAI.ToolChoiceComputerUsePreview
web_search_preview_2025_03_11 OpenAI.ToolChoiceWebSearchPreview20250311
image_generation OpenAI.ToolChoiceImageGeneration
code_interpreter OpenAI.ToolChoiceCodeInterpreter
Name Typ Description Erforderlich Default
type OpenAI.ToolChoiceParamType Ja

OpenAI.ToolChoiceParamType

Eigentum Wert
Typ Schnur
Werte allowed_tools
function
mcp
custom
apply_patch
shell
file_search
web_search_preview
computer_use_preview
web_search_preview_2025_03_11
image_generation
code_interpreter

OpenAI.ToolChoiceWebSearchPreview

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: web_search_preview
Ja

OpenAI.ToolChoiceWebSearchPreview20250311

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: web_search_preview_2025_03_11
Ja

OpenAI.ToolType

Eigentum Wert
Typ Schnur
Werte function
file_search
computer_use_preview
web_search
mcp
code_interpreter
image_generation
local_shell
shell
custom
web_search_preview
apply_patch

OpenAI.ToolsArray

Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen. Wir unterstützen die folgenden Kategorien von Tools:

  • Integrierte Tools: Werkzeuge, die von OpenAI bereitgestellt werden und die Funktionen des Modells erweitern, wie Websuche oder Dateisuche. Erfahren Sie mehr über integrierte Tools.
  • MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Erfahren Sie mehr über MCP Tools.
  • Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, wodurch das Modell Ihren eigenen Code mit stark typierten Argumenten und Ausgaben aufrufen kann. Erfahren Sie mehr über function calling. Sie können auch benutzerdefinierte Tools verwenden, um Ihren eigenen Code aufzurufen.

Array von: OpenAI.Tool

OpenAI.TopLogProb

Die oberste Protokollwahrscheinlichkeit eines Tokens.

Name Typ Description Erforderlich Default
Byte Array mit ganzzahliger Zahl Ja
logprob number Ja
token Schnur Ja

OpenAI.TranscriptionSegment

Name Typ Description Erforderlich Default
avg_logprob number Durchschnittliche logprob des Segments. Wenn der Wert niedriger als -1 ist, betrachten Sie die Logprobs als gescheitert. Ja
Kompressionsverhältnis number Komprimierungsverhältnis des Segments. Wenn der Wert größer als 2,4 ist, sollten Sie die Komprimierung als fehlgeschlagen betrachten. Ja
Ende number Endzeit des Segments in Sekunden. Ja
id integer Eindeutiger Bezeichner des Segments. Ja
no_speech_prob number Die Wahrscheinlichkeit, dass kein Wort im Segment gesprochen wird. Wenn der Wert höher als 1,0 ist und der avg_logprob Wert unter -1 liegt, sollten Sie dieses Segment unbeaufsichtigt betrachten. Ja
seek integer Der Suchoffset des Segments. Ja
Start number Startzeit des Abschnitts in Sekunden. Ja
Temperatur number Temperaturparameter, der zum Generieren des Segments verwendet wird. Ja
Text Schnur Textinhalt des Segments. Ja
tokens Array mit ganzzahliger Zahl Array von Token-IDs für den Textinhalt. Ja

OpenAI.TranscriptionWord

Name Typ Description Erforderlich Default
Ende number Endzeit des Worts in Sekunden. Ja
Start number Startzeit des Worts in Sekunden. Ja
word Schnur Der Textinhalt des Worts. Ja

OpenAI.TruncationObject

Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern.

Name Typ Description Erforderlich Default
last_messages ganze Zahl oder Null Nein
type enum Die für den Thread zu verwendende Kürzungsstrategie. Der Standardwert lautet auto. Bei Verwendung von last_messages wird der Thread auf die n neuesten Nachrichten im Thread gekürzt. Bei Verwendung von auto werden Nachrichten in der Mitte des Threads gelöscht, um der Kontextlänge des Modells (max_prompt_tokens) zu entsprechen.
Mögliche Werte: auto, last_messages
Ja

OpenAI.Type

Eine Aktion zum Eingeben von Text.

Name Typ Description Erforderlich Default
Text Schnur Der einzugebende Text. Ja
type enum Gibt den Ereignistyp an. Für eine Typaktion ist diese Eigenschaft
immer auf type festgelegt.
Möglicher Wert: type
Ja

OpenAI.UpdateConversationBody

Name Typ Description Erforderlich Default
metadata OpenAI.Metadata oder NULL 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Ja

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Ja

OpenAI.UpdateVectorStoreRequest

Name Typ Description Erforderlich Default
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
metadata OpenAI.Metadata oder NULL Nein
Name Zeichenfolge oder null Der Name des Vektorspeichers. Nein

OpenAI.UrlCitationBody

Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.

Name Typ Description Erforderlich Default
end_index integer Der Index des letzten Zeichens des URL-Zitats in der Nachricht. Ja
start_index integer Der Index des ersten Zeichens des URL-Zitats in der Nachricht. Ja
title Schnur Der Titel der Webressource. Ja
type enum Der Typ des URL-Zitats. Immer url_citation.
Möglicher Wert: url_citation
Ja
url Schnur Die URL der Webressource. Ja

OpenAI.ValidateGraderResponse

Name Typ Description Erforderlich Default
Bewerter OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint Der Grader, der für den Feinabstimmungsauftrag verwendet wird. Nein

OpenAI.VectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Typ Description Erforderlich Default
anchor enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Möglicher Wert: last_active_at
Ja
Tage integer Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft.
Einschränkungen: min: 1, max: 365
Ja

OpenAI.VectorStoreFileAttributes

16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.

Typ: Objekt

OpenAI.VectorStoreFileBatchObject

Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.

Name Typ Description Erforderlich Default
erstellt_am integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. Ja
file_counts OpenAI.VectorStoreFileBatchObjectFileCounts Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
Objekt enum Der Objekttyp, der immer vector_store.file_batch ist.
Möglicher Wert: vector_store.files_batch
Ja
status enum Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed).
Mögliche Werte: in_progress, , completed, cancelledfailed
Ja
vector_store_id Schnur Die ID des Vektorspeichers , an den die Datei angefügt ist. Ja

OpenAI.VectorStoreFileBatchObjectFileCounts

Name Typ Description Erforderlich Default
cancelled integer Ja
abgeschlossen integer Ja
misslungen integer Ja
in_progress integer Ja
gesamt integer Ja

OpenAI.VectorStoreFileObject

Eine Liste der an einen Vektorspeicher angefügten Dateien.

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Nein
chunking_strategy OpenAI.ChunkingStrategyResponse Die Strategie, die verwendet wird, um die Datei zu blöcken. Nein
erstellt_am integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
last_error OpenAI.VectorStoreFileObjectLastError oder NULL Ja
Objekt enum Der Objekttyp, der immer vector_store.file ist.
Möglicher Wert: vector_store.file
Ja
status enum Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist.
Mögliche Werte: in_progress, , completed, cancelledfailed
Ja
usage_bytes integer Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. Ja
vector_store_id Schnur Die ID des Vektorspeichers , an den die Datei angefügt ist. Ja

OpenAI.VectorStoreFileObjectLastError

Name Typ Description Erforderlich Default
code enum
Mögliche Werte: server_error, , unsupported_fileinvalid_file
Ja
Nachricht Schnur Ja

OpenAI.VectorStoreObject

Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.

Name Typ Description Erforderlich Default
erstellt_am integer Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. Ja
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. Nein
läuft_ab_am Zeichenfolge oder null Nein
file_counts OpenAI.VectorStoreObjectFileCounts Ja
id Schnur Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann Ja
last_active_at Zeichenfolge oder null Ja
metadata OpenAI.Metadata oder NULL Ja
Name Schnur Der Name des Vektorspeichers. Ja
Objekt enum Der Objekttyp, der immer vector_store ist.
Möglicher Wert: vector_store
Ja
status enum Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist.
Mögliche Werte: expired, , in_progresscompleted
Ja
usage_bytes integer Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. Ja

OpenAI.VectorStoreObjectFileCounts

Name Typ Description Erforderlich Default
cancelled integer Ja
abgeschlossen integer Ja
misslungen integer Ja
in_progress integer Ja
gesamt integer Ja

OpenAI.VectorStoreSearchRequest

Name Typ Description Erforderlich Default
filters OpenAI.ComparisonFilter oder OpenAI.CompoundFilter Ein Filter, der basierend auf Dateiattributen angewendet werden soll. Nein
max_anzahl_ergebnisse integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen.
Einschränkungen: min: 1, max: 50
Nein 10
Anfrage Zeichenfolge oder Array von Zeichenfolgen Eine Abfragezeichenfolge für eine Suche Ja
Ranglistenoptionen OpenAI.VectorStoreSearchRequestRankingOptions Nein
└– Ranker enum
Mögliche Werte: none, , autodefault-2024-11-15
Nein
└─ Punktschwelle number Einschränkungen: min: 0, max: 1 Nein
rewrite_query boolean Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. Nein

OpenAI.VectorStoreSearchRequestRankingOptions

Name Typ Description Erforderlich Default
Bewerter enum
Mögliche Werte: none, , autodefault-2024-11-15
Nein
score-threshold number Einschränkungen: min: 0, max: 1 Nein

OpenAI.VectorStoreSearchResultContentObject

Name Typ Description Erforderlich Default
Text Schnur Der von der Suche zurückgegebene Textinhalt. Ja
type enum Der Inhaltstyp.
Möglicher Wert: text
Ja

OpenAI.VectorStoreSearchResultItem

Name Typ Description Erforderlich Default
attributes OpenAI.VectorStoreFileAttributes oder Null Ja
Inhalt Array von OpenAI.VectorStoreSearchResultContentObject Inhaltsblöcke aus der Datei. Ja
Datei-ID Schnur Die ID der Vektorspeicherdatei. Ja
filename Schnur Der Name der Vektorspeicherdatei. Ja
score number Der Ähnlichkeitswert für das Ergebnis.
Einschränkungen: min: 0, max: 1
Ja

OpenAI.VectorStoreSearchResultsPage

Name Typ Description Erforderlich Default
Daten Array von OpenAI.VectorStoreSearchResultItem Die Liste der Suchergebniselemente. Ja
has_more boolean Gibt an, ob weitere Ergebnisse abgerufen werden sollen. Ja
next_page Zeichenfolge oder null Ja
Objekt enum Der Objekttyp, der immer vector_store.search_results.page ist.
Möglicher Wert: vector_store.search_results.page
Ja
search_query Array von Zeichenfolgen Ja

OpenAI.Verbosity

Begrenzt die Wortreichweite der Antwort des Modells. Niedrigere Werte führen zu prägnanteren Antworten, während höhere Werte zu wortreicheren Antworten führen. Derzeit werden die Werte low, medium und high unterstützt.

Eigentum Wert
Typ Schnur
Werte low
medium
high

OpenAI.VoiceIdsShared

Eigentum Wert
Typ Schnur
Werte alloy
ash
ballad
coral
echo
sage
shimmer
verse
marin
cedar

OpenAI.Wait

Eine Warteaktion.

Name Typ Description Erforderlich Default
type enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft
immer auf wait festgelegt.
Möglicher Wert: wait
Ja

OpenAI.WebSearchActionFind

Aktionstyp „find“: Sucht innerhalb einer geladenen Seite nach einem Muster.

Name Typ Description Erforderlich Default
pattern Schnur Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. Ja
type enum Der Aktionstyp.
Möglicher Wert: find_in_page
Ja
url Schnur Die URL der Seite, die nach dem Muster durchsucht wird. Ja

OpenAI.WebSearchActionOpenPage

Aktionstyp „open_page“ – Öffnet eine bestimmte URL aus Suchergebnissen.

Name Typ Description Erforderlich Default
type enum Der Aktionstyp.
Möglicher Wert: open_page
Ja
url Schnur Die URL, die vom Modell geöffnet wird. Ja

OpenAI.WebSearchActionSearch

Aktionstyp „search“ – Führt eine Websuchabfrage aus.

Name Typ Description Erforderlich Default
Abfragen Array von Zeichenfolgen Die Suchabfragen. Nein
Anfrage Zeichenfolge (veraltet) [VERALTET] Die Suchabfrage. Ja
Quellen Array von OpenAI.WebSearchActionSearchSources Die Quellen, die bei der Suche verwendet werden. Nein
type enum Der Aktionstyp.
Möglicher Wert: search
Ja

OpenAI.WebSearchActionSearchSources

Name Typ Description Erforderlich Default
type enum
Möglicher Wert: url
Ja
url Schnur Ja

OpenAI.WebSearchApproximateLocation

Der ungefähre Standort des Nutzers.

Name Typ Description Erforderlich Default
city Zeichenfolge oder null Nein
country Zeichenfolge oder null Nein
region Zeichenfolge oder null Nein
timezone Zeichenfolge oder null Nein
type enum Die Art der Ortsapproximation. Immer approximate.
Möglicher Wert: approximate
Nein

OpenAI.WebSearchPreviewTool

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
Suchkontextgröße OpenAI.SearchContextSize Nein
type enum Der Typ des Websuchtools. Einer der folgenden Werte: web_search_preview oder web_search_preview_2025_03_11.
Möglicher Wert: web_search_preview
Ja
Benutzerstandort OpenAI.ApproximateLocation oder NULL Nein

OpenAI.WebSearchTool

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Typ Description Erforderlich Default
filters OpenAI.WebSearchToolFilters oder NULL Nein
Suchkontextgröße enum Allgemeine Richtlinie für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer der folgenden Werte: low, medium oder high. medium ist die Standardoption.
Mögliche Werte: low, , mediumhigh
Nein
type enum Der Typ des Websuchtools. Einer der folgenden Werte: web_search oder web_search_2025_08_26.
Möglicher Wert: web_search
Ja
Benutzerstandort OpenAI.WebSearchApproximateLocation oder null Nein

OpenAI.WebSearchToolFilters

Name Typ Description Erforderlich Default
allowed_domains Array von Zeichenfolge oder Null Nein

Bestellung

Eigentum Wert
Typ Schnur
Werte asc
desc

ResponseFormatJSONSchemaRequest

Name Typ Description Erforderlich Default
JSON-Schema Objekt JSON-Schema für das Antwortformat Ja
type enum Typ des Antwortformats
Möglicher Wert: json_schema
Ja

SpeechGenerationResponse

Eine Darstellung einer Antwort für einen Text-zu-Sprache-Vorgang.

Name Typ Description Erforderlich Default
audio Schnur Das generierte Audio, das im angeforderten Audioausgabeformat generiert wurde. Ja

SpeechGenerationResponseFormat

Die unterstützten Audioausgabeformate für Text-zu-Sprache.

Mögliche Werte für diese Komponente:

  • String
  • string: mp3, , aacopus, flac, , wavpcm

SpeechVoice

Die verfügbaren Stimmen für Text-zu-Sprache.

Eigentum Wert
Beschreibung Die verfügbaren Stimmen für Text-zu-Sprache.
Typ Schnur
Werte alloy
echo
fable
onyx
nova
shimmer

VideoContent

Name Typ Description Erforderlich Default
Inhalt Schnur Ja

VideoContentVariant

Auswählbare Objektvarianten für heruntergeladene Inhalte.

Eigentum Wert
Beschreibung Auswählbare Objektvarianten für heruntergeladene Inhalte.
Typ Schnur
Werte video
thumbnail
spritesheet

VideoIdParameter

Name Typ Description Erforderlich Default
Video-ID Schnur Die ID des Videos, das für die Azure OpenAI-Anforderung verwendet werden soll. Ja

VideoList

Eine Liste der Aufträge zur Videogenerierung.

Name Typ Description Erforderlich Default
Daten Array von VideoResource Die Liste der Aufträge zur Videogenerierung. Ja
first_id Schnur Die ID des ersten Videos auf der aktuellen Seite, falls verfügbar. Nein
has_more boolean Ein Kennzeichen, das angibt, ob nach der Liste weitere Aufträge verfügbar sind. Ja
last_id Schnur Die ID des letzten Videos auf der aktuellen Seite, sofern verfügbar. Nein
Objekt enum
Möglicher Wert: list
Ja

VideoResource

Strukturierte Informationen zur Beschreibung eines generierten Videoauftrags.

Name Typ Description Erforderlich Default
abgeschlossen_am integer Unix-Zeitstempel (Sekunden) für den Abschluss des Auftrags, falls abgeschlossen. Nein
erstellt_am integer Unix-Zeitstempel (Sekunden) für den Zeitpunkt der Erstellung des Auftrags. Ja
Fehler Fehler Nein
└– Code Schnur Ja
└– Nachricht Schnur Ja
läuft_ab_am integer Unix-Zeitstempel (Sekunden) für den Ablauf der Videogenerierung (und wird gelöscht). Nein
id Schnur Eindeutiger Bezeichner für den Videoauftrag. Ja
Modell Schnur Die Bereitstellung des Videogenerierungsmodells, die den Auftrag erstellt hat. Ja
Objekt Schnur Der Objekttyp, der immer video ist. Ja
Fortschritt integer Ungefährer Fertigstellungsprozentsatz für den Generierungsvorgang. Ja
remixed_from_video_id Schnur Bezeichner des Quellvideos, wenn es sich bei diesem Video um einen Remix handelt. Nein
Sekunden VideoSeconds Unterstützte Clipdauern, gemessen in Sekunden. Ja
Größe VideoSize Ausgabeabmessungen, die als {width}x{height}. Ja
status VideoStatus Lebenszyklusstatus eines generierten Videos. Ja

VideoSeconds

Unterstützte Clipdauern, gemessen in Sekunden.

Eigentum Wert
Beschreibung Unterstützte Clipdauern, gemessen in Sekunden.
Typ Schnur
Werte 4
8
12

VideoSize

Ausgabeabmessungen, die als {width}x{height}.

Eigentum Wert
Beschreibung Ausgabeabmessungen, die als {width}x{height}.
Typ Schnur
Werte 720x1280
1280x720
1024x1792
1792x1024

VideoStatus

Lebenszyklusstatus eines generierten Videos.

Eigentum Wert
Beschreibung Lebenszyklusstatus eines generierten Videos.
Typ Schnur
Werte queued
in_progress
completed
failed