Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
API-Version: v1
Servervariablen:
| Variable | Default | Description |
|---|---|---|
| endpoint | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
Authentifizierung
API-Schlüssel
Übergeben Sie einen API-Schlüssel mit dem api-key Header.
Authentifizierungstoken
Übergeben Sie ein Authentifizierungstoken mit dem authorization Header.
Oauth2authoauth20
Ablauf: implizit
Autorisierungs-URL:https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereiche:
https://cognitiveservices.azure.com/.default
Batch
Batch erstellen
POST {endpoint}/openai/v1/batches
Erstellt und führt einen Batch aus einer hochgeladenen Datei mit Anforderungen aus.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anfrage-Kopf
| Name | Erforderlich | Typ | Description |
|---|---|---|---|
| Akzeptieren | Richtig | Schnur Möglicher Wert: application/json |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Abschlussfenster | enum | Der Zeitrahmen, in dem der Batch verarbeitet werden soll. Derzeit wird nur 24h unterstützt.Möglicher Wert: 24h |
Ja | |
| endpoint | enum | Der Endpunkt, der für alle Anforderungen im Batch verwendet werden soll. Derzeit /v1/chat/completions wird unterstützt.Mögliche Werte: /v1/chat/completions, /v1/embeddings |
Ja | |
| input_file_id | Schnur | Die ID einer hochgeladenen Datei, die Anforderungen für den neuen Batch enthält. Ihre Eingabedatei muss als JSON-Datei formatiert sein. und muss mit dem Zweck batchhochgeladen werden. |
Nein |
Antworten
Statuscode: 201
Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten von Batches
GET {endpoint}/openai/v1/batches
Listen Sie die Batches Ihrer Organisation auf.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
Anfrage-Kopf
| Name | Erforderlich | Typ | Description |
|---|---|---|---|
| Akzeptieren | Richtig | Schnur Möglicher Wert: application/json |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListBatchesResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Batch abrufen
GET {endpoint}/openai/v1/batches/{batch_id}
Ruft einen Batch ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| batch_id | Pfad | Ja | Schnur | Die ID des abzurufenden Batches. |
Anfrage-Kopf
| Name | Erforderlich | Typ | Description |
|---|---|---|---|
| Akzeptieren | Richtig | Schnur Möglicher Wert: application/json |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Batch abbrechen
POST {endpoint}/openai/v1/batches/{batch_id}/cancel
Hiermit wird ein laufender Batch abgebrochen.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| batch_id | Pfad | Ja | Schnur | Die ID des batches, der abgebrochen werden soll. |
Anfrage-Kopf
| Name | Erforderlich | Typ | Description |
|---|---|---|---|
| Akzeptieren | Richtig | Schnur Möglicher Wert: application/json |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Chat
Chatvervollständigung erstellen
POST {endpoint}/openai/v1/chat/completions
Erstellt eine Chatvervollständigung.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio | OpenAI.CreateChatCompletionRequestAudio oder null | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mitmodalities: ["audio"]. |
Nein | |
| frequency_penalty | Zahl oder Null | Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer bisherigen Häufigkeit im Text, wodurch die Modellzahlen verringert werden Wahrscheinlichkeit, dass dieselbe Zeile wiederholt wird. |
Nein | |
| function_call | string oder OpenAI.ChatCompletionFunctionCallOption | Zugunsten von tool_choice eingestellt.Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell keine Funktion aufruft und stattdessen eineMeldung. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen einer Nachricht auswählen kannFunktion. Angeben einer bestimmten Funktion über {"name": "my_function"} KräfteModell zum Aufrufen dieser Funktion. none ist die Standardeinstellung, wenn keine Funktionen vorhanden sind.
auto ist die Standardeinstellungwenn Funktionen vorhanden sind. |
Nein | |
| Funktionen | Array von OpenAI.ChatCompletionFunctions | Zugunsten von tools eingestellt.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
Nein | |
| logit_bias | -Objekt oder Null | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) mit einem zugehörigen Bias-Wert von -100 bis 100. Mathematisch die Verzerrung wird vor dem Sampling zu den logits hinzugefügt, die vom Modell generiert wurden. Der genaue Effekt variiert je nach Modell, aber Werte sollten zwischen -1 und 1 liegen. Verringern oder Erhöhen der Wahrscheinlichkeit der Auswahl; Werte wie -100 oder 100 sollte dies zu einem Verbot oder einer exklusiven Auswahl des betreffenden Tokens führen. |
Nein | |
| logprobs | Boolescher Wert oder Null | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurück, das zurückgegeben wird in der content von message. |
Nein | |
| max_completion_tokens | ganze Zahl oder Null | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. |
Nein | |
| maximale_Anzahl_von_Tokens | ganze Zahl oder Null | Die maximale Anzahl von Token, die in der Chatvervollständigung generiert werden können. Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird. Dieser Wert ist jetzt veraltet zugunsten von max_completion_tokens, und istnicht kompatibel mit o1-Serienmodellen. |
Nein | |
| messages | Array von OpenAI.ChatCompletionRequestMessage | Eine Liste der Nachrichten, aus denen die Unterhaltung bisher besteht. Abhängig von Abhängig vom Modell, das Sie verwenden, werden verschiedene Nachrichtentypen (Modalitäten) unterstützt. wie Text, Bilder und Audio. |
Ja | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| modalities | OpenAI.ResponseModalities | Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview Modell kann auch verwendet werden, umAudio generieren. Um anzufordern, dass dieses Modell Sie können sowohl Text- als auch Audioantworten verwenden: ["text", "audio"] |
Nein | |
| Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Ja | |
| n | ganze Zahl oder Null | Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Ihnen die Anzahl der generierten Tokens für alle Auswahlmöglichkeiten in Rechnung gestellt wird. Behalten Sie n als 1, um die Kosten zu minimieren. |
Nein | |
| Parallele Werkzeugaufrufe | OpenAI.ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| prediction | OpenAI.PredictionContent | Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die wird neu generiert. |
Nein | |
| └– Inhalt | Zeichenfolge oder Array von OpenAI.ChatCompletionRequestMessageContentPartText | Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll. Wenn generierte Token mit diesem Inhalt übereinstimmen würden, würde die gesamte Modellantwort kann viel schneller zurückgegeben werden. |
Ja | |
| └– Typ | enum | Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist aktuell immer content.Möglicher Wert: content |
Ja | |
| presence_penalty | Zahl oder Null | Eine Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit des Modells erhöht wird um über neue Themen zu sprechen. |
Nein | |
| prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| Antwortformat | OpenAI.CreateChatCompletionRequestResponseFormat | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Einstellung für { "type": "json_schema", "json_schema": {...} } aktiviertStrukturierte Ausgaben, die sicherstellen, dass das Modell mit Ihrem bereitgestellten JSON-Code übereinstimmt Schema. Weitere Informationen in den strukturierten Ausgaben Ausgaben. Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, derstellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schemawird für Modelle bevorzugt, die es unterstützen. |
Nein | |
| └– Typ | OpenAI.CreateChatCompletionRequestResponseFormatType | Ja | ||
| safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| seed | ganze Zahl oder Null | Dieses Feature befindet sich in der Betaversion. Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen. |
Nein | |
| Stopp | OpenAI.StopConfiguration | Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Das Der zurückgegebene Text enthält die Stoppsequenz nicht. |
Nein | |
| store | Boolescher Wert oder Null | Ob die Ausgabe dieser Chat-Anfrage dieser Chatabschlussanforderung für die Verwendung in Modelldestillation oder Bewertungsprodukten gespeichert werden soll oder nicht. |
Nein | |
| Datenstrom | Boolescher Wert oder Null | Bei Festlegung auf "true" werden die Modellantwortdaten an den Client gestreamt. da sie mithilfe von server-sent-Ereignissen generiert werden. |
Nein | |
| stream_options | OpenAI.ChatCompletionStreamOptions oder NULL | Nein | ||
| Temperatur | Zahl oder Null | Nein | ||
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
Nein | |
| Werkzeuge | Array von OpenAI.ChatCompletionTool oder OpenAI.CustomToolChatCompletions | Eine Liste der Tools, die das Modell aufrufen kann. Sie können eine der beiden Optionen bereitstellen Benutzerdefinierte Tools oder Funktionstools. |
Nein | |
| top_logprobs | ganze Zahl oder Null | Nein | ||
| top_p | Zahl oder Null | Nein | ||
| user | Zeichenfolge (veraltet) | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und dem Benutzer helfen kann, Überwachen und Erkennen von Missbrauch. |
Nein | |
| user_security_context | AzureUserSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. | Nein | |
| Wortfülle | OpenAI.Verbosity | Begrenzt die Wortreichweite der Antwort des Modells. Niedrigere Werte führen zu präzisere Antworten, während höhere Werte zu ausführlicheren Antworten führen. Derzeit werden die Werte low, medium und high unterstützt. |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt oder Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Beispiele
Example
POST {endpoint}/openai/v1/chat/completions
Abschlüsse
Abschluss erstellen
POST {endpoint}/openai/v1/completions
Erstellt einen Abschluss.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| best_of | ganze Zahl oder Null | Generiert serverseitige best_of-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der höchsten logarithmierten Wahrscheinlichkeit pro Token). Ergebnisse können nicht gestreamt werden.Bei Verwendung mit n, best_of steuert die Anzahl der Abschlusskandidaten und n gibt an, wie viele zurückgegeben werden sollen – best_of muss größer sein als n.Hinweis:* Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
Nein | |
| echo | Boolescher Wert oder Null | Geben Sie die Äußerung zusätzlich zur Vervollständigung zurück. | Nein | |
| frequency_penalty | Zahl oder Null | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. Weitere Informationen zu Häufigkeits- und Anwesenheitsstrafen. |
Nein | |
| logit_bias | -Objekt oder Null | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Sie können beispielsweise {"50256": -100} übergeben, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
Nein | |
| logprobs | ganze Zahl oder Null | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von logprobs sowie die ausgewählten Ausgabetoken ein. Wenn logprobs z. B. „5“ ist, gibt die API eine Liste mit den fünf wahrscheinlichsten Tokens zurück. Die API gibt immer logprob des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu logprobs+1 Elemente enthalten kann.Der Höchstwert für logprobs ist 5. |
Nein | |
| maximale_Anzahl_von_Tokens | ganze Zahl oder Null | Die maximale Anzahl von Tokens, die bei der Vervollständigung generiert werden können. Die Tokenanzahl ihrer Eingabeaufforderung plus max_tokens darf die Kontextlänge des Modells nicht überschreiten.
Beispiel-Python-Code zum Zählen von Token. |
Nein | |
| Modell | Schnur | Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen, oder sie finden Sie in unserer Modellübersicht für Beschreibungen. | Ja | |
| n | ganze Zahl oder Null | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis:* Da dieser Parameter viele Fertigstellungen generiert, kann er ihr Tokenkontingent schnell nutzen. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für max_tokens und stop verwenden. |
Nein | |
| presence_penalty | Zahl oder Null | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. Weitere Informationen zu Häufigkeits- und Anwesenheitsstrafen. |
Nein | |
| prompt | Zeichenfolge oder Array von Zeichenfolge oder Null | Nein | ||
| seed | ganze Zahl oder Null | Wenn Sie dies angeben, bemüht sich unser System nach besten Kräften, eine deterministische Auswahl zu treffen, sodass wiederholte Anforderungen mit demselben seed und denselben Parametern dasselbe Ergebnis liefern sollten.Der Determinismus ist nicht garantiert, und Sie sollten sich auf den Antwortparameter system_fingerprint beziehen, um Änderungen im Back-End zu überwachen. |
Nein | |
| Stopp | OpenAI.StopConfiguration | Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Das Der zurückgegebene Text enthält die Stoppsequenz nicht. |
Nein | |
| Datenstrom | Boolescher Wert oder Null | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn dieser Parameter festgelegt wird, werden Token als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch die Nachricht data: [DONE] beendet wird.
Example Python Code. |
Nein | |
| stream_options | OpenAI.ChatCompletionStreamOptions oder NULL | Nein | ||
| suffix | Zeichenfolge oder null | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. Der Parameter wird nur von gpt-3.5-turbo-instruct unterstützt. |
Nein | |
| Temperatur | Zahl oder Null | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
Nein | |
| top_p | Zahl oder Null | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder temperature zu ändern, aber nicht beides. |
Nein | |
| user | Schnur | Erfahren Sie mehr. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Beispiele
Example
POST {endpoint}/openai/v1/completions
Behälter
Auflisten von Containern
GET {endpoint}/openai/v1/containers
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ContainerListResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Container erstellen
POST {endpoint}/openai/v1/containers
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | OpenAI.CreateContainerBodyExpiresAfter | Nein | ||
| └– Anker | enum | Möglicher Wert: last_active_at |
Ja | |
| └– Minuten | integer | Ja | ||
| Datei-IDs | Array von Zeichenfolgen | IDs von Dateien, die in den Container kopiert werden sollen. | Nein | |
| Speicherbegrenzung | enum | Optionaler Speichergrenzwert für den Container. Wird standardmäßig auf 1g festgelegt.Mögliche Werte: 1g, , 4g, 16g64g |
Nein | |
| Name | Schnur | Name des zu erstellenden Containers. | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ContainerResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Container abrufen
GET {endpoint}/openai/v1/containers/{container_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | Die ID des abzurufenden Containers. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ContainerResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Container löschen
DELETE {endpoint}/openai/v1/containers/{container_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | Die ID des zu löschenden Containers. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Containerdateien auflisten
GET {endpoint}/openai/v1/containers/{container_id}/files
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | Die ID des Containers, aus dem Dateien auflisten werden sollen. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ContainerFileListResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Containerdatei erstellen
POST {endpoint}/openai/v1/containers/{container_id}/files
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | Die ID des Containers, in dem eine Datei erstellt werden soll. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file | Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. | Nein | ||
| Datei-ID | Schnur | Name der zu erstellenden Datei. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ContainerFileResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Containerdatei abrufen
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | ID des Containers. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der abzurufenden Datei. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ContainerFileResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Containerdatei löschen
DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | ID des Containers. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der zu löschenden Datei. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen von Containerdateiinhalten
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| container_id | Pfad | Ja | Schnur | ID des Containers. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, aus der Inhalt abgerufen werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/octet-stream | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Unterhaltungen
Unterhaltung erstellen
POST {endpoint}/openai/v1/conversations
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Elemente | Array von OpenAI.InputItem oder NULL | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Unterhaltung abrufen
GET {endpoint}/openai/v1/conversations/{conversation_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der abzurufenden Unterhaltung. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Unterhaltung aktualisieren
POST {endpoint}/openai/v1/conversations/{conversation_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der zu aktualisierenden Unterhaltung. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Unterhaltung löschen
DELETE {endpoint}/openai/v1/conversations/{conversation_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der zu löschenden Unterhaltung. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeletedConversationResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten von Unterhaltungselementen
GET {endpoint}/openai/v1/conversations/{conversation_id}/items
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der Unterhaltung, für die Elemente aufgeführt werden sollen. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Die Reihenfolge, in der die Eingabeelemente zurückgegeben werden sollen. Der Standardwert ist desc. |
| after | Anfrage | Nein | Schnur | Eine Element-ID, nach der Elemente aufgeführt werden sollen (wird bei Paginierung verwendet) |
| einschließen | Anfrage | Nein | Array | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationItemList |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen von Unterhaltungselementen
POST {endpoint}/openai/v1/conversations/{conversation_id}/items
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der Unterhaltung, der das Element hinzugefügt werden soll. |
| einschließen | Anfrage | Nein | Array | Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Elemente | Array von OpenAI.InputItem | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationItemList |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen eines Unterhaltungselements
GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der Unterhaltung, die das Element enthält. |
| item_id | Pfad | Ja | Schnur | Die ID des abzurufenden Elements. |
| einschließen | Anfrage | Nein | Array | Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationItem |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Unterhaltungselement löschen
DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| conversation_id | Pfad | Ja | Schnur | Die ID der Unterhaltung, die das Element enthält. |
| item_id | Pfad | Ja | Schnur | Die ID des zu löschenden Elements. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ConversationResource |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Evals
Bewertungen auflisten
GET {endpoint}/openai/v1/evals
Listet Auswertungen für ein Projekt auf.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| after | Anfrage | Nein | Schnur | Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl der Bewertungen, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge von Bewertungen nach Zeitstempel. Verwenden Sie asc für aufsteigende Reihenfolge oderdesc für absteigende Reihenfolge. |
| order_by | Anfrage | Nein | Schnur Mögliche Werte: created_at, updated_at |
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Verwendungcreated_at für die Erstellungszeit oder updated_at für die letzte Aktualisierungkann. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalList |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Bewertung erstellen
POST {endpoint}/openai/v1/evals
Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.
Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datenquellenkonfiguration | OpenAI.CreateEvalCustomDataSourceConfig oder OpenAI.CreateEvalLogsDataSourceConfig oder OpenAI.CreateEvalStoredCompletionsDataSourceConfig | Die Konfiguration für die Datenquelle, die für die Auswertung verwendet wird, wird ausgeführt. Bestimmt das Schema der daten, die in der Auswertung verwendet werden. | Ja | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Schnur | Der Name der Auswertung. | Nein | |
| statusCode | enum | Möglicher Wert: 201 |
Ja | |
| Testkriterien | Array von OpenAI.CreateEvalLabelModelGrader oder OpenAI.EvalGraderStringCheck oder OpenAI.EvalGraderTextSimilarity oder OpenAI.EvalGraderPython oder OpenAI.EvalGraderScoreModel oder EvalGraderEndpoint | Liste der Bewerter (Grader) für alle Auswertungsausführungen in dieser Gruppe Bewerter können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z. B. {{item.variable_name}}. Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den Namespace sample (d.h. {{sample.output_text}}). |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Eval |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Bewertung abrufen
GET {endpoint}/openai/v1/evals/{eval_id}
Rufen Sie eine Bewertung anhand ihrer ID ab. Ruft eine Bewertung anhand ihrer ID ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Eval |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Bewertung aktualisieren
POST {endpoint}/openai/v1/evals/{eval_id}
Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Bewertung.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann Folgendes sein: nützlich zum Speichern zusätzlicher Informationen über das Objekt in einer strukturierten Form. Formatieren und Abfragen von Objekten über die API oder das Dashboard. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen. |
Nein | |
| Name | Schnur | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Eval |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Löschen einer Bewertung
DELETE {endpoint}/openai/v1/evals/{eval_id}
Löschen sie eine angegebene Bewertung.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen von Bewertungsausführungen
GET {endpoint}/openai/v1/evals/{eval_id}/runs
Dient zum Abrufen einer Liste von Läufen für eine angegebene Bewertung.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur | |
| after | Anfrage | Nein | Schnur | |
| limit | Anfrage | Nein | integer | |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
|
| status | Anfrage | Nein | Schnur Mögliche Werte: queued, , in_progresscompleted, , canceledfailed |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRunList |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen einer Bewertungsausführung
POST {endpoint}/openai/v1/evals/{eval_id}/runs
Erstellen Sie eine neue Bewertungsausführung, die den Bewertungsprozess beginnt.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datenquelle | OpenAI.CreateEvalJsonlRunDataSource oder OpenAI.CreateEvalCompletionsRunDataSource oder OpenAI.CreateEvalResponsesRunDataSource | Details zur Datenquelle der Ausführung. | Ja | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Schnur | Name der Ausführung | Nein |
Antworten
Statuscode: 201
Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRun |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen einer Bewertungsausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Rufen Sie eine bestimmten Bewertung ab, die nach ihrer ID ausgeführt wird.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRun |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abbrechen einer Bewertungsausführung
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Brechen Sie eine bestimmte Bewertung ab, die nach ihrer ID ausgeführt wird.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRun |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Bewertungsausführung löschen
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Löschen Sie eine bestimmte Auswertung, die nach ihrer ID ausgeführt wird.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen von Ausgabeelementen der Bewertungsausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items
Rufen Sie eine Liste der Ausgabeelemente für eine angegebene Bewertungsausführung ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur | |
| after | Anfrage | Nein | Schnur | |
| limit | Anfrage | Nein | integer | |
| status | Anfrage | Nein | Schnur Mögliche Werte: fail, pass |
|
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRunOutputItemList |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen des Ausgabeelements der Bewertungsausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}
Rufen Sie ein bestimmtes Ausgabeelement aus einer Bewertung ab, die nach ihrer ID ausgeführt wird.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| eval_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur | |
| output_item_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.EvalRunOutputItem |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Dateien
Datei erstellen
POST {endpoint}/openai/v1/files
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | Objekt | Ja | ||
| └– Anker | AzureFileExpiryAnchor | Ja | ||
| └─ Sekunden | integer | Ja | ||
| file | Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. | Ja | ||
| Zweck | enum | Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwendenMögliche Werte: assistants, , batch, fine-tuneevals |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Beispiele
Example
POST {endpoint}/openai/v1/files
Dateien auflisten
GET {endpoint}/openai/v1/files
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| Zweck | Anfrage | Nein | Schnur | |
| limit | Anfrage | Nein | integer | |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
|
| after | Anfrage | Nein | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFilesResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Datei abrufen
GET {endpoint}/openai/v1/files/{file_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Datei löschen
DELETE {endpoint}/openai/v1/files/{file_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteFileResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Datei herunterladen
GET {endpoint}/openai/v1/files/{file_id}/content
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/octet-stream | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Embeddings
Einbettung erstellen
POST {endpoint}/openai/v1/embeddings
Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt.Einschränkungen: min: 1 |
Nein | |
| encoding_format | enum | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.Mögliche Werte: float, base64 |
Nein | |
| Eingabe | Zeichenfolge oder Array von Zeichenfolge oder Array von ganzzahligem Array oder Array von Arrays | Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für alle Einbettungsmodelle), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Beispiel-Python-Code zum Zählen von Token. Zusätzlich zum Grenzwert pro Eingabetoken erzwingen alle Einbettungsmodelle maximal 300.000 Token, die über alle Eingaben in einer einzigen Anforderung summiert wurden. | Ja | |
| Modell | Schnur | Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen, oder sie finden Sie in unserer Modellübersicht für Beschreibungen. | Ja | |
| user | Schnur | Erfahren Sie mehr. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.CreateEmbeddingResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Beispiele
Example
POST {endpoint}/openai/v1/embeddings
Fine-tuning
Bewerter ausführen
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run
Führen Sie einen Bewerter aus.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint | Der Grader, der für den Feinabstimmungsauftrag verwendet wird. | Ja | |
| item | OpenAI.RunGraderRequestItem | Nein | ||
| model_sample | Schnur | Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel einegültige JSON-Zeichenfolge ist. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunGraderResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Überprüfen des Bewerters
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate
Überprüfen Sie einen Bewerter.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ValidateGraderResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Optimieren von Prüfpunktberechtigungen auflisten
GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Listenprüfpunktberechtigungen
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuned_model_checkpoint | Pfad | Ja | Schnur | Die ID des fein abgestimmten Modellprüfpunkts zum Abrufen von Berechtigungen. |
| project_id | Anfrage | Nein | Schnur | Die ID des Projekts, für das Berechtigungen abgerufen werden sollen. |
| after | Anfrage | Nein | Schnur | Bezeichner für die letzte Berechtigungs-ID aus der vorherigen Paginierungsanforderung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Berechtigungen. |
| order | Anfrage | Nein | Schnur Mögliche Werte: ascending, descending |
Die Reihenfolge, in der Berechtigungen abgerufen werden sollen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen der Berechtigung "Feinabstimmungsprüfpunkt"
POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Erstellen von Prüfpunktberechtigungen
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuned_model_checkpoint | Pfad | Ja | Schnur | Die ID des fein abgestimmten Modellprüfpunkts zum Erstellen einer Berechtigung. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| project_ids | Array von Zeichenfolgen | Die Projektbezeichner, auf die Der Zugriff gewährt werden soll. | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Optimieren des Prüfpunktberechtigungs löschen
DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}
Prüfpunktberechtigung löschen
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuned_model_checkpoint | Pfad | Ja | Schnur | Die ID des fein abgestimmten Modellprüfpunkts zum Löschen einer Berechtigung. |
| permission_id | Pfad | Ja | Schnur | Die ID der zu löschenden Feinabstimmung des Modellprüfpunkts. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteFineTuningCheckpointPermissionResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen eines Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs
Erstellt einen Feinabstimmungsauftrag, der den Prozess der Erstellung eines neuen Modells aus einem bestimmten Datensatz startet.
Die Antwort enthält Details des in die Warteschlange gestellten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Hyperparameter | OpenAI.CreateFineTuningJobRequestHyperparameters | Nein | ||
| └- batch_size | Zeichenfolge oder ganze Zahl | Nein | auto | |
| └– Lernraten-Multiplikator | Zeichenfolge oder Zahl | Nein | ||
| └– n_epochs | Zeichenfolge oder ganze Zahl | Nein | auto | |
| Integrationen | Array von OpenAI.CreateFineTuningJobRequestIntegrations oder null | Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. | Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| method | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | Nein | |
| Modell | string (siehe gültige Modelle unten) | Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden unterstützte Modelle. |
Ja | |
| seed | ganze Zahl oder Null | Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden. Wenn Sie keinen Seed angeben, wird einer für Sie generiert. |
Nein | |
| suffix | Zeichenfolge oder null | Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird. Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen. |
Nein | |
| Trainingsdatei | Schnur | Die ID einer hochgeladenen Datei, die Trainingsdaten enthält. Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet. Weitere Details finden Sie im Fine-Tuning-Leitfaden. |
Ja | |
| Validierungsdatei | Zeichenfolge oder null | Die ID einer hochgeladenen Datei, die Validierungsdaten enthält. Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs- Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden. Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein. Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.Weitere Details finden Sie im Fine-Tuning-Leitfaden. |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten von paginierten Feinabstimmungsaufträgen
GET {endpoint}/openai/v1/fine_tuning/jobs
Auflisten der Feinabstimmungsaufträge Ihrer Organisation
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| after | Anfrage | Nein | Schnur | Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsaufforderung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Feinabstimmungsaufträge. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Feinabstimmungsauftrag abrufen
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}
Rufen Sie Informationen zu einem Feinabstimmungsauftrag ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abbrechen des Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel
Brechen Sie einen Feinabstimmungsauftrag sofort ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des abzubrechenden Feinabstimmungsauftrags. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten von Feinabstimmungsauftragsprüfpunkten
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints
Listen Sie die Prüfpunkte für einen Feinabstimmungsauftrag auf.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen. |
| after | Anfrage | Nein | Schnur | Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Prüfpunkte. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Feinabstimmung – Kopierprüfpunkt
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Erstellt eine Kopie eines Feinabstimmungsprüfpunkts für das angegebene Zielkonto und die angegebene Region.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | |
| fine_tuning_checkpoint_id | Pfad | Ja | Schnur |
Anfrage-Kopf
| Name | Erforderlich | Typ | Description |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Richtig | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein. |
| Akzeptieren | Richtig | Schnur Möglicher Wert: application/json |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| destinationResourceId | Schnur | Die ID der zu kopierenden Zielressource. | Ja | |
| region | Schnur | Die Region, in die das Modell kopiert werden soll. | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | CopyModelResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Feinabstimmung – Prüfpunkt abrufen
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Ruft den Status der Kopie eines Feinabstimmungsprüfpunkts ab.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | |
| fine_tuning_checkpoint_id | Pfad | Ja | Schnur |
Anfrage-Kopf
| Name | Erforderlich | Typ | Description |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Richtig | Schnur Möglicher Wert: preview |
Ermöglicht den Zugriff auf Prüfpunktkopiervorgänge für Modelle, eine AOAI-Previewfunktion. Für dieses Feature muss die Kopfzeile „aoai-copy-ft-checkpoints“ auf „preview“ festgelegt sein. |
| Akzeptieren | Richtig | Schnur Möglicher Wert: application/json |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | CopyModelResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten von Feinabstimmungsereignissen
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events
Rufen Sie Statusupdates für einen Feinabstimmungsauftrag ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen. |
| after | Anfrage | Nein | Schnur | Bezeichner für das letzte Ereignis aus der vorherigen Anforderung zur Paginierung. |
| limit | Anfrage | Nein | integer | Anzahl der abzurufenden Ereignisse. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListFineTuningJobEventsResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Feinabstimmungsauftrag anhalten
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause
Halten Sie einen Feinabstimmungsauftrag an.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des anzuhaltenden Feinabstimmungsauftrags. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Feinabstimmungsauftrag fortsetzen
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume
Setzen Sie einen angehaltenen Feinabstimmungsauftrag fort.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| fine_tuning_job_id | Pfad | Ja | Schnur | Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.FineTuningJob |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Modelle
Auflisten von Modellen
GET {endpoint}/openai/v1/models
Listet die derzeit verfügbaren Modelle auf und stellt grundlegende Informationen zu jedem Modell bereit, z. B. Besitzer und Verfügbarkeit.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListModelsResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Modell abrufen
GET {endpoint}/openai/v1/models/{model}
Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und Berechtigungen.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| Modell | Pfad | Ja | Schnur | Die ID des Modells, das für diese Anforderung verwendet werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.Model |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Löschen des Modells
DELETE {endpoint}/openai/v1/models/{model}
Löscht eine Modellinstanz.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| Modell | Pfad | Ja | Schnur | Die ID des zu löschenden Modells. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteModelResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Echtzeit
Erstellen eines Echtzeitanrufs
POST {endpoint}/openai/v1/realtime/calls
Erstellen Sie einen neuen Realtime-API-Aufruf über WebRTC und erhalten Sie die SDP-Antwort, die zum Abschließen der Peerverbindung erforderlich ist.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Typ: mehrteilige Formulardaten (multipart/form-data)
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Sdp | Schnur | WebRTC Session Description Protocol (SDP)-Angebot, das vom Aufrufer generiert wird. | Ja | |
| session | OpenAI.RealtimeSessionCreateRequestGA | Objektkonfiguration der Echtzeitsitzung. | Nein | |
| └– Audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Konfiguration für Eingabe- und Ausgabeaudio. | Nein | |
| └- einschließen | Array von Zeichenfolgen | Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein. |
Nein | |
| └– Anweisungen | Schnur | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind. |
Nein | |
| └– max_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| └─ Modell | Schnur | Das für diese Sitzung verwendete Realtime-Modell. | Nein | |
| └– output_modalities | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dassdass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, umDas Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern. |
Nein | ['audio'] |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP | Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus function/MCP tool. |
Nein | auto |
| └- Werkzeuge | Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool | Tools, die für das Modell verfügbar sind. | Nein | |
| └– Ablaufverfolgung | string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null | "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | auto |
| └– Abschneiden | OpenAI.RealtimeTruncation | Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet. |
Nein | |
| └– Typ | enum | Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.Möglicher Wert: realtime |
Ja |
Antworten
Statuscode: 201
Beschreibung: Die Anforderung war erfolgreich, und eine neue Ressource wurde als Ergebnis erstellt.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| application/sdp | Schnur |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| location | Schnur | Relative URL, die die Anruf-ID für nachfolgende Steuerelementanforderungen enthält. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Annehmen eines Echtzeitanrufs
POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept
Akzeptieren Sie einen eingehenden SIP-Anruf, und konfigurieren Sie die Echtzeitsitzung, die sie behandelt.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| call_id | Pfad | Ja | Schnur | Der Bezeichner für den Anruf, der im Webhook "realtime.call.incoming" bereitgestellt wird. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Nein | ||
| └– Eingabe | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Nein | ||
| └─ Ausgabe | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Nein | ||
| einschließen | Array von Zeichenfolgen | Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein. |
Nein | |
| instructions | Schnur | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind. |
Nein | |
| max_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| Modell | Schnur | Das für diese Sitzung verwendete Realtime-Modell. | Nein | |
| Ausgabemodalitäten | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dassdass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, umDas Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern. |
Nein | ['audio'] |
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP | Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus function/MCP tool. |
Nein | |
| Werkzeuge | Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool | Tools, die für das Modell verfügbar sind. | Nein | |
| tracing | string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null | "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | |
| truncation | OpenAI.RealtimeTruncation | Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet. |
Nein | |
| type | enum | Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.Möglicher Wert: realtime |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflegen eines Echtzeitanrufs
POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup
Beenden Sie einen aktiven Realtime-API-Aufruf, unabhängig davon, ob er über SIP oder WebRTC initiiert wurde.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| call_id | Pfad | Ja | Schnur | Der Bezeichner für den Anruf. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Echtzeitanruf verweisen
POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer
Übertragen Eines aktiven SIP-Anrufs an ein neues Ziel mithilfe des VERBs SIP REFER.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| call_id | Pfad | Ja | Schnur | Der Bezeichner für den Anruf, der im Webhook "realtime.call.incoming" bereitgestellt wird. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| target_uri | Schnur | URI, der im SIP-Refer-To-Header angezeigt werden soll. Unterstützt Werte wietel:+14155550123 oder sip:agent\@example.com. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Ablehnen eines Echtzeitanrufs
POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject
Ablehnen eines eingehenden SIP-Anrufs durch Zurückgeben eines SIP-Statuscodes an den Anrufer.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| call_id | Pfad | Ja | Schnur | Der Bezeichner für den Anruf, der im Webhook "realtime.call.incoming" bereitgestellt wird. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| status_code | integer | SIP-Antwortcode, der an den Anrufer zurücksenden soll. Standardwerte sind 603 (Ablehnen)ausgelassen. |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen eines geheimen Clientschlüssels in Echtzeit
POST {endpoint}/openai/v1/realtime/client_secrets
Erstellen Sie einen geheimen Echtzeitclientschlüssel mit einer zugeordneten Sitzungskonfiguration.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | Nein | ||
| └– Anker | enum | Möglicher Wert: created_at |
Nein | |
| └─ Sekunden | integer | Einschränkungen: min: 10, max: 7200 | Nein | 600 |
| session | OpenAI.RealtimeSessionCreateRequestUnion | Nein | ||
| └– Typ | OpenAI.RealtimeSessionCreateRequestUnionType | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RealtimeCreateClientSecretResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen einer Echtzeitsitzung
POST {endpoint}/openai/v1/realtime/sessions
Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeSessionCreateRequestClientSecret | Ja | ||
| └– abläuft_am | integer | Ja | ||
| └– Wert | Schnur | Ja | ||
| input_audio_format | Schnur | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
Nein | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | Nein | ||
| └─ Modell | Schnur | Nein | ||
| instructions | Schnur | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind. |
Nein | |
| max_response_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| modalities | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio legen Sie dies auf ["text"] fest. |
Nein | ['text'; 'audio'] |
| output_audio_format | Schnur | Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
Nein | |
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| speed | number | Die Geschwindigkeit der gesprochenen Antwort des Modells. 1.0 ist die Standardgeschwindigkeit. 0.25 ist die Mindestgeschwindigkeit. 1,5 ist die maximale Geschwindigkeit. Dieser Wert kann nur geändert werden. in between model turns, not while a response is in progress. Einschränkungen: min: 0,25, max: 1,5 |
Nein | 1 |
| Temperatur | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8. | Nein | |
| tool_choice | Schnur | Gibt an, wie das Modell Tools auswählt. Optionen sind auto, , none, requiredodergeben Sie eine Funktion an. |
Nein | |
| Werkzeuge | Array von OpenAI.RealtimeSessionCreateRequestTools | Tools (Funktionen), die für das Modell verfügbar sind. | Nein | |
| tracing | Zeichenfolge oder Objekt | Konfigurationsoptionen für die Ablaufverfolgung. Legen Sie auf NULL fest, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | |
| truncation | OpenAI.RealtimeTruncation | Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet. |
Nein | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | Nein | ||
| └– prefix_padding_ms | integer | Nein | ||
| └– Dauer_der_Stille_in_ms | integer | Nein | ||
| └– Schwellenwert | number | Nein | ||
| └– Typ | Schnur | Nein | ||
| type | enum | Möglicher Wert: realtime |
Ja | |
| voice | OpenAI.VoiceIdsShared | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RealtimeSessionCreateResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen einer Echtzeittranskriptionsitzung
POST {endpoint}/openai/v1/realtime/transcription_sessions
Erstellen Sie ein kurzlebiges API-Token für die Verwendung in clientseitigen Anwendungen mit der Realtime-API speziell für Echtzeittranskriptionen.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| einschließen | Array von Zeichenfolgen | Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:item.input_audio_transcription.logprobs |
Nein | |
| input_audio_format | enum | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Abtastrate sein,Einzelkanal (Mono) und kleine Bytereihenfolge. Mögliche Werte: pcm16, , g711_ulawg711_alaw |
Nein | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | Nein | ||
| └– Typ | OpenAI.NoiseReductionType | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. |
Nein | |
| input_audio_transcription | OpenAI.AudioTranscription | Nein | ||
| └– Sprache | Schnur | Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in ISO-639-1 (z. B. en) Formatverbessert die Genauigkeit und Latenz. |
Nein | |
| └─ Modell | Schnur | Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. |
Nein | |
| └– Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals Segment. For whisper-1, the prompt is a list of keywords.Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
Nein | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | Nein | ||
| └– prefix_padding_ms | integer | Nein | ||
| └– Dauer_der_Stille_in_ms | integer | Nein | ||
| └– Schwellenwert | number | Nein | ||
| └– Typ | enum | Möglicher Wert: server_vad |
Nein | |
| type | enum | Möglicher Wert: transcription |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RealtimeTranscriptionSessionCreateResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Antworten
Antwort erstellen
POST {endpoint}/openai/v1/responses
Erstellt eine Modellantwort.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| background | Boolescher Wert oder Null | Nein | ||
| -Unterhaltung | OpenAI.ConversationParam oder NULL | Nein | ||
| einschließen | Array von OpenAI.IncludeEnum oder NULL | Nein | ||
| Eingabe | OpenAI.InputParam | Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen: - Texteingaben und -ausgaben - Bildeingänge - Dateieingaben - Gesprächszustand - Funktionsaufrufe |
Nein | |
| instructions | Zeichenfolge oder null | Nein | ||
| max_output_tokens | ganze Zahl oder Null | Nein | ||
| max_tool_calls | ganze Zahl oder Null | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| Parallele Werkzeugaufrufe | Boolescher Wert oder Null | Nein | ||
| previous_response_id | Zeichenfolge oder null | Nein | ||
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| reasoning | OpenAI.Reasoning oder NULL | Nein | ||
| safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| store | Boolescher Wert oder Null | Nein | ||
| Datenstrom | Boolescher Wert oder Null | Nein | ||
| stream_options | OpenAI.ResponseStreamOptions oder NULL | Nein | ||
| Temperatur | Zahl oder Null | Nein | ||
| Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| tool_choice | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| top_logprobs | ganze Zahl oder Null | Nein | ||
| top_p | Zahl oder Null | Nein | ||
| truncation | Zeichenfolge oder null | Nein | ||
| user | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt | |
| text/event-stream | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Beispiele
Example
POST {endpoint}/openai/v1/responses
Antwort abrufen
GET {endpoint}/openai/v1/responses/{response_id}
Ruft eine Modellantwort mit der angegebenen ID ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| response_id | Pfad | Ja | Schnur | |
| include[] | Anfrage | Nein | Array | Zusätzliche Felder, die in die Antwort eingeschlossen werden sollen. Weitere Informationen finden Sie im Include-Parameter für die Erstellung von Antworten oben. |
| Datenstrom | Anfrage | Nein | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. |
| starting_after | Anfrage | Nein | integer | Die Sequenznummer des Ereignisses, nach dem streaming gestartet werden soll. |
| include_obfuscation | Anfrage | Nein | boolean | Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt einem Feld obfuscation bei Streaming-Delta-Ereignissen zufällige Zeichen hinzu, um Nutzlastgrößen als Risikominderung für bestimmte Seitenkanalangriffe zu normalisieren. Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch dem Datenstrom einen geringen Mehraufwand hinzu. Sie können include_obfuscation auf FALSCH festlegen, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen Ihrer Anwendung und der OpenAI-API vertrauen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Antwort löschen
DELETE {endpoint}/openai/v1/responses/{response_id}
Löscht eine Antwort nach ID.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| response_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Antwort abbrechen
POST {endpoint}/openai/v1/responses/{response_id}/cancel
Bricht eine Modellantwort mit der angegebenen ID ab. Es können nur Antworten abgebrochen werden, die mit dem auf "true" festgelegten Hintergrundparameter erstellt wurden.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| response_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Listeneingabeelemente
GET {endpoint}/openai/v1/responses/{response_id}/input_items
Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| response_id | Pfad | Ja | Schnur | |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ResponseItemList |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Themen
Thread erstellen
POST {endpoint}/openai/v1/threads
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| messages | Array von OpenAI.CreateMessageRequest | Eine Liste der Nachrichten , mit der der Thread gestartet werden soll. | Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources oder NULL | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ThreadObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen und Ausführen
POST {endpoint}/openai/v1/threads/runs
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| assistant_id | Schnur | Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. | Ja | |
| instructions | Zeichenfolge oder null | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| max_completion_tokens | ganze Zahl oder Null | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| max_prompt_tokens | ganze Zahl oder Null | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | Nein | |
| Parallele Werkzeugaufrufe | OpenAI.ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| Antwortformat | OpenAI.AssistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Nein | |
| Datenstrom | Boolescher Wert oder Null | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
Nein | |
| Temperatur | Zahl oder Null | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. | Nein | |
| thread | OpenAI.CreateThreadRequest | Optionen zum Erstellen eines neuen Threads. Wenn beim Ausführen eines Threads kein Thread bereitgestellt wird anforderung, ein leerer Thread wird erstellt. |
Nein | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Nein | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources oder NULL | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
Nein | |
| Werkzeuge | Array von OpenAI.AssistantTool | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| top_p | Zahl oder Null | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
Nein | |
| truncation_strategy | OpenAI.TruncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Thread löschen
DELETE {endpoint}/openai/v1/threads/{thread_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteThreadResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Thread abrufen
GET {endpoint}/openai/v1/threads/{thread_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ThreadObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Thread ändern
POST {endpoint}/openai/v1/threads/{thread_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources oder NULL | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ThreadObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Nachrichten auflisten
GET {endpoint}/openai/v1/threads/{thread_id}/messages
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| limit | Anfrage | Nein | integer | |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
|
| after | Anfrage | Nein | Schnur | |
| before | Anfrage | Nein | Schnur | |
| run_id | Anfrage | Nein | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListMessagesResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Nachricht erstellen
POST {endpoint}/openai/v1/threads/{thread_id}/messages
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attachments | Array von OpenAI.CreateMessageRequestAttachments oder NULL | Nein | ||
| Inhalt | Zeichenfolge oder Array von OpenAI.MessageContentImageFileObject oder OpenAI.MessageContentImageUrlObject oder OpenAI.MessageRequestContentTextObject | Ja | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| role | enum | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind: - user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.Mögliche Werte: user, assistant |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.MessageObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Nachricht löschen
DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| message_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteMessageResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Nachricht abrufen
GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| message_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.MessageObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Nachricht ändern
POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| message_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.MessageObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen einer Ausführung
POST {endpoint}/openai/v1/threads/{thread_id}/runs
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| additional_instructions | Zeichenfolge oder null | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | Nein | |
| additional_messages | Array von OpenAI.CreateMessageRequest oder NULL | Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. | Nein | |
| assistant_id | Schnur | Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. | Ja | |
| instructions | Zeichenfolge oder null | Überschreibt die Anweisungen des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| max_completion_tokens | ganze Zahl oder Null | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| max_prompt_tokens | ganze Zahl oder Null | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | Nein | |
| Parallele Werkzeugaufrufe | OpenAI.ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| Antwortformat | OpenAI.AssistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Nein | |
| Datenstrom | Boolescher Wert oder Null | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
Nein | |
| Temperatur | Zahl oder Null | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. | Nein | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Nein | |
| Werkzeuge | Array von OpenAI.AssistantTool | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| top_p | Zahl oder Null | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
Nein | |
| truncation_strategy | OpenAI.TruncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Ausführungen auflisten
GET {endpoint}/openai/v1/threads/{thread_id}/runs
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| limit | Anfrage | Nein | integer | |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
|
| after | Anfrage | Nein | Schnur | |
| before | Anfrage | Nein | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListRunsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Ausführen abrufen
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Ausführen ändern
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abbrechen einer Ausführung
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Ausführen von Schritten auflisten
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur | |
| limit | Anfrage | Nein | integer | |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
|
| after | Anfrage | Nein | Schnur | |
| before | Anfrage | Nein | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListRunStepsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Get run step
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur | |
| step_id | Pfad | Ja | Schnur |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunStepObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Senden von Toolausgaben zur Ausführung
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| thread_id | Pfad | Ja | Schnur | |
| run_id | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datenstrom | Boolescher Wert oder Null | Nein | ||
| tool_outputs | Array von OpenAI.SubmitToolOutputsRunRequestToolOutputs | Eine Liste der Tools, für die die Ausgaben übermittelt werden | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.RunObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Vektorspeicher
Auflisten der Vektorspeicher
GET {endpoint}/openai/v1/vector_stores
Gibt eine Liste mit Vektorspeichern zurück.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListVectorStoresResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen eines Vektorspeichers
POST {endpoint}/openai/v1/vector_stores
Erstellt einen Vektorspeicher.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
Nein | |
| Beschreibung | Schnur | Eine Beschreibung für den Vektorspeicher. Kann verwendet werden, um den Zweck des Vektorspeichers zu beschreiben. | Nein | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| Datei-IDs | Array von Zeichenfolgen | Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Schnur | Der Name des Vektorspeichers. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Beispiele
Example
POST {endpoint}/openai/v1/vector_stores
Abrufen des Vektorspeichers
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}
Ruft einen Vektorspeicher ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des abzurufenden Vektorspeichers. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Ändern des Vektorspeichers
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}
Ändert einen Vektorspeicher.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des zu ändernden Vektorspeichers. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Zeichenfolge oder null | Der Name des Vektorspeichers. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Löschen des Vektorspeichers
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}
Löschen Sie einen Vektorspeicher.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des zu löschenden Vektorspeichers. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteVectorStoreResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen eines Vektorspeicher-Dateibatches
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches
Erstellen Sie einen Vektorspeicher-Dateibatch.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Nein | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
Nein | |
| Datei-IDs | Array von Zeichenfolgen | Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Wenn attributes oder chunking_strategy bereitgestellt wird, werden sie auf alle Dateien im Batch angewendet. Gegenseitiger Ausschluss mit files |
Nein | |
| files | Array von OpenAI.CreateVectorStoreFileRequest | Eine Liste von Objekten, die jeweils ein file_id Pluszeichen enthalten, optional attributes oder chunking_strategy. Verwenden Sie diese Vorgehensweise, wenn Sie Metadaten für bestimmte Dateien außer Kraft setzen müssen. Die globale attributes oder chunking_strategy wird ignoriert und muss für jede Datei angegeben werden. Gegenseitiger Ausschluss mit file_ids |
Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileBatchObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen des Vektorspeicher-Dateibatches
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}
Ruft einen Vektorspeicher-Dateibatch ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | Pfad | Ja | Schnur | Die ID des abgerufenen Dateibatches |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileBatchObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abbrechen des Vektorspeicher-Dateibatches
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel
Brechen Sie einen Vektorspeicher-Dateibatch ab. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | Pfad | Ja | Schnur | Die ID des zu abbrechenden Dateibatches. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileBatchObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten von Dateien im Vektorspeicher-Batch
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files
Gibt eine Liste mit Vektorspeicherdateien in einem Batch zurück.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | Pfad | Ja | Schnur | Die ID des Dateibatches, zu dem die Dateien gehören. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | Anfrage | Nein | Schnur Mögliche Werte: in_progress, , completed, failedcancelled |
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListVectorStoreFilesResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Auflisten der Vektorspeicherdateien
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Gibt eine Liste mit Vektorspeicherdateien zurück.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| limit | Anfrage | Nein | integer | Ein Grenzwert für die Anzahl von Objekten, die zurückgegeben werden sollen. Der Grenzwert kann zwischen 1 und 100 liegen. Der Standardwert ist 20. |
| order | Anfrage | Nein | Schnur Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddescfür absteigende Reihenfolge. |
| after | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
after ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | Anfrage | Nein | Schnur | Ein Cursor für die Verwendung bei der Paginierung.
before ist eine Objekt-ID, die die Position in der Liste definiert.Wenn Sie beispielsweise eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, Nachfolgende Aufrufe können before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | Anfrage | Nein | Schnur Mögliche Werte: in_progress, , completed, failedcancelled |
Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.ListVectorStoreFilesResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Erstellen einer Vektorspeicherdatei
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, für den eine Datei erstellt werden soll. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Nein | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
Nein | |
| Datei-ID | Schnur | Eine Datei-ID , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen einer Vektorspeicherdatei
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Ruft eine Vektorspeicherdatei ab.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der abgerufenen Datei. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Aktualisieren von Vektorspeicher-Dateiattributen
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | |
| Datei-ID | Pfad | Ja | Schnur |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Ja |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreFileObject |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Löschen einer Vektorspeicherdatei
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, aber die Datei selbst wird nicht gelöscht. Verwenden Sie zum Löschen der Datei den Endpunkt der Löschdatei.
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der zu löschenden Datei. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.DeleteVectorStoreFileResponse |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Abrufen von Vektorspeicherdateiinhalten
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content
Abrufen von Vektorspeicherdateiinhalten
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des zu durchsuchenden Vektorspeichers. |
| Datei-ID | Pfad | Ja | Schnur | Die ID der Datei, für die Inhalt abgerufen werden soll. |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreSearchResultsPage |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Vektorspeicher durchsuchen
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search
Vektorspeicher durchsuchen
URI-Parameter
| Name | Geben Sie in | Erforderlich | Typ | Description |
|---|---|---|---|---|
| endpoint | Pfad | Ja | Schnur | Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{Name Ihrer Ressource}.openai.azure.com |
| API-Version | Anfrage | Nein | Schnur | Die explizite API-Version der Azure AI Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
| vector_store_id | Pfad | Ja | Schnur | Die ID des zu durchsuchenden Vektorspeichers. |
Anforderungstext
Content-Type: application/json
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| filters | OpenAI.ComparisonFilter oder OpenAI.CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | Nein | |
| max_anzahl_ergebnisse | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Einschränkungen: min: 1, max: 50 |
Nein | 10 |
| Anfrage | Zeichenfolge oder Array von Zeichenfolgen | Eine Abfragezeichenfolge für eine Suche | Ja | |
| Ranglistenoptionen | OpenAI.VectorStoreSearchRequestRankingOptions | Nein | ||
| └– Ranker | enum | Mögliche Werte: none, , autodefault-2024-11-15 |
Nein | |
| └─ Punktschwelle | number | Einschränkungen: min: 0, max: 1 | Nein | |
| rewrite_query | boolean | Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. | Nein |
Antworten
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | OpenAI.VectorStoreSearchResultsPage |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Inhaltstyp | Typ | Beschreibung |
|---|---|---|
| Anwendung/json | Objekt |
Antwortheader:
| Header | Typ | Description |
|---|---|---|
| apim-request-id | Schnur | Eine Anforderungs-ID, die für Problembehandlungszwecke verwendet wird. |
Komponenten
AudioSegment
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| avg_logprob | number | Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. | Ja | |
| Kompressionsverhältnis | number | Das Komprimierungsverhältnis dieses Audiosegments. | Ja | |
| Ende | number | Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. | Ja | |
| id | integer | Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. | Ja | |
| no_speech_prob | number | Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. | Ja | |
| seek | integer | Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist. Suchpositionen werden in Hundertstel Sekunden ausgedrückt. Das Modell kann mehrere Segmente von einer einzigen Suchposition aus verarbeiten, sodass die Suchposition zwar niemals einen späteren Zeitpunkt als den Beginn des Segments darstellt, der Beginn des Segments jedoch einen deutlich späteren Zeitpunkt als die zugehörige Suchposition des Segments darstellen kann. |
Ja | |
| Start | number | Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. | Ja | |
| Temperatur | number | Die diesem Audiosegment zugeordnete Temperaturbewertung. | Ja | |
| Text | Schnur | Der übersetzte Text, der Teil dieses Audiosegments war. | Ja | |
| tokens | Array mit ganzzahliger Zahl | Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. | Ja |
AudioTaskLabel
Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.
| Eigentum | Wert |
|---|---|
| Beschreibung | Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. |
| Typ | Schnur |
| Werte | transcribetranslate |
AudioTranslationSegment
Erweiterte Informationen zu einem einzelnen Segment übersetzter Audiodaten. Segmente stellen in der Regel ungefähr 5-10 Sekunden Sprache dar. Segmentgrenzen treten in der Regel zwischen Wörtern, aber nicht unbedingt zwischen Sätzen auf.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| avg_logprob | number | Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. | Ja | |
| Kompressionsverhältnis | number | Das Komprimierungsverhältnis dieses Audiosegments. | Ja | |
| Ende | number | Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. | Ja | |
| id | integer | Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. | Ja | |
| no_speech_prob | number | Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. | Ja | |
| seek | integer | Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist. Suchpositionen werden in Hundertstel Sekunden ausgedrückt. Das Modell kann mehrere Segmente von einer einzigen Suchposition aus verarbeiten, sodass die Suchposition zwar niemals einen späteren Zeitpunkt als den Beginn des Segments darstellt, der Beginn des Segments jedoch einen deutlich späteren Zeitpunkt als die zugehörige Suchposition des Segments darstellen kann. |
Ja | |
| Start | number | Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. | Ja | |
| Temperatur | number | Die diesem Audiosegment zugeordnete Temperaturbewertung. | Ja | |
| Text | Schnur | Der übersetzte Text, der Teil dieses Audiosegments war. | Ja | |
| tokens | Array mit ganzzahliger Zahl | Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. | Ja |
AzureAIFoundryModelsApiVersion
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | v1preview |
AzureAudioTranscriptionResponse
Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text transkribiert hat.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Dauer | number | Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Transkriptionsinformationen zu erzeugen. | Nein | |
| language | Schnur | Die gesprochene Sprache, die in den transkribierten Audiodaten erkannt wurde. Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt. |
Nein | |
| segments | Array von OpenAI.TranscriptionSegment | Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. | Nein | |
| Aufgabe | AudioTaskLabel | Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. | Nein | |
| Text | Schnur | Der transkribierte Text für die bereitgestellten Audiodaten. | Ja | |
| words | Array von OpenAI.TranscriptionWord | Eine Sammlung von Informationen über den Zeitpunkt jedes verarbeiteten Worts. | Nein |
AzureAudioTranslationResponse
Ergebnis für einen Vorgang, der ein gesprochenes Audio in geschriebenen Text übersetzt hat.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Dauer | number | Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Übersetzungsinformationen zu erzeugen. | Nein | |
| language | Schnur | Die gesprochene Sprache, die in den übersetzten Audiodaten erkannt wurde. Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt. |
Nein | |
| segments | Array von AudioTranslationSegment | Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. | Nein | |
| Aufgabe | AudioTaskLabel | Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. | Nein | |
| Text | Schnur | Der übersetzte Text für die bereitgestellten Audiodaten. | Ja |
AzureCompletionsSamplingParams
Samplingparameter zum Steuern des Verhaltens der Vervollständigungen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| max_completion_tokens | integer | Nein | ||
| maximale_Anzahl_von_Tokens | integer | Die maximale Anzahl von Tokens in der generierten Ausgabe. | Nein | |
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| Antwortformat | OpenAI.ResponseFormatText oder OpenAI.ResponseFormatJsonSchema oder OpenAI.ResponseFormatJsonObject | Nein | ||
| seed | integer | Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. | Nein | 42 |
| Temperatur | number | Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. | Nein | 1 |
| Werkzeuge | Array von OpenAI.ChatCompletionTool | Nein | ||
| top_p | number | Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. | Nein | 1 |
AzureContentFilterBlocklistIdResult
Ein Inhaltsfilterergebniselement, das eine vorhandene benutzerdefinierte Blocklisten-ID einem Wert zuordnet, der angibt, ob die entsprechende Blockliste dazu führte, dass Inhalte gefiltert wurden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gefiltert | boolean | Gibt an, ob die zugeordnete Blockliste dazu führte, dass der Inhalt gefiltert wurde. | Ja | |
| id | Schnur | Die ID der benutzerdefinierten Blockliste, die dem gefilterten Status zugeordnet ist. | Ja |
AzureContentFilterBlocklistResult
Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| details | Objektarray | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | Nein | |
| gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Ja |
AzureContentFilterCompletionTextSpan
Eine Darstellung eines Bereichs des Vervollständigungstexts, der von Azure OpenAI-Inhaltsfilterergebnissen verwendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld entspricht bei leeren Spannen immer „completion_start_offset“. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. | Ja | |
| completion_start_offset | integer | Offset des UTF32-Codepunkts, mit dem die Spanne beginnt. | Ja |
AzureContentFilterCompletionTextSpanDetectionResult
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| details | Array von AzureContentFilterCompletionTextSpan | Detaillierte Informationen zu den erkannten Abschlusstextabschnitten. | Ja | |
| erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja |
AzureContentFilterCustomTopicIdResult
Ein Inhaltsfilterergebniselement, das eine vorhandene benutzerdefinierte Themen-ID einem Wert zuordnet, der angibt, ob das entsprechende Thema dazu führte, dass Inhalte erkannt wurden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erkannt | boolean | Gibt an, ob das zugeordnete benutzerdefinierte Thema dazu führte, dass der Inhalt erkannt wurde. | Ja | |
| id | Schnur | Die ID des benutzerdefinierten Themas, das dem erkannten Status zugeordnet ist. | Ja |
AzureContentFilterCustomTopicResult
Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| details | Objektarray | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Ja |
AzureContentFilterDetectionResult
Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja |
AzureContentFilterForResponsesAPI
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Blockiert | boolean | Geben Sie an, ob die Antwort blockiert ist. | Ja | |
| content_filter_offsets | AzureContentFilterResultOffsets | Ja | ||
| Content-Filtern-Egebnisse | AzureContentFilterResultsForResponsesAPI | Ja | ||
| └– benutzerdefinierte Sperrlisten | AzureContentFilterBlocklistResult | Eine Sammlung von binären Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– custom_topics | AzureContentFilterCustomTopicResult | Eine Sammlung von binären Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Fehler | Objekt | Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. | Nein | |
| └– Code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | Ja | |
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Ja | |
| └– Hass | AzureContentFilterSeverityResult | Eine Inhaltsfilterkategorie, die auf inhalte verweisen kann, die angriffe oder diskriminierende oder diskriminierende Inhalte verwenden Sprache mit Verweis auf eine Person oder Identitätsgruppe basierend auf bestimmten Unterscheidungsattributen dieser Gruppen einschließlich, aber nicht beschränkt auf Rasse, ethnische Zugehörigkeit, Nationalität, Geschlechtsidentität und Ausdruck, sexuelle Orientierung, Religion, Einwanderungsstatus, Fähigkeitsstatus, persönliches Aussehen und Körpergröße. |
Nein | |
| └– indirekter_Angriff | AzureContentFilterDetectionResult | Ein Erkennungsergebnis, das Angriffe auf Systeme beschreibt, die von generativen KI-Modellen unterstützt werden, die jedes Mal auftreten können eine Anwendung verarbeitet Informationen, die nicht direkt vom Entwickler der Anwendung erstellt wurden oder der Benutzer. |
Nein | |
| └– Entsperrung | AzureContentFilterDetectionResult | Ein Erkennungsergebnis, das Benutzereinfügungsangriffe beschreibt, bei denen böswillige Benutzer absichtlich Exploits ausnutzen Systemrisiken, um nicht autorisiertes Verhalten von der LLM zu entlocken. Dies kann zu unangemessenem Inhalt führen Generierung oder Verstöße gegen vom System auferlegte Einschränkungen. |
Ja | |
| └– personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Ein Erkennungsergebnis, das Übereinstimmungen mit personenbezogenen Informationen mit konfigurierbaren Unterkategorien beschreibt. | Nein | |
| └– Profanität | AzureContentFilterDetectionResult | Ein Erkennungsergebnis, das angibt, ob roh, vulgär oder anderweitig Einspruchssprache in der Inhalt. |
Nein | |
| └– protected_material_code | Objekt | Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. | Nein | |
| └- Zitat | Objekt | Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. | Nein | |
| └– URL | Schnur | Die mit der Lizenz verknüpfte URL. | Nein | |
| └– Lizenz | Schnur | Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. | Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– protected_material_text | AzureContentFilterDetectionResult | Ein Erkennungsergebnis, das eine Übereinstimmung mit Text beschreibt, der durch das Urheberrecht oder einen anderen Status geschützt ist. | Nein | |
| └– Selbstverletzung | AzureContentFilterSeverityResult | Eine Inhaltsfilterkategorie, die die Sprache beschreibt, die sich auf physische Handlungen bezieht, die absichtlich verletzen, verletzt werden sollen, schaden sie dem Körper oder töten sich selbst. |
Nein | |
| └─ sexuell | AzureContentFilterSeverityResult | Eine Inhaltsfilterkategorie für Sprache im Zusammenhang mit anatomischen Organen und Genitalien, romantische Beziehungen, Handlungen dargestellt in erotischen oder liebevollen Begriffen, Schwangerschaft, körperliche sexuelle Handlungen, einschließlich derer, die als ein Angriff oder ein erzwungener sexueller Gewaltakt gegen willens, Prostitution, Pornografie und Missbrauch. |
Nein | |
| └– task_adherence | AzureContentFilterDetectionResult | Ein Erkennungsergebnis, das angibt, ob der Ausführungsfluss den Plan noch hält. | Ja | |
| └– ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Nein | ||
| └– Gewalt | AzureContentFilterSeverityResult | Eine Inhaltsfilterkategorie für Sprache im Zusammenhang mit körperlichen Handlungen, die verletzt, verletzt, beschädigt oder getötet werden sollen jemand oder etwas; beschreibt Waffen, Waffen und verwandte Entitäten, z. B. Herstellungen, Verbände, Rechtsvorschriften usw. |
Nein | |
| source_type | Schnur | Der Name des Quelltyps der Nachricht. | Ja |
AzureContentFilterHarmExtensions
Erweiterungen für Schadenkategorien, die zusätzliche Konfigurationsoptionen bereitstellen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| pii_sub_categories | Array von AzurePiiSubCategory | Konfiguration für PIIHarmSubCategory(s). | Nein |
AzureContentFilterImagePromptResults
Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. | Ja | |
| └– ID | Schnur | Die ID der benutzerdefinierten Blockliste ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Ja | |
| custom_topics | AzureContentFilterCustomTopicResult | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| └– erkannt | boolean | Ein Wert, der angibt, ob das Thema erkannt wird. | Ja | |
| └– ID | Schnur | Die ID des benutzerdefinierten Themas ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Ja | |
| hate | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| jailbreak | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Ja | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| Profanität | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| Selbstverletzung | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| sexual | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| Gewalt | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja |
AzureContentFilterImageResponseResults
Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| hate | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| Selbstverletzung | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| sexual | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| Gewalt | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja |
AzureContentFilterPersonallyIdentifiableInformationResult
Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| redacted_text | Schnur | Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. | Nein | |
| sub_categories | Array von AzurePiiSubCategoryResult | Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). | Nein |
AzureContentFilterResultForChoice
Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. | Ja | |
| └– ID | Schnur | Die ID der benutzerdefinierten Blockliste ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Ja | |
| custom_topics | AzureContentFilterCustomTopicResult | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| └– erkannt | boolean | Ein Wert, der angibt, ob das Thema erkannt wird. | Ja | |
| └– ID | Schnur | Die ID des benutzerdefinierten Themas ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Ja | |
| Fehler | Objekt | Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. | Nein | |
| └– Code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | Ja | |
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Ja | |
| hate | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten. | Nein | |
| └– redacted_text | Schnur | Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. | Nein | |
| └─ Unterkategorien | Array von AzurePiiSubCategoryResult | Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). | Nein | |
| Profanität | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| protected_material_code | Objekt | Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. | Nein | |
| └- Zitat | Objekt | Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. | Nein | |
| └– URL | Schnur | Die mit der Lizenz verknüpfte URL. | Nein | |
| └– Lizenz | Schnur | Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. | Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| protected_material_text | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| Selbstverletzung | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| sexual | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Nein | ||
| Gewalt | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja |
AzureContentFilterResultForPrompt
Ein Inhaltsfilterergebnis, das einem einzelnen Eingabeaufforderungselement in einem generativen KI-System zugeordnet ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Content-Filtern-Egebnisse | Objekt | Die Inhaltsfilterkategoriedetails für das Ergebnis. | Nein | |
| └– benutzerdefinierte Sperrlisten | AzureContentFilterBlocklistResult | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. | Ja | |
| └– ID | Schnur | Die ID der benutzerdefinierten Blockliste ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Ja | |
| └– custom_topics | AzureContentFilterCustomTopicResult | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| └– erkannt | boolean | Ein Wert, der angibt, ob das Thema erkannt wird. | Ja | |
| └– ID | Schnur | Die ID des benutzerdefinierten Themas ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Ja | |
| └– Fehler | Objekt | Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. | Nein | |
| └– Code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | Ja | |
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Ja | |
| └– Hass | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| └– indirekter_Angriff | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Ja | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Entsperrung | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Ja | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Profanität | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Selbstverletzung | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| └─ sexuell | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| └– Gewalt | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| prompt_index | integer | Der Index der Eingabeaufforderung, die den zugehörigen Inhaltsfilterergebniskategorien zugeordnet ist. | Nein |
AzureContentFilterResultOffsets
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| check_offset | integer | Ja | ||
| end_offset | integer | Ja | ||
| start_offset | integer | Ja |
AzureContentFilterResultsForResponsesAPI
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | Nein | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob die Blockliste eine Filteraktion erzeugt hat. | Ja | |
| └– ID | Schnur | Die ID der benutzerdefinierten Blockliste ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Ja | |
| custom_topics | AzureContentFilterCustomTopicResult | Eine Sammlung von WAHR/FALSCH-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | Nein | |
| └– Einzelheiten | Objektarray | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | Nein | |
| └– erkannt | boolean | Ein Wert, der angibt, ob das Thema erkannt wird. | Ja | |
| └– ID | Schnur | Die ID des benutzerdefinierten Themas ausgewertet. | Ja | |
| └- gefiltert | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Ja | |
| Fehler | Objekt | Wenn vorhanden, Details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Bewertung abgeschlossen hat. | Nein | |
| └– Code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | Ja | |
| └– Nachricht | Schnur | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | Ja | |
| hate | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| indirect_attack | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| jailbreak | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Ja | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Ein Ergebnis der Inhaltsfiltererkennung für personenbezogene Informationen, die schädliche Erweiterungen enthalten. | Nein | |
| └– redacted_text | Schnur | Der redigierte Text, aus dem personenbezogene Informationen entfernt oder unkenntlich gemacht wurden. | Nein | |
| └─ Unterkategorien | Array von AzurePiiSubCategoryResult | Detaillierte Ergebnisse für einzelne PIIHarmSubCategory(s). | Nein | |
| Profanität | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| protected_material_code | Objekt | Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. | Nein | |
| └- Zitat | Objekt | Falls verfügbar, geben die Zitatdetails die zugehörige Lizenz und deren Standort an. | Nein | |
| └– URL | Schnur | Die mit der Lizenz verknüpfte URL. | Nein | |
| └– Lizenz | Schnur | Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. | Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| protected_material_text | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Nein | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| Selbstverletzung | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| sexual | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja | |
| task_adherence | AzureContentFilterDetectionResult | Ein mit Bezeichnung versehenes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt vorhanden war. gefiltert. |
Ja | |
| └– erkannt | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Ja | |
| └- gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Nein | ||
| Gewalt | AzureContentFilterSeverityResult | Ein beschriftetes Ergebnis eines Inhaltsfilters, das angibt, ob der Inhalt gefiltert wurde und welches das qualitative Ergebnis war. Schweregrad des Inhalts entsprechend der Auswertung anhand der Inhaltsfilterkonfiguration für die Kategorie. |
Nein | |
| └- gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| └– Schweregrad | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja |
AzureContentFilterSeverityResult
Ein markiertes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und wie der qualitative Schweregrad des Inhalts gemäß der Konfiguration des Inhaltsfilters für die Kategorie bewertet wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gefiltert | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Ja | |
| severity | enum | Der markierte Schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Ja |
AzureFileExpiryAnchor
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | created_at |
AzureFineTuneReinforcementMethod
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint | Ja | ||
| Hyperparameter | OpenAI.FineTuneReinforcementHyperparameters | Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter. | Nein | |
| Antwortformat | ResponseFormatJSONSchemaRequest | Nein | ||
| └– json_schema | Objekt | JSON-Schema für das Antwortformat | Ja | |
| └– Typ | enum | Typ des Antwortformats Möglicher Wert: json_schema |
Ja |
AzurePiiSubCategory
Konfiguration für einzelne PIIHarmSubCategory(en) innerhalb des Harm Extensions Frameworks.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Erkennen | boolean | Gibt an, ob die Erkennung für diese Unterkategorie aktiviert ist. | Ja | |
| filter | boolean | Gibt an, ob Inhalte, die diese Unterkategorie enthalten, blockiert werden sollen. | Ja | |
| Redact | boolean | Gibt an, ob Inhalte, die diese Unterkategorie enthalten, redacted werden sollen. | Ja | |
| sub_category | Schnur | Die konfigurierte PIIHarmSubCategory. | Ja |
AzurePiiSubCategoryResult
Ergebnisdetails für einzelne PIIHarmSubCategory(s).
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erkannt | boolean | Gibt an, ob die gekennzeichnete Inhaltsunterkategorie im Inhalt erkannt wurde. | Ja | |
| gefiltert | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion für diese Unterkategorie geführt hat. | Ja | |
| redigiert | boolean | Gibt an, ob der Inhalt für diese Unterkategorie redigiert wurde. | Ja | |
| sub_category | Schnur | Die PIIHarmSubCategory, die ausgewertet wurde. | Ja |
AzureResponsesSamplingParams
Samplingparameter zum Steuern des Verhaltens von Antworten.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| maximale_Anzahl_von_Tokens | integer | Die maximale Anzahl von Tokens in der generierten Ausgabe. | Nein | |
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| seed | integer | Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. | Nein | 42 |
| Temperatur | number | Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. | Nein | 1 |
| Text | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | Nein | ||
| Werkzeuge | Array von OpenAI.Tool | Nein | ||
| top_p | number | Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. | Nein | 1 |
AzureUserSecurityContext
Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder helfen Ihren Sicherheitsteams dabei, Sicherheitsvorfälle zu untersuchen und zu mindern, da sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| application_name | Schnur | Der Name der Anwendung. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. | Nein | |
| end_user_id | Schnur | Dieser Bezeichner ist die Microsoft Entra ID (früher Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Es sollten keine vertraulichen personenbezogenen Daten in diesem Feld enthalten sein. | Nein | |
| end_user_tenant_id | Schnur | Die Mandanten-ID von Microsoft 365, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung multitenant ist. | Nein | |
| source_ip | Schnur | Erfasst die IP-Adresse des ursprünglichen Clients. | Nein |
CopiedAccountDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| destinationResourceId | Schnur | Die ID der Zielressource, in die das Modell kopiert wurde. | Ja | |
| region | Schnur | Die Region, in die das Modell kopiert wurde. | Ja | |
| status | enum | Der Status des Kopiervorgangs. Mögliche Werte: Completed, , FailedInProgress |
Ja |
CopyModelRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| destinationResourceId | Schnur | Die ID der zu kopierenden Zielressource. | Ja | |
| region | Schnur | Die Region, in die das Modell kopiert werden soll. | Ja |
CopyModelResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| checkpointedModelName | Schnur | Die ID des kopierten Modells. | Ja | |
| copiedAccountDetails | Array von "CopiedAccountDetails" | Die ID der Zielressourcen-ID, in die sie kopiert wurde | Ja | |
| fineTuningJobId | Schnur | Die ID des Feinabstimmungsauftrags, aus dem der Prüfpunkt kopiert wurde. | Ja |
CreateVideoBody
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Modell | Schnur | Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll | Ja | |
| prompt | Schnur | Textaufforderung, die das zu generierende Video beschreibt. Einschränkungen: minLength: 1 |
Ja | |
| Sekunden | VideoSeconds | Unterstützte Clipdauern, gemessen in Sekunden. | Nein | 4 |
| Größe | VideoSize | Ausgabeabmessungen, die als {width}x{height}. |
Nein | 720x1280 |
CreateVideoBodyWithInputReference
Die Eigenschaften einer Anforderung eines Auftrags zur Videogenerierung mit Mediendateien.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| input_reference | Objekt | Optionaler Bildverweis, der die Generierung führt. | Ja | |
| Modell | Objekt | Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll | Ja | |
| prompt | Objekt | Textaufforderung, die das zu generierende Video beschreibt. | Ja | |
| Sekunden | Objekt | Clipdauer in Sekunden. Der Standardwert ist 4 Sekunden. | Nein | |
| Größe | Objekt | Ausgabeauflösung, die als Breite x Höhe formatiert ist. Der Standardwert ist 720 x 1280. | Nein |
CreateVideoRemixBody
Parameter zum Remixen eines vorhandenen generierten Videos.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prompt | Schnur | Aktualisierte Textaufforderung, die die Remixgenerierung leitet. Einschränkungen: minLength: 1 |
Ja |
DeletedVideoResource
Bestätigungsnutzlast, die nach dem Löschen eines Videos zurückgegeben wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Gibt an, dass die Videoressource gelöscht wurde. | Ja | Richtig |
| id | Schnur | Bezeichner des gelöschten Videos. | Ja | |
| Objekt | Schnur | Der Objekttyp, der die Löschantwort signalisiert. | Ja | video.deleted |
Fehler
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Schnur | Ja | ||
| Nachricht | Schnur | Ja |
EvalGraderEndpoint
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| headers | -Objekt oder Null | Optionale HTTP-Header, die in Anforderungen an den Endpunkt eingeschlossen werden sollen | Nein | |
| Name | Schnur | Der Name des Graders | Ja | |
| Schwellenwert erreichen | Zahl oder Null | Optionaler Schwellenwert, über dem die Noten als bestanden betrachtet werden Wenn nicht angegeben, werden alle Bewertungen als gültig betrachtet. |
Nein | |
| rate_limit | ganze Zahl oder Null | Optionales Zinslimit für Anforderungen pro Sekunde an den Endpunkt Muss eine positive ganze Zahl sein |
Nein | |
| type | enum | Möglicher Wert: endpoint |
Ja | |
| url | Schnur | Die HTTPS-URL des Endpunkts, der für die Benotung aufgerufen werden soll Einschränkungen: Muster: ^https:// |
Ja |
GraderEndpoint
Endpunkt-Graderkonfiguration für die Auswertung externer HTTP-Endpunkte
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| headers | -Objekt oder Null | Optionale HTTP-Header, die in Anforderungen an den Endpunkt eingeschlossen werden sollen | Nein | |
| Name | Schnur | Der Name des Graders | Ja | |
| Schwellenwert erreichen | Zahl oder Null | Optionaler Schwellenwert, über dem die Noten als bestanden betrachtet werden Wenn nicht angegeben, werden alle Bewertungen als gültig betrachtet. |
Nein | |
| rate_limit | ganze Zahl oder Null | Optionales Zinslimit für Anforderungen pro Sekunde an den Endpunkt Muss eine positive ganze Zahl sein |
Nein | |
| type | enum | Möglicher Wert: endpoint |
Ja | |
| url | Schnur | Die HTTPS-URL des Endpunkts, der für die Benotung aufgerufen werden soll Einschränkungen: Muster: ^https:// |
Ja |
OpenAI.Annotation
Eine Anmerkung, die sich auf einen Bereich von Ausgabetext bezieht.
Diskriminator für OpenAI.Annotation
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_citation |
OpenAI.FileCitationBody |
url_citation |
OpenAI.UrlCitationBody |
container_file_citation |
OpenAI.ContainerFileCitationBody |
file_path |
OpenAI.FilePath |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.AnnotationType | Ja |
OpenAI.AnnotationType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | file_citationurl_citationcontainer_file_citationfile_path |
OpenAI.ApplyPatchCallOutputStatus
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | completedfailed |
OpenAI.ApplyPatchCallStatus
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | in_progresscompleted |
OpenAI.ApplyPatchCreateFileOperation
Anweisung, die beschreibt, wie eine Datei über das apply_patch Tool erstellt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Unterschiede | Schnur | Diff, das angewendet werden soll. | Ja | |
| Pfad | Schnur | Pfad der zu erstellenden Datei. | Ja | |
| type | enum | Erstellen Sie eine neue Datei mit dem bereitgestellten Diff. Möglicher Wert: create_file |
Ja |
OpenAI.ApplyPatchDeleteFileOperation
Anweisung, die beschreibt, wie eine Datei über das apply_patch-Tool gelöscht wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Pfad | Schnur | Pfad der zu löschenden Datei. | Ja | |
| type | enum | Löschen Sie die angegebene Datei. Möglicher Wert: delete_file |
Ja |
OpenAI.ApplyPatchFileOperation
Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden.
Diskriminator für OpenAI.ApplyPatchFileOperation
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
create_file |
OpenAI.ApplyPatchCreateFileOperation |
delete_file |
OpenAI.ApplyPatchDeleteFileOperation |
update_file |
OpenAI.ApplyPatchUpdateFileOperation |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ApplyPatchFileOperationType | Ja |
OpenAI.ApplyPatchFileOperationType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | create_filedelete_fileupdate_file |
OpenAI.ApplyPatchToolParam
Ermöglicht es dem Assistenten, Dateien mit einheitlichen Differenzen zu erstellen, zu löschen oder zu aktualisieren.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Tools. Immer apply_patch.Möglicher Wert: apply_patch |
Ja |
OpenAI.ApplyPatchUpdateFileOperation
Anweisung, die beschreibt, wie eine Datei über das apply_patch Tool aktualisiert wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Unterschiede | Schnur | Diff, das angewendet werden soll. | Ja | |
| Pfad | Schnur | Pfad der zu aktualisierenden Datei. | Ja | |
| type | enum | Aktualisieren Sie eine vorhandene Datei mit dem bereitgestellten Diff. Möglicher Wert: update_file |
Ja |
OpenAI.ApproximateLocation
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| city | Zeichenfolge oder null | Nein | ||
| country | Zeichenfolge oder null | Nein | ||
| region | Zeichenfolge oder null | Nein | ||
| timezone | Zeichenfolge oder null | Nein | ||
| type | enum | Die Art der Ortsapproximation. Immer approximate.Möglicher Wert: approximate |
Ja |
OpenAI.AssistantTool
Diskriminator für OpenAI.AssistantTool
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
code_interpreter |
OpenAI.AssistantToolsCode |
file_search |
OpenAI.AssistantToolsFileSearch |
function |
OpenAI.AssistantToolsFunction |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.AssistantToolType | Ja |
OpenAI.AssistantToolType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | code_interpreterfile_searchfunction |
OpenAI.AssistantToolsCode
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Die Art des Tools, das definiert wird: code_interpreterMöglicher Wert: code_interpreter |
Ja |
OpenAI.AssistantToolsFileSearch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file_search | OpenAI.AssistantToolsFileSearchFileSearchSearch | Nein | ||
| └– max_num_results | integer | Einschränkungen: min: 1, max: 50 | Nein | |
| └– ranking_options | OpenAI.FileSearchRankingOptions | Die Bewertungsoptionen für die Dateisuche. Wenn nicht angegeben, verwendet das Dateisuchtool den auto Rangfolger und einen score_threshold von 0.Weitere Informationen finden Sie in der Dokumentation zum Dateisuchtool . |
Nein | |
| type | enum | Die Art des Tools, das definiert wird: file_searchMöglicher Wert: file_search |
Ja |
OpenAI.AssistantToolsFileSearchFileSearchSearch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| max_anzahl_ergebnisse | integer | Einschränkungen: min: 1, max: 50 | Nein | |
| Ranglistenoptionen | OpenAI.FileSearchRankingOptions | Die Bewertungsoptionen für die Dateisuche. Wenn nicht angegeben, verwendet das Dateisuchtool den auto Rangfolger und einen score_threshold von 0.Weitere Informationen finden Sie in der Dokumentation zum Dateisuchtool . |
Nein |
OpenAI.AssistantToolsFileSearchTypeOnly
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Die Art des Tools, das definiert wird: file_searchMöglicher Wert: file_search |
Ja |
OpenAI.AssistantToolsFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.FunctionObject | Ja | ||
| type | enum | Die Art des Tools, das definiert wird: functionMöglicher Wert: function |
Ja |
OpenAI.AssistantsApiResponseFormatOption
Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Erfahren Sie mehr in der Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
Typ: Zeichenfolge oder OpenAI.ResponseFormatText oder OpenAI.ResponseFormatJsonObject oder OpenAI.ResponseFormatJsonSchema
Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Erfahren Sie mehr in der Einstellung, um den JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist.
Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat.
OpenAI.AssistantsApiToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
Typ: Zeichenfolge oder OpenAI.AssistantsNamedToolChoice
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.
auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.
Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen.
OpenAI.AssistantsNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes Tool aufruft.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.AssistantsNamedToolChoiceFunction | Nein | ||
| type | enum | Der Typ des Tools. Wenn der Typ function ist, muss der Funktionsname festgelegt werden.Mögliche Werte: function, , code_interpreterfile_search |
Ja |
OpenAI.AssistantsNamedToolChoiceFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Ja |
OpenAI.AudioTranscription
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| language | Schnur | Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in ISO-639-1 (z. B. en) Formatverbessert die Genauigkeit und Latenz. |
Nein | |
| Modell | Schnur | Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. |
Nein | |
| prompt | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals Segment. For whisper-1, the prompt is a list of keywords.Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
Nein |
OpenAI.AutoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit einen max_chunk_size_tokens-Wert von 800 und einen chunk_overlap_tokens-Wert von 400.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Immer auto.Möglicher Wert: auto |
Ja |
OpenAI.Batch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cancelled_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abgebrochen wurde. | Nein | |
| cancelling_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abgebrochen wurde. | Nein | |
| abgeschlossen_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Batches. | Nein | |
| Abschlussfenster | Schnur | Der Zeitrahmen, in dem der Batch verarbeitet werden soll. | Ja | |
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Batches. | Ja | |
| endpoint | Schnur | Der vom Batch verwendete OpenAI-API-Endpunkt. | Ja | |
| error_file_id | Schnur | Die ID der Datei, die die Ausgaben der fehlerhaften Anfragen enthält. | Nein | |
| Irrtümer | OpenAI.BatchErrors | Nein | ||
| abgelaufen_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abgelaufen ist. | Nein | |
| läuft_ab_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem der Batch abläuft. | Nein | |
| failed_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Fehler des Batches. | Nein | |
| finalizing_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Fertigstellung des Batches. | Nein | |
| id | Schnur | Ja | ||
| in_progress_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Beginn der Verarbeitung des Batches. | Nein | |
| input_file_id | Zeichenfolge oder null | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Modell-ID, die zum Verarbeiten des Batches verwendet wird, z gpt-5-2025-08-07. B. . OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Verweisen auf das Modell Leitfaden zum Durchsuchen und Vergleichen der verfügbaren Modelle. |
Nein | |
| Objekt | enum | Der Objekttyp, der immer batch ist.Möglicher Wert: batch |
Ja | |
| Ausgabedatei-ID | Schnur | Die ID der Datei, die die Ausgabedateien der erfolgreich ausgeführten Anforderungen enthält. | Nein | |
| Anfrageanzahl | OpenAI.BatchRequestCounts | Die Anforderung gilt für unterschiedliche Status innerhalb des Batches. | Nein | |
| status | enum | Der aktuelles Status des Batches. Mögliche Werte: validating, , failed, in_progressfinalizing, completed, , expired, cancellingcancelled |
Ja | |
| usage | OpenAI.BatchUsage | Nein | ||
| └─ Eingabe-Tokens | integer | Ja | ||
| └– input_tokens_details | OpenAI.BatchUsageInputTokensDetails | Ja | ||
| └– Ausgabe-Tokens | integer | Ja | ||
| └– output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Ja | ||
| └– total_tokens | integer | Ja |
OpenAI.BatchError
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Schnur | Ein Fehlercode, der den Fehlertyp angibt. | Nein | |
| line | ganze Zahl oder Null | Nein | ||
| Nachricht | Schnur | Eine lesbare Nachricht, die weitere Details zum Fehler bereitstellt. | Nein | |
| param | Zeichenfolge oder null | Nein |
OpenAI.BatchErrors
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.BatchError | Nein | ||
| Objekt | Schnur | Nein |
OpenAI.BatchRequestCounts
Die Anforderung gilt für unterschiedliche Status innerhalb des Batches.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| abgeschlossen | integer | Anzahl der Anforderungen, die erfolgreich abgeschlossen wurden. | Ja | |
| misslungen | integer | Anzahl der fehlgeschlagenen Anforderungen. | Ja | |
| gesamt | integer | Gesamtanzahl der Anforderungen im Batch. | Ja |
OpenAI.BatchUsage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| input_tokens | integer | Ja | ||
| input_tokens_details | OpenAI.BatchUsageInputTokensDetails | Ja | ||
| output_tokens | integer | Ja | ||
| output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Ja | ||
| Gesamtanzahl Tokens | integer | Ja |
OpenAI.BatchUsageInputTokensDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cached_tokens | integer | Ja |
OpenAI.BatchUsageOutputTokensDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Begründungs_Token | integer | Ja |
OpenAI.ChatCompletionAllowedTools
Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| mode | enum | Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.auto ermöglicht es dem Modell, zwischen den zulässigen Tools zu wählen und eineMeldung. required erfordert, dass das Modell mindestens eins der zulässigen Tools aufruft.Mögliche Werte: auto, required |
Ja | |
| Werkzeuge | Objektarray | Eine Liste der Tooldefinitionen, die das Modell aufrufen darf. Für die Api für Chatabschlusse kann die Liste der Tooldefinitionen wie folgt aussehen: json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br> |
Ja |
OpenAI.ChatCompletionAllowedToolsChoice
Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erlaubte_Werkzeuge | OpenAI.ChatCompletionAllowedTools | Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz. | Ja | |
| type | enum | Zulässiger Toolkonfigurationstyp. Immer allowed_tools.Möglicher Wert: allowed_tools |
Ja |
OpenAI.ChatCompletionFunctionCallOption
Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese aufzurufen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Der Name der aufzurufenden Funktion. | Ja |
OpenAI.ChatCompletionFunctions
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | Nein | |
| Name | Schnur | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
| parameters | OpenAI.FunctionParameters | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Siehe die leitfaden für Beispiele und die JSON Schema Reference für Dokumentationen zum Format. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
Nein |
OpenAI.ChatCompletionMessageCustomToolCall
Ein Aufruf eines benutzerdefinierten Tools, das vom Modell erstellt wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| custom | OpenAI.ChatCompletionMessageCustomToolCallCustom | Ja | ||
| └– Eingabe | Schnur | Ja | ||
| └– Name | Schnur | Ja | ||
| id | Schnur | Die ID des Toolaufrufs | Ja | |
| type | enum | Der Typ des Tools. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.ChatCompletionMessageCustomToolCallCustom
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Schnur | Ja | ||
| Name | Schnur | Ja |
OpenAI.ChatCompletionMessageToolCall
Ein Aufruf eines Funktionstools, das vom Modell erstellt wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.ChatCompletionMessageToolCallFunction | Ja | ||
| └- Argumente | Schnur | Ja | ||
| └– Name | Schnur | Ja | ||
| id | Schnur | Die ID des Toolaufrufs | Ja | |
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionMessageToolCallChunk
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.ChatCompletionMessageToolCallChunkFunction | Nein | ||
| id | Schnur | Die ID des Toolaufrufs | Nein | |
| Index | integer | Ja | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Nein |
OpenAI.ChatCompletionMessageToolCallChunkFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Nein | ||
| Name | Schnur | Nein |
OpenAI.ChatCompletionMessageToolCallFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Ja | ||
| Name | Schnur | Ja |
OpenAI.ChatCompletionMessageToolCalls
Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.
OpenAI.ChatCompletionMessageToolCallsItem
Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe.
OpenAI.ChatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.ChatCompletionNamedToolChoiceFunction | Ja | ||
| type | enum | Bei Funktionsaufrufen ist der Typ immer function.Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionNamedToolChoiceCustom
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell ein bestimmtes benutzerdefiniertes Tool aufruft.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| custom | OpenAI.ChatCompletionNamedToolChoiceCustomCustom | Ja | ||
| type | enum | Für benutzerdefinierte Toolaufrufe ist der Typ immer custom.Möglicher Wert: custom |
Ja |
OpenAI.ChatCompletionNamedToolChoiceCustomCustom
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Ja |
OpenAI.ChatCompletionNamedToolChoiceFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Ja |
OpenAI.ChatCompletionRequestAssistantMessage
Nachrichten, die vom Modell als Reaktion auf Benutzernachrichten gesendet werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio | OpenAI.ChatCompletionRequestAssistantMessageAudio oder null | Daten zu einer vorherigen Audioantwort aus dem Modell. | Nein | |
| Inhalt | string or array of OpenAI.ChatCompletionRequestAssistantMessageContentPart or null | Nein | ||
| function_call | OpenAI.ChatCompletionRequestAssistantMessageFunctionCall oder null | Nein | ||
| Name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| Ablehnung | Zeichenfolge oder null | Nein | ||
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: assistant).Möglicher Wert: assistant |
Ja | |
| tool_calls | OpenAI.ChatCompletionMessageToolCalls | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | Nein |
OpenAI.ChatCompletionRequestAssistantMessageAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Ja |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
Diskriminator für OpenAI.ChatCompletionRequestAssistantMessageContentPart
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
refusal |
OpenAI.ChatCompletionRequestMessageContentPartRefusal |
text |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestAssistantMessageContentPartType | Ja |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Erfahren Sie mehr über Texteingaben.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Der Textinhalt. | Ja | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: text |
Ja |
OpenAI.ChatCompletionRequestAssistantMessageContentPartType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | textrefusal |
OpenAI.ChatCompletionRequestAssistantMessageFunctionCall
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Ja | ||
| Name | Schnur | Ja |
OpenAI.ChatCompletionRequestDeveloperMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren Modellen ersetzen developer-Nachrichten die vorherigen system-Nachrichten.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array von OpenAI.ChatCompletionRequestMessageContentPartText | Der Inhalt der Entwicklernachricht. | Ja | |
| Name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: developer).Möglicher Wert: developer |
Ja |
OpenAI.ChatCompletionRequestFunctionMessage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder null | Ja | ||
| Name | Schnur | Der Name der aufzurufenden Funktion. | Ja | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: function).Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionRequestMessage
Diskriminator für OpenAI.ChatCompletionRequestMessage
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
system |
OpenAI.ChatCompletionRequestSystemMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| role | OpenAI.ChatCompletionRequestMessageType | Ja |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| input_audio | OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio | Ja | ||
| type | enum | Der Typ des Inhaltsteils Immer input_audio.Möglicher Wert: input_audio |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Schnur | Ja | ||
| format | enum | Mögliche Werte: wav, mp3 |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartFile
Erfahren Sie mehr über Dateieingaben für die Textgenerierung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file | OpenAI.ChatCompletionRequestMessageContentPartFileFile | Ja | ||
| └– file_data | Schnur | Nein | ||
| └– file_id | Schnur | Nein | ||
| └– Dateiname | Schnur | Nein | ||
| type | enum | Der Typ des Inhaltsteils Immer file.Möglicher Wert: file |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartFileFile
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file_data | Schnur | Nein | ||
| Datei-ID | Schnur | Nein | ||
| filename | Schnur | Nein |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| image_url | OpenAI.ChatCompletionRequestMessageContentPartImageUrl | Ja | ||
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: image_url |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartImageUrl
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | enum | Mögliche Werte: auto, , lowhigh |
Nein | |
| url | Schnur | Ja |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ablehnung | Schnur | Eine vom Modell generierte Ablehnungsmeldung. | Ja | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: refusal |
Ja |
OpenAI.ChatCompletionRequestMessageContentPartText
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Der Textinhalt. | Ja | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: text |
Ja |
OpenAI.ChatCompletionRequestMessageType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | developersystemuserassistanttoolfunction |
OpenAI.ChatCompletionRequestSystemMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von Nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie stattdessen developer-Nachrichten für diesen Zweck mit o1-Modellen und neueren.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array von OpenAI.ChatCompletionRequestSystemMessageContentPart | Die Inhalte der Systemnachricht. | Ja | |
| Name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: system).Möglicher Wert: system |
Ja |
OpenAI.ChatCompletionRequestSystemMessageContentPart
Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array von OpenAI.ChatCompletionRequestToolMessageContentPart | Die Inhalte der Toolnachricht. | Ja | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: tool).Möglicher Wert: tool |
Ja | |
| tool_call_id | Schnur | Toolaufruf, auf den diese Nachricht reagiert. | Ja |
OpenAI.ChatCompletionRequestToolMessageContentPart
Referenzen: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Von einem Endbenutzer gesendete Nachrichten, die Eingabeaufforderungen oder zusätzliche Kontextinformationen enthalten.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array von OpenAI.ChatCompletionRequestUserMessageContentPart | Die Inhalte der Benutzernachricht. | Ja | |
| Name | Schnur | Ein optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | Nein | |
| role | enum | Die Rolle des Nachrichtenerstellers (in diesem Fall: user).Möglicher Wert: user |
Ja |
OpenAI.ChatCompletionRequestUserMessageContentPart
Diskriminator für OpenAI.ChatCompletionRequestUserMessageContentPart
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestUserMessageContentPartType | Ja |
OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Erfahren Sie mehr über Texteingaben.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Der Textinhalt. | Ja | |
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: text |
Ja |
OpenAI.ChatCompletionRequestUserMessageContentPartType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | textimage_urlinput_audiofile |
OpenAI.ChatCompletionResponseMessage
Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anmerkungen | Array von OpenAI.ChatCompletionResponseMessageAnnotations | Anmerkungen für die Nachricht, falls zutreffend, wie bei Verwendung Websuchtool. |
Nein | |
| audio | OpenAI.ChatCompletionResponseMessageAudio oder null | Nein | ||
| Inhalt | Zeichenfolge oder null | Ja | ||
| function_call | OpenAI.ChatCompletionResponseMessageFunctionCall | Nein | ||
| └- Argumente | Schnur | Ja | ||
| └– Name | Schnur | Ja | ||
| reasoning_content | Schnur | Eine Azure-spezifische Erweiterungseigenschaft, die generierten Begründungsinhalt aus den unterstützten Modellen enthält. | Nein | |
| Ablehnung | Zeichenfolge oder null | Ja | ||
| role | enum | Die Rolle des Autors dieser Nachricht Möglicher Wert: assistant |
Ja | |
| tool_calls | OpenAI.ChatCompletionMessageToolCallsItem | Die vom Modell generierten Toolaufrufe, z. B. Funktionsaufrufe. | Nein |
OpenAI.ChatCompletionResponseMessageAnnotations
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: url_citation |
Ja | |
| url_citation | OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation | Ja |
OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| end_index | integer | Ja | ||
| start_index | integer | Ja | ||
| title | Schnur | Ja | ||
| url | Schnur | Ja |
OpenAI.ChatCompletionResponseMessageAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Schnur | Ja | ||
| läuft_ab_am | integer | Ja | ||
| id | Schnur | Ja | ||
| Transkript | Schnur | Ja |
OpenAI.ChatCompletionResponseMessageFunctionCall
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Ja | ||
| Name | Schnur | Ja |
OpenAI.ChatCompletionStreamOptions
Optionen für eine Streamingantwort. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| include_obfuscation | boolean | Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt hinzu Zufällige Zeichen für ein obfuscation Feld bei Streaming-Delta-Ereignissennormalisieren Sie Nutzlastgrößen als Gegenmaßnahme für bestimmte Seitenkanalangriffe. Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch einen kleinen Betrag hinzu. mehr Aufwand für den Datenstrom. Sie können auf include_obfuscationfalse, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen Ihre Anwendung und die OpenAI-API. |
Nein | |
| include_usage | boolean | Falls festgelegt, wird ein zusätzlicher Abschnitt vor dem data: [DONE] gestreamt.Meldung. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken an.für die gesamte Anforderung, und das choices Feld ist immer ein leererArray. Alle anderen Blöcke enthalten auch ein usage Feld, aber mit nullWert. ANMERKUNG: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den letzter Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält. |
Nein |
OpenAI.ChatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder null | Nein | ||
| function_call | OpenAI.ChatCompletionStreamResponseDeltaFunctionCall | Nein | ||
| └- Argumente | Schnur | Nein | ||
| └– Name | Schnur | Nein | ||
| reasoning_content | Schnur | Eine Azure-spezifische Erweiterungseigenschaft, die generierten Begründungsinhalt aus den unterstützten Modellen enthält. | Nein | |
| Ablehnung | Zeichenfolge oder null | Nein | ||
| role | enum | Die Rolle des Autors dieser Nachricht Mögliche Werte: developer, , systemuser, , assistanttool |
Nein | |
| tool_calls | Array von OpenAI.ChatCompletionMessageToolCallChunk | Nein |
OpenAI.ChatCompletionStreamResponseDeltaFunctionCall
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Nein | ||
| Name | Schnur | Nein |
OpenAI.ChatCompletionTokenLogprob
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Byte | Array einer ganzen Zahl oder null | Ja | ||
| logprob | number | Die Protokollwahrscheinlichkeit dieses Tokens, wenn es zu den 20 wahrscheinlichsten Tokens gehört. Andernfalls wird der Wert „-9999.0“ verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. |
Ja | |
| token | Schnur | Das Token. | Ja | |
| top_logprobs | Array von OpenAI.ChatCompletionTokenLogprobTopLogprobs | Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für top_logprobs angefordert. |
Ja |
OpenAI.ChatCompletionTokenLogprobTopLogprobs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Byte | Array einer ganzen Zahl oder null | Ja | ||
| logprob | number | Ja | ||
| token | Schnur | Ja |
OpenAI.ChatCompletionTool
Ein Funktionstool, das zum Generieren einer Antwort verwendet werden kann.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.FunctionObject | Ja | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Möglicher Wert: function |
Ja |
OpenAI.ChatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
Typ: Zeichenfolge oder OpenAI.ChatCompletionAllowedToolsChoice oder OpenAI.ChatCompletionNamedToolChoice oder OpenAI.ChatCompletionNamedToolChoiceCustom
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
Wenn Sie mit {"type": "function", "function": {"name": "my_function"}} ein bestimmtes Tool angeben, wird das Modell gezwungen, dieses aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
OpenAI.ChunkingStrategyRequestParam
Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist.
Diskriminator für OpenAI.ChunkingStrategyRequestParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
auto |
OpenAI.AutoChunkingStrategyRequestParam |
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ChunkingStrategyRequestParamType | Ja |
OpenAI.ChunkingStrategyRequestParamType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | autostatic |
OpenAI.ChunkingStrategyResponse
Die Strategie, die verwendet wird, um die Datei zu blöcken.
Diskriminator für OpenAI.ChunkingStrategyResponse
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyResponseParam |
other |
OpenAI.OtherChunkingStrategyResponseParam |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ChunkingStrategyResponseType | Ja |
OpenAI.ChunkingStrategyResponseType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | staticother |
OpenAI.ClickButtonType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | leftrightwheelbackforward |
OpenAI.ClickParam
Ein Klickvorgang.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| button | OpenAI.ClickButtonType | Ja | ||
| type | enum | Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer click.Möglicher Wert: click |
Ja | |
| x | integer | Die x-Koordinate, an der der Klick aufgetreten ist. | Ja | |
| y | integer | Die y-Koordinate, an der der Klick aufgetreten ist. | Ja |
OpenAI.CodeInterpreterContainerAuto
Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-IDs | Array von Zeichenfolgen | Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. | Nein | |
| Speicherbegrenzung | OpenAI.ContainerMemoryLimit oder NULL | Nein | ||
| type | enum | Immer auto.Möglicher Wert: auto |
Ja |
OpenAI.CodeInterpreterOutputImage
Die Bildausgabe des Code-Interpreters.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ der Ausgabe. Immer image.Möglicher Wert: image |
Ja | |
| url | Schnur | Die URL der Bildausgabe des Code-Interpreters. | Ja |
OpenAI.CodeInterpreterOutputLogs
Die Protokollausgabe aus dem Code-Interpreter.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| logs | Schnur | Die Protokollausgabe aus dem Code-Interpreter. | Ja | |
| type | enum | Der Typ der Ausgabe. Immer logs.Möglicher Wert: logs |
Ja |
OpenAI.CodeInterpreterTool
Ein Tool, das Python Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| container | string oder OpenAI.CodeInterpreterContainerAuto | Der Codeinterpreter-Container. Kann eine Container-ID oder ein Objekt sein, das Gibt hochgeladene Datei-IDs an, die Ihrem Code zur Verfügung gestellt werden sollen, zusammen mit einer optionale memory_limit Einstellung. |
Ja | |
| type | enum | Der Typ des Codedolmetschertools. Immer code_interpreter.Möglicher Wert: code_interpreter |
Ja |
OpenAI.Vergleichsfilter
Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Schlüssel | Schnur | Der Schlüssel für den Vergleich mit dem Wert | Ja | |
| type | enum | Spezifiziert den Vergleichsoperator: eq, ne, , gt, gte, ltltein, nin.- eq: entspricht- ne: ungleich- gt:größer als- gte: größer oder gleich- lt:weniger als- lte: kleiner oder gleich- in:In- nin: nicht inMögliche Werte: eq, , ne, gtgte, , , ltlte |
Ja | |
| Wert | string or number or boolean or array of OpenAI.ComparisonFilterValueItems | Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. | Ja |
OpenAI.ComparisonFilterValueItems
Dieses Schema akzeptiert einen der folgenden Typen:
- String
- Zahl
OpenAI.CompletionUsage
Nutzungsstatistiken für die Vervollständigungsanforderung
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der Token in der generierten Vervollständigung | Ja | |
| completion_tokens_details | OpenAI.CompletionUsageCompletionTokensDetails | Nein | ||
| └– akzeptierte_Vorhersage_Token | integer | Nein | ||
| └– audio_tokens | integer | Nein | ||
| └– reasoning_tokens | integer | Nein | ||
| └– rejected_prediction_tokens | integer | Nein | ||
| prompt_tokens | integer | Anzahl der Token im Prompt. | Ja | |
| prompt_tokens_details | OpenAI.CompletionUsagePromptTokensDetails | Nein | ||
| └– audio_tokens | integer | Nein | ||
| └– zwischengespeicherte_Token | integer | Nein | ||
| Gesamtanzahl Tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). | Ja |
OpenAI.CompletionUsageCompletionTokensDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| accepted_prediction_tokens | integer | Nein | ||
| audio_tokens | integer | Nein | ||
| Begründungs_Token | integer | Nein | ||
| rejected_prediction_tokens | integer | Nein |
OpenAI.CompletionUsagePromptTokensDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio_tokens | integer | Nein | ||
| cached_tokens | integer | Nein |
OpenAI.CompoundFilter
Kombinieren mehrerer Filter mit and oder or.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| filters | Array von OpenAI.ComparisonFilter oder Objekt | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Ja | |
| type | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Ja |
OpenAI.ComputerAction
Diskriminator für OpenAI.ComputerAction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
click |
OpenAI.ClickParam |
double_click |
OpenAI.DoubleClickAction |
drag |
OpenAI.Drag |
keypress |
OpenAI.KeyPressAction |
move |
OpenAI.Move |
screenshot |
OpenAI.Screenshot |
scroll |
OpenAI.Scroll |
type |
OpenAI.Type |
wait |
OpenAI.Wait |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerActionType | Ja |
OpenAI.ComputerActionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | clickdouble_clickdragkeypressmovescreenshotscrolltypewait |
OpenAI.ComputerCallSafetyCheckParam
Eine ausstehende Sicherheitsüberprüfung für den Computertelefonanruf.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die ID der ausstehenden Sicherheitsprüfung | Ja | |
| Nachricht | Zeichenfolge oder null | Nein |
OpenAI.ComputerEnvironment
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | windowsmaclinuxubuntubrowser |
OpenAI.ComputerScreenshotContent
Screenshot eines Computers.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Zeichenfolge oder null | Ja | ||
| image_url | Zeichenfolge oder null | Ja | ||
| type | enum | Gibt den Ereignistyp an. Für einen Computer-Screenshot ist diese Eigenschaft immer auf computer_screenshot.Möglicher Wert: computer_screenshot |
Ja |
OpenAI.ComputerScreenshotImage
Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Der Bezeichner einer hochgeladenen Datei, die den Screenshot enthält. | Nein | |
| image_url | Schnur | Die URL des Screenshotbilds. | Nein | |
| type | enum | Gibt den Ereignistyp an. Für einen Computerfoto ist diese Eigenschaft immer auf computer_screenshot festgelegt.Möglicher Wert: computer_screenshot |
Ja |
OpenAI.ComputerUsePreviewTool
Ein Tool, das einen virtuellen Computer steuert.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anzeigehöhe | integer | Die Höhe der Computeranzeige. | Ja | |
| Bildschirmbreite | integer | Die Breite der Computeranzeige. | Ja | |
| environment | OpenAI.ComputerEnvironment | Ja | ||
| type | enum | Der Typ des Tools zur Computernutzung. Immer computer_use_preview.Möglicher Wert: computer_use_preview |
Ja |
OpenAI.ContainerFileCitationBody
Eine Zitation für eine Containerdatei, die zur Generierung einer Modellantwort verwendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| container_id | Schnur | Die ID der Containerdatei. | Ja | |
| end_index | integer | Der Index des letzten Zeichens der Containerdatei-Zitation in der Nachricht. | Ja | |
| Datei-ID | Schnur | Die ID der Datei. | Ja | |
| filename | Schnur | Der Dateiname der angegebenen Containerdatei. | Ja | |
| start_index | integer | Der Index des ersten Zeichens der Containerdatei-Zitation in der Nachricht. | Ja | |
| type | enum | Der Typ der Container-Datei-Zitation. Immer container_file_citation.Möglicher Wert: container_file_citation |
Ja |
OpenAI.ContainerFileListResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.ContainerFileResource | Eine Liste der Containerdateien. | Ja | |
| first_id | Schnur | Die ID der ersten Datei in der Liste. | Ja | |
| has_more | boolean | Gibt an, ob weitere Dateien verfügbar sind. | Ja | |
| last_id | Schnur | Die ID der letzten Datei in der Liste. | Ja | |
| Objekt | enum | Der Typ des zurückgegebenen Objekts muss "list" sein. Möglicher Wert: list |
Ja |
OpenAI.ContainerFileResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Byte | integer | Größe der Datei in Byte. | Ja | |
| container_id | Schnur | Der Container, zu dem diese Datei gehört. | Ja | |
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen der Datei. | Ja | |
| id | Schnur | Eindeutiger Bezeichner für die Datei. | Ja | |
| Objekt | enum | Der Typ dieses Objekts (container.file).Möglicher Wert: container.file |
Ja | |
| Pfad | Schnur | Pfad der Datei im Container. | Ja | |
| source | Schnur | Quelle der Datei (z. B user. , assistant). |
Ja |
OpenAI.ContainerListResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.ContainerResource | Eine Liste von Containern. | Ja | |
| first_id | Schnur | Die ID des ersten Containers in der Liste. | Ja | |
| has_more | boolean | Gibt es weitere Container. | Ja | |
| last_id | Schnur | Die ID des letzten Containers in der Liste. | Ja | |
| Objekt | enum | Der Typ des zurückgegebenen Objekts muss "list" sein. Möglicher Wert: list |
Ja |
OpenAI.ContainerMemoryLimit
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | 1g4g16g64g |
OpenAI.ContainerResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Containers. | Ja | |
| expires_after | OpenAI.ContainerResourceExpiresAfter | Nein | ||
| └– Anker | enum | Möglicher Wert: last_active_at |
Nein | |
| └– Minuten | integer | Nein | ||
| id | Schnur | Eindeutiger Bezeichner für den Container. | Ja | |
| last_active_at | integer | Unix-Zeitstempel (in Sekunden), als der Container zuletzt aktiv war. | Nein | |
| Speicherbegrenzung | enum | Der für den Container konfigurierte Speichergrenzwert. Mögliche Werte: 1g, , 4g, 16g64g |
Nein | |
| Name | Schnur | Name des Containers. | Ja | |
| Objekt | Schnur | Der Typ dieses Objekts. | Ja | |
| status | Schnur | Status des Containers (z. B. aktiv, gelöscht). | Ja |
OpenAI.ContainerResourceExpiresAfter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| anchor | enum | Möglicher Wert: last_active_at |
Nein | |
| Protokoll | integer | Nein |
OpenAI.ConversationItem
Ein einzelnes Element in einer Unterhaltung. Der Satz möglicher Typen entspricht dem output Typ eines Response-Objekts.
Diskriminator für OpenAI.ConversationItem
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ConversationItemType | Ja |
OpenAI.ConversationItemApplyPatchToolCall
Ein Toolaufruf, der Datei-Diffs anwendet, indem Dateien erstellt, gelöscht oder aktualisiert werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diesen Toolaufruf erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID des Aufrufs des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| operation | OpenAI.ApplyPatchFileOperation | Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden. | Ja | |
| └– Typ | OpenAI.ApplyPatchFileOperationType | Ja | ||
| status | OpenAI.ApplyPatchCallStatus | Ja | ||
| type | enum | Der Typ des Elements Immer apply_patch_call.Möglicher Wert: apply_patch_call |
Ja |
OpenAI.ConversationItemApplyPatchToolCallOutput
Die Ausgabe, die von einem Aufruf des Apply Patch-Tools ausgegeben wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diese Toolaufrufausgabe erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID der Ausgabe des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| output | Zeichenfolge oder null | Nein | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Ja | ||
| type | enum | Der Typ des Elements Immer apply_patch_call_output.Möglicher Wert: apply_patch_call_output |
Ja |
OpenAI.ConversationItemCodeInterpreterToolCall
Ein Toolaufruf zum Ausführen von Code.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Zeichenfolge oder null | Ja | ||
| container_id | Schnur | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Ja | |
| id | Schnur | Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. | Ja | |
| Ergebnisse | Array von OpenAI.CodeInterpreterOutputLogs oder OpenAI.CodeInterpreterOutputImage oder null | Ja | ||
| status | enum | Der Status des Code-Interpreter-Werkzeugaufrufs. Gültige Werte sind in_progress, completed, incomplete, interpreting und failed.Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed |
Ja | |
| type | enum | Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.Möglicher Wert: code_interpreter_call |
Ja |
OpenAI.ConversationItemComputerToolCall
Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Computer-Nutzungsleitfaden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Ja | ||
| call_id | Schnur | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird | Ja | |
| id | Schnur | Die eindeutige ID des Computeraufrufs. | Ja | |
| pending_safety_checks | Array von OpenAI.ComputerCallSafetyCheckParam | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Der Typ des Computeraufrufs. Immer computer_call.Möglicher Wert: computer_call |
Ja |
OpenAI.ConversationItemComputerToolCallOutputResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | Array von OpenAI.ComputerCallSafetyCheckParam | Die von der API gemeldeten Sicherheitskontrollen, die von der API anerkannt wurden. entwickelnden Person bestätigt wurden |
Nein | |
| call_id | Schnur | Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. | Ja | |
| id | Schnur | Die ID der Ausgabe des Computertoolsaufrufs | Nein | |
| output | OpenAI.ComputerScreenshotImage | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. | Ja | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, , completedoderincomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.Möglicher Wert: computer_call_output |
Ja |
OpenAI.ConversationItemCustomToolCall
Ein Aufruf eines benutzerdefinierten Tools, das vom Modell erstellt wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Eine Identifikator, die verwendet wird, um diesen benutzerdefinierten Werkzeugaufruf auf die Ausgabe eines Werkzeugaufrufs abzubilden. | Ja | |
| id | Schnur | Die eindeutige ID des benutzerdefinierten Werkzeugaufrufs in der OpenAI-Plattform. | Nein | |
| Eingabe | Schnur | Die Eingabe für den benutzerdefinierten Werkzeugaufruf, der vom Modell generiert wird. | Ja | |
| Name | Schnur | Der Name des benutzerdefinierten Tools, das aufgerufen wird. | Ja | |
| type | enum | Der Typ des benutzerdefinierten Werkzeugaufrufs. Immer custom_tool_call.Möglicher Wert: custom_tool_call |
Ja |
OpenAI.ConversationItemCustomToolCallOutput
Die Ausgabe eines benutzerdefinierten Werkzeugaufrufs aus deinem Code, der an das Modell zurückgesendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die Aufruf-ID, die verwendet wird, um diesen benutzerdefinierten Werkzeugaufruf auf einen benutzerdefinierten Werkzeugaufruf zuzuordnen. | Ja | |
| id | Schnur | Die eindeutige ID des benutzerdefinierten Werkzeugaufrufs wird in der OpenAI-Plattform ausgegeben. | Nein | |
| output | Zeichenfolge oder Array von OpenAI.FunctionAndCustomToolCallOutput | Die Ausgabe des benutzerdefinierten Tool-Aufrufs, der von deinem Code generiert wird. Dies kann eine Zeichenfolge oder eine Liste von Ausgabeinhalten sein. |
Ja | |
| type | enum | Der Typ des benutzerdefinierten Werkzeugaufruf-Outputs. Immer custom_tool_call_output.Möglicher Wert: custom_tool_call_output |
Ja |
OpenAI.ConversationItemFileSearchToolCall
Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie im Suchleitfaden Datei.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des Aufrufs des Dateisuchtools. | Ja | |
| Abfragen | Array von Zeichenfolgen | Die Zum Suchen nach Dateien verwendeten Abfragen. | Ja | |
| results | Array von OpenAI.FileSearchToolCallResults oder Null | Nein | ||
| status | enum | Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,searching, incomplete oder failedMögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Ja | |
| type | enum | Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.Möglicher Wert: file_search_call |
Ja |
OpenAI.ConversationItemFunctionShellCall
Ein Toolaufruf, der einen oder mehrere Shellbefehle in einer verwalteten Umgebung ausführt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.FunctionShellAction | Führen Sie einen Shellbefehl aus. | Ja | |
| └– Befehle | Array von Zeichenfolgen | Ja | ||
| └– max_output_length | ganze Zahl oder Null | Ja | ||
| └– timeout_ms | ganze Zahl oder Null | Ja | ||
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diesen Toolaufruf erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID des Shelltoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| status | OpenAI.LocalShellCallStatus | Ja | ||
| type | enum | Der Typ des Elements Immer shell_call.Möglicher Wert: shell_call |
Ja |
OpenAI.ConversationItemFunctionShellCallOutput
Die Ausgabe eines Shelltoolaufrufs, der ausgegeben wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. | Ja | |
| created_by | Schnur | Der Bezeichner des Akteurs, der das Element erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID der Shellaufrufausgabe. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| max_output_length | ganze Zahl oder Null | Ja | ||
| output | Array von OpenAI.FunctionShellCallOutputContent | Ein Array von Shellaufrufausgabeinhalten | Ja | |
| type | enum | Der Typ der Shellaufrufausgabe. Immer shell_call_output.Möglicher Wert: shell_call_output |
Ja |
OpenAI.ConversationItemFunctionToolCallOutputResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| id | Schnur | Die eindeutige ID der Ausgabe des Funktionstoolaufrufs Aufgefüllt, wenn dieses Element wird über DIE API zurückgegeben. |
Nein | |
| output | Zeichenfolge oder Array von OpenAI.FunctionAndCustomToolCallOutput | Die Ausgabe des von Ihrem Code generierten Funktionsaufrufs. Dies kann eine Zeichenfolge oder eine Liste von Ausgabeinhalten sein. |
Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.Möglicher Wert: function_call_output |
Ja |
OpenAI.ConversationItemFunctionToolCallResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| id | Schnur | Die eindeutige ID des Aufrufs des Funktionswerkzeugs. | Nein | |
| Name | Schnur | Der Name der auszuführenden Funktion. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ des Funktionswerkzeuganrufs. Immer function_call.Möglicher Wert: function_call |
Ja |
OpenAI.ConversationItemImageGenToolCall
Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des Bilderzeugungsaufrufs. | Ja | |
| Ergebnis | Zeichenfolge oder null | Ja | ||
| status | enum | Der Status des Bilderzeugungsaufrufs. Mögliche Werte: in_progress, , completed, generatingfailed |
Ja | |
| type | enum | Der Typ des Bilderzeugungsaufrufs. Immer image_generation_call.Möglicher Wert: image_generation_call |
Ja |
OpenAI.ConversationItemList
Eine Liste von Unterhaltungselementen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.ConversationItem | Eine Liste von Unterhaltungselementen. | Ja | |
| first_id | Schnur | Die ID des ersten Elements in der Liste. | Ja | |
| has_more | boolean | Gibt an, ob weitere Elemente verfügbar sind. | Ja | |
| last_id | Schnur | Die ID des letzten Elements in der Liste. | Ja | |
| Objekt | enum | Der Typ des zurückgegebenen Objekts muss sein list.Möglicher Wert: list |
Ja |
OpenAI.ConversationItemLocalShellToolCall
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| id | Schnur | Die eindeutige ID des lokalen Shell-Anrufs. | Ja | |
| status | enum | Der Status des lokalen Shell-Anrufs. Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Die Art des lokalen Shell-Rufs. Immer local_shell_call.Möglicher Wert: local_shell_call |
Ja |
OpenAI.ConversationItemLocalShellToolCallOutput
Die Ausgabe eines Aufrufs eines lokalen Shelltools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| output | Schnur | Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. | Ja | |
| status | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des lokalen Schalenwerkzeug-Aufrufsausgangs. Immer local_shell_call_output.Möglicher Wert: local_shell_call_output |
Ja |
OpenAI.ConversationItemMcpApprovalRequest
Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Ja | |
| id | Schnur | Die eindeutige ID der Genehmigungsanfrage. | Ja | |
| Name | Schnur | Der Name des auszuführenden Tools. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. | Ja | |
| type | enum | Der Typ des Elements Immer mcp_approval_request.Möglicher Wert: mcp_approval_request |
Ja |
OpenAI.ConversationItemMcpApprovalResponseResource
Eine Antwort auf eine MCP-Genehmigungsanforderung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| approval_request_id | Schnur | Die ID der Genehmigungsanforderung, die beantwortet wird. | Ja | |
| Genehmigen | boolean | Gibt an, ob die Anforderung genehmigt wurde. | Ja | |
| id | Schnur | Die eindeutige ID der Genehmigungsantwort | Ja | |
| Grund | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des Elements Immer mcp_approval_response.Möglicher Wert: mcp_approval_response |
Ja |
OpenAI.ConversationItemMcpListTools
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Fehler | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die eindeutige ID der Liste. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers. | Ja | |
| Werkzeuge | Array von OpenAI.MCPListToolsTool | Die auf dem Server verfügbaren Tools. | Ja | |
| type | enum | Der Typ des Elements Immer mcp_list_tools.Möglicher Wert: mcp_list_tools |
Ja |
OpenAI.ConversationItemMcpToolCall
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| approval_request_id | Zeichenfolge oder null | Nein | ||
| Argumente | Schnur | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Ja | |
| Fehler | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die eindeutige ID des Toolaufrufs. | Ja | |
| Name | Schnur | Der Name des tools, das ausgeführt wurde. | Ja | |
| output | Zeichenfolge oder null | Nein | ||
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Ja | |
| status | OpenAI.MCPToolCallStatus | Nein | ||
| type | enum | Der Typ des Elements Immer mcp_call.Möglicher Wert: mcp_call |
Ja |
OpenAI.ConversationItemMessage
Eine Nachricht an oder aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.InputTextContent oder OpenAI.OutputTextContent oder OpenAI.TextContent oder OpenAI.SummaryTextContent oder OpenAI.ReasoningTextContent oder OpenAI.RefusalContent oder OpenAI.InputImageContent oder OpenAI.ComputerScreenshotContent oder OpenAI.InputFileContent | Der Inhalt der Nachricht | Ja | |
| id | Schnur | Die eindeutige ID der Nachricht. | Ja | |
| role | OpenAI.MessageRole | Ja | ||
| status | OpenAI.MessageStatus | Ja | ||
| type | enum | Der Typ der Nachricht. Immer auf message festgelegt.Möglicher Wert: message |
Ja |
OpenAI.ConversationItemReasoningItem
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Stellen Sie sicher, dass Sie diese Elemente in Ihre input in die Responses-API für spätere Runden eines Gesprächs aufnehmen, wenn Sie manuell Kontextverwaltung durchführen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.ReasoningTextContent | Argumentation des Textinhalts. | Nein | |
| encrypted_content | Zeichenfolge oder null | Nein | ||
| id | Schnur | Der eindeutige Bezeichner des Argumentationsinhalts. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| summary | Array von OpenAI.Summary | Inhalt der Zusammenfassung der Begründung. | Ja | |
| type | enum | Der Typ des Objekts. Immer reasoning.Möglicher Wert: reasoning |
Ja |
OpenAI.ConversationItemType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | messagefunction_callfunction_call_outputfile_search_callweb_search_callimage_generation_callcomputer_callcomputer_call_outputreasoningcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_callcustom_tool_callcustom_tool_call_output |
OpenAI.ConversationItemWebSearchToolCall
Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie im Web-Suchguide.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.WebSearchActionSearch oder OpenAI.WebSearchActionOpenPage oder OpenAI.WebSearchActionFind | Ein Objekt, das die spezifische Aktion beschreibt, die in diesem Websuchaufruf ausgeführt wird. Enthält Details dazu, wie das Modell das Web verwendet hat (Suchen, open_page, Suchen). |
Ja | |
| id | Schnur | Die eindeutige ID des Websuchwerkzeugs ruft auf. | Ja | |
| status | enum | Der Status des Aufrufs des Websuchtools. Mögliche Werte: in_progress, , searching, completedfailed |
Ja | |
| type | enum | Der Typ des Web-Suchwerkzeug-Aufrufs. Immer web_search_call.Möglicher Wert: web_search_call |
Ja |
OpenAI.ConversationParam
Die Unterhaltung, zu der diese Antwort gehört. Elemente aus dieser Unterhaltung werden dieser Antwortanforderung vorangestellt input_items .
Eingabeelemente und Ausgabeelemente aus dieser Antwort werden dieser Unterhaltung automatisch hinzugefügt, nachdem diese Antwort abgeschlossen wurde.
Typ: Zeichenfolge oder OpenAI.ConversationParam-2
Die Unterhaltung, zu der diese Antwort gehört. Elemente aus dieser Unterhaltung werden dieser Antwortanforderung vorangestellt input_items .
Eingabeelemente und Ausgabeelemente aus dieser Antwort werden dieser Unterhaltung automatisch hinzugefügt, nachdem diese Antwort abgeschlossen wurde.
OpenAI.ConversationParam-2
Die Unterhaltung, zu der diese Antwort gehört.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID der Unterhaltung. | Ja |
OpenAI.ConversationReference
Die Unterhaltung, zu der diese Antwort gehörte. Eingabeelemente und Ausgabeelemente aus dieser Antwort wurden dieser Unterhaltung automatisch hinzugefügt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID der Unterhaltung, der diese Antwort zugeordnet war. | Ja |
OpenAI.ConversationResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Die Zeit, zu der die Unterhaltung geschaffen wurde, gemessen in Sekunden seit der Unix-Epoche. | Ja | |
| id | Schnur | Die eindeutige ID der Unterhaltung. | Ja | |
| metadata | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Ja | ||
| Objekt | enum | Der Objekttyp, der immer conversation ist.Möglicher Wert: conversation |
Ja |
OpenAI.CreateChatCompletionRequestAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | enum | Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16 |
Ja | |
| voice | OpenAI.VoiceIdsShared | Ja |
OpenAI.CreateChatCompletionRequestResponseFormat
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Erfahren Sie mehr im Structured Outputs Leitfaden.
Durch das Festlegen auf { "type": "json_object" } wird der ältere JSON-Modus aktiviert. Dadurch wird sichergestellt, dass die vom Modell generierte Meldung gültiger JSON-Code ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Diskriminator für OpenAI.CreateChatCompletionRequestResponseFormat
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.CreateChatCompletionRequestResponseFormatType | Ja |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatResponseFormatJsonObject
JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten.
Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_object.Möglicher Wert: json_object |
Ja |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatResponseFormatText
Standardantwortformat. Wird verwendet, um Textantworten zu generieren.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer text.Möglicher Wert: text |
Ja |
OpenAI.CreateChatCompletionRequestResponseFormatType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | textjson_schemajson_object |
OpenAI.CreateChatCompletionResponseChoices
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Content-Filtern-Egebnisse | AzureContentFilterResultForChoice | Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. | Nein | |
| Beendigungsgrund | enum | Mögliche Werte: stop, , lengthtool_calls, , content_filterfunction_call |
Ja | |
| Index | integer | Ja | ||
| logprobs | OpenAI.CreateChatCompletionResponseChoicesLogprobs oder NULL | Ja | ||
| Nachricht | OpenAI.ChatCompletionResponseMessage | Wenn die Audioausgabemodalität angefordert wird, enthält dieses Objekt Daten über die Audioausgabe vom Modell. |
Ja |
OpenAI.CreateChatCompletionResponseChoicesLogprobs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.ChatCompletionTokenLogprob oder NULL | Ja | ||
| Ablehnung | Array von OpenAI.ChatCompletionTokenLogprob oder NULL | Ja |
OpenAI.CreateChatCompletionStreamResponseChoices
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | OpenAI.ChatCompletionStreamResponseDelta | Ein Chat-Vervollständigungsdelta, das von gestreamten Modellantworten generiert wurde. | Ja | |
| Beendigungsgrund | Zeichenfolge oder null | Ja | ||
| Index | integer | Ja | ||
| logprobs | OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs oder NULL | Nein |
OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.ChatCompletionTokenLogprob oder NULL | Ja | ||
| Ablehnung | Array von OpenAI.ChatCompletionTokenLogprob oder NULL | Ja |
OpenAI.CreateCompletionResponseChoices
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Content-Filtern-Egebnisse | AzureContentFilterResultForChoice | Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. | Nein | |
| Beendigungsgrund | enum | Mögliche Werte: stop, , lengthcontent_filter |
Ja | |
| Index | integer | Ja | ||
| logprobs | OpenAI.CreateCompletionResponseChoicesLogprobs oder NULL | Ja | ||
| Text | Schnur | Ja |
OpenAI.CreateCompletionResponseChoicesLogprobs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| text_offset | Array mit ganzzahliger Zahl | Nein | ||
| token_logprobs | Array der Zahl | Nein | ||
| tokens | Array von Zeichenfolgen | Nein | ||
| top_logprobs | Objektarray | Nein |
OpenAI.CreateContainerBody
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | OpenAI.CreateContainerBodyExpiresAfter | Nein | ||
| └– Anker | enum | Möglicher Wert: last_active_at |
Ja | |
| └– Minuten | integer | Ja | ||
| Datei-IDs | Array von Zeichenfolgen | IDs von Dateien, die in den Container kopiert werden sollen. | Nein | |
| Speicherbegrenzung | enum | Optionaler Speichergrenzwert für den Container. Der Standardwert ist "1g". Mögliche Werte: 1g, , 4g, 16g64g |
Nein | |
| Name | Schnur | Name des zu erstellenden Containers. | Ja |
OpenAI.CreateContainerBodyExpiresAfter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| anchor | enum | Möglicher Wert: last_active_at |
Ja | |
| Protokoll | integer | Ja |
OpenAI.CreateContainerFileBody
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file | Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. | Nein | ||
| Datei-ID | Schnur | Name der zu erstellenden Datei. | Nein |
OpenAI.CreateConversationBody
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Elemente | Array von OpenAI.InputItem oder NULL | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein |
OpenAI.CreateConversationItemsParametersBody
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Elemente | Array von OpenAI.InputItem | Ja |
OpenAI.CreateEmbeddingRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt.Einschränkungen: min: 1 |
Nein | |
| encoding_format | enum | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein.Mögliche Werte: float, base64 |
Nein | |
| Eingabe | Zeichenfolge oder Array von Zeichenfolge oder Array von ganzzahligem Array oder Array von Arrays | Eingabetext zum Einbetten, codiert als Zeichenfolge oder Array von Token. Übergeben Sie ein Array von Zeichenfolgen oder ein Array von Tokenarrays, um mehrere Eingaben in einer einzelnen Anforderung einzubetten. Die Eingabe darf die maximal zulässigen Eingabetoken für das Modell nicht überschreiten (8.192 Token für alle Einbettungsmodelle), darf keine leere Zeichenfolge sein, und jedes Array muss 2.048 Dimensionen oder kleiner sein. Beispiel-Python-Code zum Zählen von Token. Zusätzlich zum Grenzwert pro Eingabetoken erzwingen alle Einbettungsmodelle maximal 300.000 Token, die über alle Eingaben in einer einzigen Anforderung summiert wurden. | Ja | |
| Modell | Schnur | Die ID des zu verwendenden Modells. Sie können die Listenmodelle-API verwenden, um alle verfügbaren Modelle anzuzeigen, oder sie finden Sie in unserer Modellübersicht für Beschreibungen. | Ja | |
| user | Schnur | Erfahren Sie mehr. | Nein |
OpenAI.CreateEmbeddingResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.Embedding | Die Liste der vom Modell generierten Einbettungen. | Ja | |
| Modell | Schnur | Der Name des Modells, das zum Generieren der Einbettung verwendet wurde. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „list“ lautet. Möglicher Wert: list |
Ja | |
| usage | OpenAI.CreateEmbeddingResponseUsage | Ja | ||
| └– prompt_tokens | integer | Ja | ||
| └– total_tokens | integer | Ja |
OpenAI.CreateEmbeddingResponseUsage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prompt_tokens | integer | Ja | ||
| Gesamtanzahl Tokens | integer | Ja |
OpenAI.CreateEvalCompletionsRunDataSource
Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabenachrichten | OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference | Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. |
Nein | |
| Modell | Schnur | Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). | Nein | |
| Parameter für Stichprobennahme | AzureCompletionsSamplingParams | Samplingparameter zum Steuern des Verhaltens der Vervollständigungen. | Nein | |
| source | OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalStoredCompletionsSource | Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. |
Ja | |
| type | enum | Der Typ der Ausführungsdatenquelle. Immer completions.Möglicher Wert: completions |
Ja |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_reference | Schnur | Ja | ||
| type | enum | Möglicher Wert: item_reference |
Ja |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| template | Array von OpenAI.EasyInputMessage oder OpenAI.EvalItem | Ja | ||
| type | enum | Möglicher Wert: template |
Ja |
OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| max_completion_tokens | integer | Nein | ||
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| Antwortformat | OpenAI.ResponseFormatText oder OpenAI.ResponseFormatJsonSchema oder OpenAI.ResponseFormatJsonObject | Nein | ||
| seed | integer | Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. | Nein | 42 |
| Temperatur | number | Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. | Nein | 1 |
| Werkzeuge | Array von OpenAI.ChatCompletionTool | Nein | ||
| top_p | number | Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. | Nein | 1 |
OpenAI.CreateEvalCustomDataSourceConfig
Ein CustomDataSourceConfig-Objekt, das das Schema für die Datenquelle definiert, die für die Bewertungsläufe verwendet wird. Dieses Schema wird verwendet, um die Form der Daten zu definieren, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
- Welche Daten beim Erstellen einer Ausführung erforderlich sind
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beispielschema einfügen | boolean | Ob die Auswertung erwarten sollte, dass Sie den Beispiel-Namespace auffüllen (d. h. durch Generieren von Antworten aus der Datenquelle) | Nein | |
| Artikel-Schema | Objekt | Das JSON-Schema für jede Zeile in der Datenquelle. | Ja | |
| type | enum | Der Typ der Datenquelle. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.CreateEvalItem
Eine Chatnachricht, aus der der "Prompt" oder der Kontext besteht. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Schnur | Der Inhalt der Nachricht. | Ja | |
| role | Schnur | Die Rolle der Nachricht (z. B. "System", "Assistent", "Benutzer"). | Ja |
OpenAI.CreateEvalJsonlRunDataSource
Ein JsonlRunDataSource-Objekt, mit dem eine JSONL-Datei angegeben wird, die dem Bewertungsprozess entspricht.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| source | OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource | Bestimmt, was den item Namespace in der Datenquelle auffüllt. |
Ja | |
| type | enum | Der Typ der Datenquelle. Immer jsonl.Möglicher Wert: jsonl |
Ja |
OpenAI.CreateEvalLabelModelGrader
Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Array von OpenAI.CreateEvalItem | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann Variablenverweise auf den Namespace item enthalten, d.h. {{item.name}}. |
Ja | |
| labels | Array von Zeichenfolgen | Die Bezeichnungen, die verwendet werden, um jedes Element in der Auswertung zu klassifizieren. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| passing_labels | Array von Zeichenfolgen | Bezeichnungen für ein bestandenes Ergebnis. Muss eine Teilmenge von „labels“ (Bezeichnungen) sein | Ja | |
| type | enum | Der Objekttyp, der immer label_model ist.Möglicher Wert: label_model |
Ja |
OpenAI.CreateEvalLogsDataSourceConfig
Eine Datenquellenkonfiguration, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt.
Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | Objekt | Metadatenfilter für die Protokolldatenquelle. | Nein | |
| type | enum | Der Typ der Datenquelle. Immer logs.Möglicher Wert: logs |
Ja |
OpenAI.CreateEvalResponsesRunDataSource
Ein ResponsesRunDataSource-Objekt, das die Konfiguration einer Modellstichprobenentnahme beschreibt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabenachrichten | OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate oder OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference | Wird beim Sampling aus einem Modell verwendet. Bestimmt die Struktur der Nachrichten, die an das Modell übergeben werden. Kann entweder ein Verweis auf eine vordefinierte Flugbahn (ie, item.input_trajectory) oder eine Vorlage mit variablen Verweisen auf den item Namespace sein. |
Nein | |
| Modell | Schnur | Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). | Nein | |
| Parameter für Stichprobennahme | AzureResponsesSamplingParams | Samplingparameter zum Steuern des Verhaltens von Antworten. | Nein | |
| source | OpenAI.EvalJsonlFileContentSource oder OpenAI.EvalJsonlFileIdSource oder OpenAI.EvalResponsesSource | Bestimmt, was den Namespace in der item Datenquelle dieser Ausführung auffüllt. |
Ja | |
| type | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Möglicher Wert: responses |
Ja |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_reference | Schnur | Ja | ||
| type | enum | Möglicher Wert: item_reference |
Ja |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| template | Array des Objekts oder OpenAI.EvalItem | Ja | ||
| type | enum | Möglicher Wert: template |
Ja |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParams
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| seed | integer | Ein Ausgangswert initialisiert die Zufalls zufallslos während des Samplings. | Nein | 42 |
| Temperatur | number | Eine höhere Temperatur erhöht die Zufälligkeit in den Ergebnissen. | Nein | 1 |
| Text | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | Nein | ||
| Werkzeuge | Array von OpenAI.Tool | Nein | ||
| top_p | number | Eine Alternative zur Temperatur bei der Kern-Probenahme; 1.0 enthält alle Token. | Nein | 1 |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | OpenAI.TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,dadurch wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.*Nicht empfohlen für gpt-4o und neuere Modelle:** Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, derstellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schemawird für Modelle bevorzugt, die es unterstützen. |
Nein |
OpenAI.CreateEvalRunRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datenquelle | OpenAI.CreateEvalJsonlRunDataSource oder OpenAI.CreateEvalCompletionsRunDataSource oder OpenAI.CreateEvalResponsesRunDataSource | Details zur Datenquelle der Ausführung. | Ja | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Schnur | Name der Ausführung | Nein |
OpenAI.CreateEvalStoredCompletionsDataSourceConfig
Veraltet zugunsten von LogsDataSourceConfig.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | Objekt | Metadatenfilter für die gespeicherte Vervollständigungsdatenquelle. | Nein | |
| type | enum | Der Typ der Datenquelle. Immer stored_completions.Möglicher Wert: stored_completions |
Ja |
OpenAI.CreateFileRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | Objekt | Ja | ||
| └– Anker | AzureFileExpiryAnchor | Ja | ||
| └─ Sekunden | integer | Ja | ||
| file | Das Dateiobjekt (nicht der Dateiname), das hochgeladen werden soll. | Ja | ||
| Zweck | enum | Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: – assistants: Wird in der Assistenten-API verwendet – batch: Wird in der Batch-API verwendet – fine-tune: Wird für Feinabstimmung verwendet – evals: Wird für Bewertungsdatasets verwendenMögliche Werte: assistants, , batch, fine-tuneevals |
Ja |
OpenAI.CreateFineTuningCheckpointPermissionRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| project_ids | Array von Zeichenfolgen | Die Projektbezeichner, auf die Der Zugriff gewährt werden soll. | Ja |
OpenAI.CreateFineTuningJobRequest
Gültige Modelle:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Hyperparameter | OpenAI.CreateFineTuningJobRequestHyperparameters | Nein | ||
| └- batch_size | Zeichenfolge oder ganze Zahl | Nein | auto | |
| └– Lernraten-Multiplikator | Zeichenfolge oder Zahl | Nein | ||
| └– n_epochs | Zeichenfolge oder ganze Zahl | Nein | auto | |
| Integrationen | Array von OpenAI.CreateFineTuningJobRequestIntegrations oder null | Eine Liste der Integrationen, die für Ihren Feinabstimmungsauftrag aktiviert werden sollen. | Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| method | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | Nein | |
| Modell | string (siehe gültige Modelle unten) | Der Name des Modells, das fein abgestimmt werden soll. Sie können eines der folgenden unterstützte Modelle. |
Ja | |
| seed | ganze Zahl oder Null | Der Seed steuert die Reproduzierbarkeit des Auftrags. Die Übergabe der gleichen Seed- und Auftragsparameter sollte die gleichen Ergebnisse produzieren, kann sich aber in seltenen Fällen unterscheiden. Wenn Sie keinen Seed angeben, wird einer für Sie generiert. |
Nein | |
| suffix | Zeichenfolge oder null | Eine Zeichenfolge von bis zu 64 Zeichen, die dem Namen ihres fein abgestimmten Modells hinzugefügt wird. Beispielsweise würde ein suffix im Wert „custom-model-name“ einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel erzeugen. |
Nein | |
| Trainingsdatei | Schnur | Die ID einer hochgeladenen Datei, die Trainingsdaten enthält. Informationen zum Hochladen einer Datei finden Sie unter Hochladen einer Datei. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tune hochladen.Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet. Weitere Details finden Sie im Fine-Tuning-Leitfaden. |
Ja | |
| Validierungsdatei | Zeichenfolge oder null | Die ID einer hochgeladenen Datei, die Validierungsdaten enthält. Wenn Sie diese Datei angeben, werden die Daten verwendet, um Validierungs- Metriken regelmäßig während der Feinabstimmung zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden. Die gleichen Daten sollten nicht sowohl in Trainings- als auch in Validierungsdateien vorhanden sein. Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tune hochladen.Weitere Details finden Sie im Fine-Tuning-Leitfaden. |
Nein |
OpenAI.CreateFineTuningJobRequestHyperparameters
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Batch-Größe | Zeichenfolge oder ganze Zahl | Nein | ||
| Lernratenmultiplikator | Zeichenfolge oder Zahl | Nein | ||
| n_epochs | Zeichenfolge oder ganze Zahl | Nein |
OpenAI.CreateFineTuningJobRequestIntegrations
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: wandb |
Ja | |
| wandb | OpenAI.CreateFineTuningJobRequestIntegrationsWandb | Ja |
OpenAI.CreateFineTuningJobRequestIntegrationsWandb
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Entität | Zeichenfolge oder null | Nein | ||
| Name | Zeichenfolge oder null | Nein | ||
| Projekt | Schnur | Ja | ||
| tags | Array von Zeichenfolgen | Nein |
OpenAI.CreateMessageRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attachments | Array von OpenAI.CreateMessageRequestAttachments oder NULL | Nein | ||
| Inhalt | Zeichenfolge oder Array von OpenAI.MessageContentImageFileObject oder OpenAI.MessageContentImageUrlObject oder OpenAI.MessageRequestContentTextObject | Ja | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| role | enum | Die Rolle der Entität, die die Nachricht erstellt. Zulässige Werte sind: - user: Gibt an, dass die Nachricht von einem realen Benutzer gesendet wird, und sollte in den meisten Fällen verwendet werden, um benutzerseitig generierte Nachrichten darzustellen.- assistant: Gibt an, dass die Nachricht vom Assistenten generiert wird. Verwenden Sie diesen Wert, um Nachrichten aus dem Assistenten in die Unterhaltung einzufügen.Mögliche Werte: user, assistant |
Ja |
OpenAI.CreateMessageRequestAttachments
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Nein | ||
| Werkzeuge | Array von OpenAI.AssistantToolsCode oder OpenAI.AssistantToolsFileSearchTypeOnly | Nein |
OpenAI.CreateResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| background | Boolescher Wert oder Null | Nein | ||
| -Unterhaltung | OpenAI.ConversationParam oder NULL | Nein | ||
| einschließen | Array von OpenAI.IncludeEnum oder NULL | Nein | ||
| Eingabe | OpenAI.InputParam | Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen: - Texteingaben und -ausgaben - Bildeingänge - Dateieingaben - Gesprächszustand - Funktionsaufrufe |
Nein | |
| instructions | Zeichenfolge oder null | Nein | ||
| max_output_tokens | ganze Zahl oder Null | Nein | ||
| max_tool_calls | ganze Zahl oder Null | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| Parallele Werkzeugaufrufe | Boolescher Wert oder Null | Nein | ||
| previous_response_id | Zeichenfolge oder null | Nein | ||
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| reasoning | OpenAI.Reasoning oder NULL | Nein | ||
| safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| store | Boolescher Wert oder Null | Nein | ||
| Datenstrom | Boolescher Wert oder Null | Nein | ||
| stream_options | OpenAI.ResponseStreamOptions oder NULL | Nein | ||
| Temperatur | Zahl oder Null | Nein | ||
| Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| tool_choice | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| top_logprobs | ganze Zahl oder Null | Nein | ||
| top_p | Zahl oder Null | Nein | ||
| truncation | Zeichenfolge oder null | Nein | ||
| user | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein |
OpenAI.CreateRunRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| additional_instructions | Zeichenfolge oder null | Fügt zusätzliche Anweisungen am Ende der Anweisungen für die Ausführung an. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern, ohne andere Anweisungen außer Kraft zu setzen. | Nein | |
| additional_messages | Array von OpenAI.CreateMessageRequest oder NULL | Fügt dem Thread zusätzliche Nachrichten hinzu, bevor die Ausführung erstellt wird. | Nein | |
| assistant_id | Schnur | Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. | Ja | |
| instructions | Zeichenfolge oder null | Überschreibt die Anweisungen des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| max_completion_tokens | ganze Zahl oder Null | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| max_prompt_tokens | ganze Zahl oder Null | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | Nein | |
| Parallele Werkzeugaufrufe | OpenAI.ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| Antwortformat | OpenAI.AssistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Nein | |
| Datenstrom | Boolescher Wert oder Null | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
Nein | |
| Temperatur | Zahl oder Null | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. | Nein | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Nein | |
| Werkzeuge | Array von OpenAI.AssistantTool | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| top_p | Zahl oder Null | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
Nein | |
| truncation_strategy | OpenAI.TruncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Nein |
OpenAI.CreateThreadAndRunRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| assistant_id | Schnur | Die ID des Assistenten , der zum Ausführen dieser Ausführung verwendet werden soll. | Ja | |
| instructions | Zeichenfolge oder null | Überschreibt die Standardsystemmeldung des Assistenten. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| max_completion_tokens | ganze Zahl oder Null | Die maximale Anzahl von Vervollständigungstokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Vervollständigungstoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Vervollständigungstoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| max_prompt_tokens | ganze Zahl oder Null | Die maximale Anzahl von Prompttokens, die im Laufe der Ausführung verwendet werden können. Bei der Ausführung wird bestmöglich versucht, über mehrere Durchläufe der Ausführung hinweg nur die angegebene Anzahl von Prompttoken zu verwenden. Wenn die Ausführung die angegebene Anzahl von Prompttoken überschreitet, endet die Ausführung mit dem Status incomplete. Weitere Informationen finden Sie unter incomplete_details. |
Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Die ID des Modells , das zum Ausführen dieser Ausführung verwendet werden soll. Wenn hier ein Wert angegeben wird, überschreibt dieser das Modell, das dem Assistenten zugeordnet ist. Andernfalls wird das dem Assistenten zugeordnete Modell verwendet. | Nein | |
| Parallele Werkzeugaufrufe | OpenAI.ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Nein | |
| Antwortformat | OpenAI.AssistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Nein | |
| Datenstrom | Boolescher Wert oder Null | Bei Verwendung von true wird ein Datenstrom von Ereignissen, die während der Ausführung auftreten, als vom Server gesendete Ereignisse zurückgegeben. Der Datenstrom wird beendet, wenn die Ausführung einen Endzustand mit einer Nachricht vom Typ data: [DONE] erreicht. |
Nein | |
| Temperatur | Zahl oder Null | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. | Nein | |
| thread | OpenAI.CreateThreadRequest | Optionen zum Erstellen eines neuen Threads. Wenn beim Ausführen eines Threads kein Thread bereitgestellt wird anforderung, ein leerer Thread wird erstellt. |
Nein | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Nein | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources oder NULL | Eine Reihe von Ressourcen, die von den Tools des Assistenten verwendet werden. Die Ressourcen sind spezifisch für den Tooltyp. Beispielsweise erfordert das Tool code_interpreter eine Liste mit Datei-IDs, während das Tool file_search eine Liste mit Vektorspeicher-IDs erfordert. |
Nein | |
| Werkzeuge | Array von OpenAI.AssistantTool | Überschreibt die Tools, die der Assistent für diese Ausführung verwenden kann. Dies ist nützlich, um das Verhalten pro Ausführung zu ändern. | Nein | |
| top_p | Zahl oder Null | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
Nein | |
| truncation_strategy | OpenAI.TruncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Nein |
OpenAI.CreateThreadAndRunRequestToolResources
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter | Nein | ||
| file_search | OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch | Nein |
OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-IDs | Array von Zeichenfolgen | Nein | [] |
OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| vector_store_ids | Array von Zeichenfolgen | Nein |
OpenAI.CreateThreadRequest
Optionen zum Erstellen eines neuen Threads. Wenn beim Ausführen einer Anforderung kein Thread bereitgestellt wird, wird ein leerer Thread erstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| messages | Array von OpenAI.CreateMessageRequest | Eine Liste der Nachrichten , mit der der Thread gestartet werden soll. | Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources oder NULL | Nein |
OpenAI.CreateThreadRequestToolResources
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadRequestToolResourcesCodeInterpreter | Nein | ||
| file_search | Objekt oder Objekt | Nein |
OpenAI.CreateThreadRequestToolResourcesCodeInterpreter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-IDs | Array von Zeichenfolgen | Nein |
OpenAI.CreateVectorStoreFileBatchRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Nein | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
Nein | |
| Datei-IDs | Array von Zeichenfolgen | Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. Wenn attributes oder chunking_strategy bereitgestellt wird, werden sie auf alle Dateien im Batch angewendet. Gegenseitiger Ausschluss mit files |
Nein | |
| files | Array von OpenAI.CreateVectorStoreFileRequest | Eine Liste von Objekten, die jeweils ein file_id Pluszeichen enthalten, optional attributes oder chunking_strategy. Verwenden Sie diese Vorgehensweise, wenn Sie Metadaten für bestimmte Dateien außer Kraft setzen müssen. Die globale attributes oder chunking_strategy wird ignoriert und muss für jede Datei angegeben werden. Gegenseitiger Ausschluss mit file_ids |
Nein |
OpenAI.CreateVectorStoreFileRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Nein | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
Nein | |
| Datei-ID | Schnur | Eine Datei-ID , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Ja |
OpenAI.CreateVectorStoreRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Segmentierungsstrategie, die verwendet wird, um die Datei(en) in Blöcke zu unterteilen. Wenn kein Wert angegeben ist, wird die Strategie auto verwendet. Gilt nur, wenn file_ids nicht leer ist. |
Nein | |
| Beschreibung | Schnur | Eine Beschreibung für den Vektorspeicher. Kann verwendet werden, um den Zweck des Vektorspeichers zu beschreiben. | Nein | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| Datei-IDs | Array von Zeichenfolgen | Eine Liste der Datei-IDs , die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search, die auf Dateien zugreifen können. |
Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Schnur | Der Name des Vektorspeichers. | Nein |
OpenAI.CustomGrammarFormatParam
Eine vom Benutzer definierte Grammatik.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Definition | Schnur | Die Grammatik-Definition. | Ja | |
| syntax | OpenAI.GrammarSyntax1 | Ja | ||
| type | enum | Grammatikformat. Immer grammar.Möglicher Wert: grammar |
Ja |
OpenAI.CustomTextFormatParam
Uneingeschränkter freier Text.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Uneingeschränktes Textformat. Immer text.Möglicher Wert: text |
Ja |
OpenAI.CustomToolChatCompletions
Ein benutzerdefiniertes Tool, das Eingaben in einem festgelegten Format verarbeitet.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| custom | OpenAI.CustomToolChatCompletionsCustom | Ja | ||
| └– Beschreibung | Schnur | Nein | ||
| └─ Format | OpenAI.CustomToolChatCompletionsCustomFormatText oder OpenAI.CustomToolChatCompletionsCustomFormatGrammar | Nein | ||
| └– Name | Schnur | Ja | ||
| type | enum | Der Typ des benutzerdefinierten Werkzeugs. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.CustomToolChatCompletionsCustom
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Nein | ||
| format | OpenAI.CustomToolChatCompletionsCustomFormatText oder OpenAI.CustomToolChatCompletionsCustomFormatGrammar | Nein | ||
| Name | Schnur | Ja |
OpenAI.CustomToolChatCompletionsCustomFormatGrammar
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Grammatik | OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar | Ja | ||
| └- Definition | Schnur | Ja | ||
| └– Syntax | enum | Mögliche Werte: lark, regex |
Ja | |
| type | enum | Möglicher Wert: grammar |
Ja |
OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammar
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Definition | Schnur | Ja | ||
| syntax | enum | Mögliche Werte: lark, regex |
Ja |
OpenAI.CustomToolChatCompletionsCustomFormatText
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: text |
Ja |
OpenAI.CustomToolParam
Ein benutzerdefiniertes Tool, das Eingaben in einem festgelegten Format verarbeitet. Erfahren Sie mehr über benutzerdefinierte Tools
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Optionale Beschreibung des benutzerdefinierten Tools, das verwendet wird, um mehr Kontext zu liefern. | Nein | |
| format | OpenAI.CustomToolParamFormat | Das Eingabeformat für das benutzerdefinierte Tool. Standard ist uneingeschränkter Text. | Nein | |
| └– Typ | OpenAI.CustomToolParamFormatType | Ja | ||
| Name | Schnur | Der Name des benutzerdefinierten Werkzeugs, das verwendet wird, um es in Werkzeugaufrufen zu identifizieren. | Ja | |
| type | enum | Der Typ des benutzerdefinierten Werkzeugs. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.CustomToolParamFormat
Das Eingabeformat für das benutzerdefinierte Tool. Standard ist uneingeschränkter Text.
Diskriminator für OpenAI.CustomToolParamFormat
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
text |
OpenAI.CustomTextFormatParam |
grammar |
OpenAI.CustomGrammarFormatParam |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.CustomToolParamFormatType | Ja |
OpenAI.CustomToolParamFormatType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | textgrammar |
OpenAI.DeleteFileResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: file |
Ja |
OpenAI.DeleteFineTuningCheckpointPermissionResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Gibt an, ob die Berechtigung für den fein abgestimmten Modellprüfpunkt erfolgreich gelöscht wurde. | Ja | |
| id | Schnur | Die ID der optimierten Modellprüfpunktberechtigung, die gelöscht wurde. | Ja | |
| Objekt | enum | Der Objekttyp, der immer "checkpoint.permission" ist. Möglicher Wert: checkpoint.permission |
Ja |
OpenAI.DeleteMessageResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: thread.message.deleted |
Ja |
OpenAI.DeleteModelResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.DeleteThreadResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: thread.deleted |
Ja |
OpenAI.DeleteVectorStoreFileResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: vector_store.file.deleted |
Ja |
OpenAI.DeleteVectorStoreResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: vector_store.deleted |
Ja |
OpenAI.DeletedConversationResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| gelöscht | boolean | Ja | ||
| id | Schnur | Ja | ||
| Objekt | enum | Möglicher Wert: conversation.deleted |
Ja |
OpenAI.DoubleClickAction
Eine Doppelklickaktion
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf double_click gesetzt.Möglicher Wert: double_click |
Ja | |
| x | integer | Die x-Koordinate, an der der Doppelklick aufgetreten ist. | Ja | |
| y | integer | Die y-Koordinate, an der der Doppelklick aufgetreten ist. | Ja |
OpenAI.Drag
Eine Ziehaktion
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Pfad | Array von OpenAI.DragPoint | Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array angezeigt von Objekten, z. B. <br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br> |
Ja | |
| type | enum | Gibt den Ereignistyp an. Für eine Ziehaktion ist diese Eigenschaft immer auf drag festgelegt.Möglicher Wert: drag |
Ja |
OpenAI.DragPoint
Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| x | integer | Die x-Koordinate. | Ja | |
| y | integer | Die y-Koordinate. | Ja |
OpenAI.EasyInputMessage
Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | String oder OpenAI.InputMessageContentList oder OpenAI.InputMessageContentList | Text-, Bild- oder Audioeingabe für das Modell, um eine Antwort zu generieren. Kann auch frühere Assistentenantworten enthalten. |
Ja | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoderdeveloper.Mögliche Werte: user, , assistant, systemdeveloper |
Ja | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Möglicher Wert: message |
Ja |
OpenAI.Embedding
Stellt einen einbettenden Vektor dar, der vom Einbettungsendpunkt zurückgegeben wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| embedding | Array der Zahl | Der Einbettungsvektor, bei dem es sich um eine Liste von Floats handelt. Die Länge des Vektors hängt vom Modell ab, wie in der Einbettungsanleitung aufgeführt. | Ja | |
| Index | integer | Der Index der Einbettung in der Liste der Einbettungen | Ja | |
| Objekt | enum | Der Objekttyp, der immer „embedding“ ist. Möglicher Wert: embedding |
Ja |
OpenAI.Eval
Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Beispiel:
- Verbessern der Qualität meines Chatbots
- Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
- Überprüfen Sie, ob o4-mini bei meinem Anwendungsfall besser ist als gpt-4o
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. | Ja | |
| Datenquellenkonfiguration | OpenAI.EvalCustomDataSourceConfig oder OpenAI.EvalLogsDataSourceConfig oder OpenAI.EvalStoredCompletionsDataSourceConfig | Konfiguration von Datenquellen, die bei Ausführung der Auswertung verwendet werden. | Ja | |
| id | Schnur | Eindeutiger Bezeichner für die Auswertung. | Ja | |
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Name | Schnur | Der Name der Auswertung. | Ja | |
| Objekt | enum | Der Objekttyp. Möglicher Wert: eval |
Ja | |
| Testkriterien | Array von OpenAI.CreateEvalLabelModelGrader oder OpenAI.EvalGraderStringCheck oder OpenAI.EvalGraderTextSimilarity oder OpenAI.EvalGraderPython oder OpenAI.EvalGraderScoreModel oder EvalGraderEndpoint | Eine Liste der Testkriterien. | Ja |
OpenAI.EvalApiError
Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Schnur | Der Fehlercode. | Ja | |
| Nachricht | Schnur | Die Fehlermeldung. | Ja |
OpenAI.EvalCustomDataSourceConfig
Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt.
Das Antwortschema definiert die Form der Daten, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
- Welche Daten beim Erstellen einer Ausführung erforderlich sind
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Schema | Objekt | Das JSON-Schema für die Laufdatenquellenelemente. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| type | enum | Der Typ der Datenquelle. Immer custom.Möglicher Wert: custom |
Ja |
OpenAI.EvalGraderPython
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Nein | |
| source | Schnur | Der Quellcode des Python-Skripts. | Ja | |
| type | enum | Der Objekttyp, der immer python ist.Möglicher Wert: python |
Ja |
OpenAI.EvalGraderScoreModel
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Array von OpenAI.EvalItem | Die vom Grader ausgewerteten Eingabemeldungen. Unterstützt Text-, Ausgabetext-, Eingabebild- und Eingabe-Audioinhaltsblöcke und kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Nein | |
| range | Array der Zahl | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| Parameter für Stichprobennahme | OpenAI.EvalGraderScoreModelSamplingParams | Nein | ||
| └– max_completions_tokens | ganze Zahl oder Null | Nein | ||
| └– reasoning_effort | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| └- Samen | ganze Zahl oder Null | Nein | ||
| └– Temperatur | Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| type | enum | Der Objekttyp, der immer score_model ist.Möglicher Wert: score_model |
Ja |
OpenAI.EvalGraderScoreModelSamplingParams
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| max_completions_tokens | ganze Zahl oder Null | Nein | ||
| Denkanstrengung | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| seed | ganze Zahl oder Null | Nein | ||
| Temperatur | Zahl oder Null | Nein | ||
| top_p | Zahl oder Null | Nein |
OpenAI.EvalGraderStringCheck
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Schnur | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Ja | |
| Referenz | Schnur | Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| type | enum | Der Objekttyp, der immer string_check ist.Möglicher Wert: string_check |
Ja |
OpenAI.EvalGraderTextSimilarity
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5oder rouge_l.Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l |
Ja | |
| Eingabe | Schnur | Der Text, der benotet wird. | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| Schwellenwert erreichen | number | Der Schwellenwert für die Bewertung. | Ja | |
| Referenz | Schnur | Der Text, für die Bewertung. | Ja | |
| type | enum | Typ des Bewerters (Graders) Möglicher Wert: text_similarity |
Ja |
OpenAI.EvalItem
Meldungseingabe für das Modell mit einer Rolle für die Anweisung, gefolgt von der Hierarchie Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | OpenAI.EvalItemContent | Eingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Unterstützt Text, Ausgabetext, Eingabebilder und Eingabeaudio, entweder als einzelnes Element oder als Array von Elementen. | Ja | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoderdeveloper.Mögliche Werte: user, , assistant, systemdeveloper |
Ja | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Möglicher Wert: message |
Nein |
OpenAI.EvalItemContent
Eingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Unterstützt Text, Ausgabetext, Eingabebilder und Eingabeaudio, entweder als einzelnes Element oder als Array von Elementen.
Typ: OpenAI.EvalItemContentItem oder OpenAI.EvalItemContentArray
Eingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Unterstützt Text, Ausgabetext, Eingabebilder und Eingabeaudio, entweder als einzelnes Element oder als Array von Elementen.
OpenAI.EvalItemContentArray
Eine Liste der Eingaben, von denen jedes ein Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudioobjekt sein kann.
Array von: OpenAI.EvalItemContentItem
OpenAI.EvalItemContentItem
Ein einzelnes Inhaltselement: Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudio.
Typ: OpenAI.EvalItemContentText oder OpenAI.EvalItemContentItemObject
Ein einzelnes Inhaltselement: Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudio.
OpenAI.EvalItemContentItemObject
Ein einzelnes Inhaltselement: Eingabetext, Ausgabetext, Eingabebild oder Eingabeaudio.
Diskriminator für OpenAI.EvalItemContentItemObject
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
output_text |
OpenAI.EvalItemContentOutputText |
input_image |
OpenAI.EvalItemInputImage |
input_audio |
OpenAI.InputAudio |
input_text |
OpenAI.EvalItemContentItemObjectInputTextContent |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.EvalItemContentItemObjectType | Ja |
OpenAI.EvalItemContentItemObjectInputTextContent
Eine Texteingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Die Texteingabe für das Modell. | Ja | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Möglicher Wert: input_text |
Ja |
OpenAI.EvalItemContentItemObjectType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | input_textoutput_textinput_imageinput_audio |
OpenAI.EvalItemContentOutputText
Eine Textausgabe aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Die Textausgabe aus dem Modell. | Ja | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Möglicher Wert: output_text |
Ja |
OpenAI.EvalItemContentText
Eine Texteingabe für das Modell.
Typ: string
OpenAI.EvalItemInputImage
Ein Bildeingabeblock, der in EvalItem-Inhaltsarrays verwendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | Schnur | Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer der folgenden Werte: high, low oder auto. Wird standardmäßig auf auto festgelegt. |
Nein | |
| image_url | Schnur | Die URL der Bildeingabe. | Ja | |
| type | enum | Der Typ der Bildeingabe. Immer input_image.Möglicher Wert: input_image |
Ja |
OpenAI.EvalJsonlFileContentSource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.EvalJsonlFileContentSourceContent | Der Inhalt der JSONL-Datei. | Ja | |
| type | enum | Der Typ der JSONL-Quelle. Immer file_content.Möglicher Wert: file_content |
Ja |
OpenAI.EvalJsonlFileContentSourceContent
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item | Objekt | Ja | ||
| Beispiel | Objekt | Nein |
OpenAI.EvalJsonlFileIdSource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Der Bezeichner der Datei. | Ja | |
| type | enum | Der Typ der JSONL-Quelle. Immer file_id.Möglicher Wert: file_id |
Ja |
OpenAI.EvalList
Ein Objekt, das eine Liste von Evals darstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.Eval | Ein Array von Eval-Objekten. | Ja | |
| first_id | Schnur | Der Bezeichner der ersten Auswertung im Datenarray. | Ja | |
| has_more | boolean | Gibt an, ob weitere Evals verfügbar sind. | Ja | |
| last_id | Schnur | Der Bezeichner der letzten Auswertung im Datenarray. | Ja | |
| Objekt | enum | Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt. Möglicher Wert: list |
Ja |
OpenAI.EvalLogsDataSourceConfig
Eine LogsDataSourceConfig, welche die Metadateneigenschaft Ihrer Protokollabfrage angibt.
Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Evals verfügbar sind.
item und sample sind bei dieser Datenquellenkonfiguration beide definiert.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Schema | Objekt | Das JSON-Schema für die Laufdatenquellenelemente. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| type | enum | Der Typ der Datenquelle. Immer logs.Möglicher Wert: logs |
Ja |
OpenAI.EvalResponsesSource
Ein EvalResponsesSource-Objekt, das die Datenquellenkonfiguration einer Ausführung beschreibt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| created_after | ganze Zahl oder Null | Nein | ||
| erstellt_vor | ganze Zahl oder Null | Nein | ||
| instructions_search | Zeichenfolge oder null | Nein | ||
| metadata | -Objekt oder Null | Nein | ||
| Modell | Zeichenfolge oder null | Nein | ||
| Denkanstrengung | OpenAI.ReasoningEffort oder null | Nein | ||
| Temperatur | Zahl oder Null | Nein | ||
| Werkzeuge | Array von Zeichenfolge oder Null | Nein | ||
| top_p | Zahl oder Null | Nein | ||
| type | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Möglicher Wert: responses |
Ja | |
| Nutzer | Array von Zeichenfolge oder Null | Nein |
OpenAI.EvalRun
Ein Schema, das eine Auswertungsausführung darstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. | Ja | |
| Datenquelle | OpenAI.CreateEvalJsonlRunDataSource oder OpenAI.CreateEvalCompletionsRunDataSource oder OpenAI.CreateEvalResponsesRunDataSource | Informationen zur Datenquelle der Ausführung. | Ja | |
| Fehler | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | Ja | |
| eval_id | Schnur | Bezeichner der zugeordneten Auswertung | Ja | |
| id | Schnur | Eindeutiger Bezeichner für die Auswertungsausführung | Ja | |
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Modell | Schnur | Das Modell, das ausgewertet wird, falls zutreffend. | Ja | |
| Name | Schnur | Name der Auswertungsausführung | Ja | |
| Objekt | enum | Der Typ des Objekts. Immer „eval.run“ Möglicher Wert: eval.run |
Ja | |
| pro_Modell_Nutzung | Array von OpenAI.EvalRunPerModelUsage | Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. | Ja | |
| Ergebnisse_pro_Testkriterien | Array von OpenAI.EvalRunPerTestingCriteriaResults | Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. | Ja | |
| report_url | Schnur | URL zum gerenderten Bericht der Auswertungsausführung im Dashboard auf der Benutzeroberfläche | Ja | |
| Ergebnisanzahl | OpenAI.EvalRunResultCounts | Ja | ||
| └– fehler | integer | Ja | ||
| └– fehlgeschlagen | integer | Ja | ||
| └– bestanden | integer | Ja | ||
| └– Gesamtsumme | integer | Ja | ||
| status | Schnur | Status der Auswertungsausführung | Ja |
OpenAI.EvalRunList
Objekt, das eine Liste der Ausführungen einer Auswertung darstellt
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.EvalRun | Array von Objekten der Auswertungsausführung | Ja | |
| first_id | Schnur | Der Bezeichner des ersten Eval-Vorgangs im Datenarray. | Ja | |
| has_more | boolean | Gibt an, ob weitere Evals verfügbar sind. | Ja | |
| last_id | Schnur | Bezeichner der letzten Auswertungsausführung im Datenarray | Ja | |
| Objekt | enum | Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt. Möglicher Wert: list |
Ja |
OpenAI.EvalRunOutputItem
Ein Schema, das ein Ausgabeelement einer Auswertungsausführung darstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. | Ja | |
| Datenquellenobjekt | Objekt | Details zum Datenquellelement der Eingabe | Ja | |
| datasource_item_id | integer | Der Bezeichner für das Datenquellenelement. | Ja | |
| eval_id | Schnur | Der Bezeichner der Auswertungsgruppe. | Ja | |
| id | Schnur | Eindeutiger Bezeichner für das Ausgabeelement der Auswertungsausführung | Ja | |
| Objekt | enum | Der Typ des Objekts. Immer „eval.run.output_item“ Möglicher Wert: eval.run.output_item |
Ja | |
| results | Array von OpenAI.EvalRunOutputItemResult | Eine Liste der Bewertungsergebnisse für dieses Ausgabeelement. | Ja | |
| run_id | Schnur | Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. | Ja | |
| Beispiel | OpenAI.EvalRunOutputItemSample | Ja | ||
| └– Fehler | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | Ja | |
| └- finish_reason | Schnur | Ja | ||
| └– Eingabe | Array von OpenAI.EvalRunOutputItemSampleInput | Ja | ||
| └– max_completion_tokens | integer | Ja | ||
| └─ Modell | Schnur | Ja | ||
| └─ Ausgabe | Array von OpenAI.EvalRunOutputItemSampleOutput | Ja | ||
| └- Samen | integer | Ja | ||
| └– Temperatur | number | Ja | ||
| └– top_p | number | Ja | ||
| └– Nutzung | OpenAI.EvalRunOutputItemSampleUsage | Ja | ||
| status | Schnur | Status der Auswertungsausführung | Ja |
OpenAI.EvalRunOutputItemList
Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.EvalRunOutputItem | Array von Ausgabeelementobjekten einer Auswertungsausführung | Ja | |
| first_id | Schnur | Bezeichner des ersten Ausgabeelements einer Auswertungsausführung im Datenarray | Ja | |
| has_more | boolean | Gibt an, ob weitere Ausgabeelemente für die Auswertungsausführung verfügbar sind | Ja | |
| last_id | Schnur | Der Bezeichner des letzten Ausgabeelements des Eval-Durchlaufs im Datenarray. | Ja | |
| Objekt | enum | Der Typ dieses Objekts. Es ist immer auf „list“ festgelegt. Möglicher Wert: list |
Ja |
OpenAI.EvalRunOutputItemResult
Ein einzelnes Graderergebnis für ein Auswertungsausführungsausgabeelement.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| verabschiedet | boolean | Gibt an, ob der Grader die Ausgabe als Pass betrachtet hat. | Ja | |
| Beispiel | -Objekt oder Null | Optionale Beispiel- oder Zwischendaten, die vom Grader erzeugt werden. | Nein | |
| score | number | Die vom Grader erzeugte numerische Bewertung. | Ja | |
| type | Schnur | Der Gradertyp (z. B. "string-check-grader"). | Nein |
OpenAI.EvalRunOutputItemSample
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Fehler | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | Ja | |
| Beendigungsgrund | Schnur | Ja | ||
| Eingabe | Array von OpenAI.EvalRunOutputItemSampleInput | Ja | ||
| max_completion_tokens | integer | Ja | ||
| Modell | Schnur | Ja | ||
| output | Array von OpenAI.EvalRunOutputItemSampleOutput | Ja | ||
| seed | integer | Ja | ||
| Temperatur | number | Ja | ||
| top_p | number | Ja | ||
| usage | OpenAI.EvalRunOutputItemSampleUsage | Ja |
OpenAI.EvalRunOutputItemSampleInput
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Schnur | Ja | ||
| role | Schnur | Ja |
OpenAI.EvalRunOutputItemSampleOutput
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Schnur | Nein | ||
| role | Schnur | Nein |
OpenAI.EvalRunOutputItemSampleUsage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cached_tokens | integer | Ja | ||
| completion_tokens | integer | Ja | ||
| prompt_tokens | integer | Ja | ||
| Gesamtanzahl Tokens | integer | Ja |
OpenAI.EvalRunPerModelUsage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cached_tokens | integer | Ja | ||
| completion_tokens | integer | Ja | ||
| invocation_count | integer | Ja | ||
| model_name | Schnur | Ja | ||
| prompt_tokens | integer | Ja | ||
| Gesamtanzahl Tokens | integer | Ja |
OpenAI.EvalRunPerTestingCriteriaResults
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| misslungen | integer | Ja | ||
| verabschiedet | integer | Ja | ||
| Testkriterien | Schnur | Ja |
OpenAI.EvalRunResultCounts
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| fehlered | integer | Ja | ||
| misslungen | integer | Ja | ||
| verabschiedet | integer | Ja | ||
| gesamt | integer | Ja |
OpenAI.EvalStoredCompletionsDataSourceConfig
Veraltet zugunsten von LogsDataSourceConfig.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Schema | Objekt | Das JSON-Schema für die Laufdatenquellenelemente. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| type | enum | Der Typ der Datenquelle. Immer stored_completions.Möglicher Wert: stored_completions |
Ja |
OpenAI.EvalStoredCompletionsSource
Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| created_after | ganze Zahl oder Null | Nein | ||
| erstellt_vor | ganze Zahl oder Null | Nein | ||
| limit | ganze Zahl oder Null | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Zeichenfolge oder null | Nein | ||
| type | enum | Der Quelltyp. Immer stored_completions.Möglicher Wert: stored_completions |
Ja |
OpenAI.FileCitationBody
Ein Verweis auf eine Datei.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Die ID der Datei. | Ja | |
| filename | Schnur | Der Dateiname der Datei, auf die verwiesen wird. | Ja | |
| Index | integer | Der Index der Datei in der Liste der Dateien. | Ja | |
| type | enum | Der Typ des Dateizitats Immer file_citation.Möglicher Wert: file_citation |
Ja |
OpenAI.FilePath
Ein Pfad zu einer Datei.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Die ID der Datei. | Ja | |
| Index | integer | Der Index der Datei in der Liste der Dateien. | Ja | |
| type | enum | Der Typ des Dateipfads. Immer file_path.Möglicher Wert: file_path |
Ja |
OpenAI.FileSearchRanker
Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | autodefault_2024_08_21 |
OpenAI.FileSearchRankingOptions
Die Bewertungsoptionen für die Dateisuche. Wenn nicht angegeben, verwendet das Dateisuchtool den auto Rangfolger und einen score_threshold von 0.
Weitere Informationen finden Sie in der Dokumentation zum Dateisuchtool .
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.FileSearchRanker | Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet. |
Nein | |
| score-threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. Einschränkungen: min: 0, max: 1 |
Ja |
OpenAI.FileSearchTool
Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| filters | OpenAI.Filters oder NULL | Nein | ||
| max_anzahl_ergebnisse | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. | Nein | |
| Ranglistenoptionen | OpenAI.RankingOptions | Nein | ||
| └– hybrid_search | OpenAI.HybridSearchOptions | Gewichte, die steuern, wie reziproke Rangfusion semantische Einbettungsübereinstimmungen im Vergleich zu spärlichen Schlüsselwortübereinstimmungen ausbalanciert, wenn die hybride Suche aktiviert ist. | Nein | |
| └– Ranker | OpenAI.RankerVersionType | Der Rangfolger, der für die Dateisuche verwendet werden soll. | Nein | |
| └─ Punktschwelle | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. | Nein | |
| type | enum | Der Typ des Dateisuchtools. Immer file_search.Möglicher Wert: file_search |
Ja | |
| vector_store_ids | Array von Zeichenfolgen | Die IDs der zu durchsuchenden Vektorspeicher. | Ja |
OpenAI.FileSearchToolCallResults
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Nein | ||
| Datei-ID | Schnur | Nein | ||
| filename | Schnur | Nein | ||
| score | number | Nein | ||
| Text | Schnur | Nein |
OpenAI.Filters
Typ: OpenAI.ComparisonFilter oder OpenAI.CompoundFilter
OpenAI.FineTuneDPOHyperparameters
Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Batch-Größe | Zeichenfolge oder ganze Zahl | Anzahl der Beispiele in jedem Batch. Eine größere Batchgröße bedeutet, dass Modellparameter weniger häufig aktualisiert werden, aber mit geringerer Varianz. | Nein | |
| Beta | Zeichenfolge oder Zahl | Der Betawert für die DPO-Methode. Ein höherer Betawert erhöht die Gewichtung der Strafe zwischen der Richtlinie und dem Referenzmodell. | Nein | |
| Lernratenmultiplikator | Zeichenfolge oder Zahl | Skalierungsfaktor für die Lernrate. Eine kleinere Lernrate kann nützlich sein, um Überanpassung zu vermeiden. | Nein | |
| n_epochs | Zeichenfolge oder ganze Zahl | Die Anzahl der Epochen zum Trainieren des Modells. Eine Epoche bezieht sich auf einen vollständigen Zyklus durch das Trainingsdataset. | Nein |
OpenAI.FineTuneDPOMethod
Konfiguration für die DPO-Feinabstimmungsmethode.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Hyperparameter | OpenAI.FineTuneDPOHyperparameters | Die Hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. | Nein |
OpenAI.FineTuneMethod
Die Methode, die für die Feinabstimmung verwendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| dpo | OpenAI.FineTuneDPOMethod | Konfiguration für die DPO-Feinabstimmungsmethode. | Nein | |
| Verstärkung | AzureFineTuneReinforcementMethod | Nein | ||
| überwacht | OpenAI.FineTuneSupervisedMethod | Konfiguration für die überwachte Feinabstimmungsmethode. | Nein | |
| type | enum | Der Typ der Methode. Ist entweder supervised, dpo oder reinforcement.Mögliche Werte: supervised, , dporeinforcement |
Ja |
OpenAI.FineTuneReinforcementHyperparameters
Die für den Feinabstimmungsauftrag der Verstärkung verwendeten Hyperparameter.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Batch-Größe | Zeichenfolge oder ganze Zahl | Anzahl der Beispiele in jedem Batch. Eine größere Batchgröße bedeutet, dass Modellparameter weniger häufig aktualisiert werden, aber mit geringerer Varianz. | Nein | |
| compute_multiplier | Zeichenfolge oder Zahl | Multiplizierer für die Berechnungsmenge, die für die Erkundung des Suchraums während der Schulung verwendet wird. | Nein | |
| eval_interval | Zeichenfolge oder ganze Zahl | Die Anzahl der Schulungsschritte zwischen den Auswertungsläufen. | Nein | |
| eval_samples | Zeichenfolge oder ganze Zahl | Anzahl der Auswertungsbeispiele, die pro Schulungsschritt generiert werden sollen. | Nein | |
| Lernratenmultiplikator | Zeichenfolge oder Zahl | Skalierungsfaktor für die Lernrate. Eine kleinere Lernrate kann nützlich sein, um Überanpassung zu vermeiden. | Nein | |
| n_epochs | Zeichenfolge oder ganze Zahl | Die Anzahl der Epochen zum Trainieren des Modells. Eine Epoche bezieht sich auf einen vollständigen Zyklus durch das Trainingsdataset. | Nein | |
| Denkanstrengung | enum | Ebene des Begründungsaufwands. Mögliche Werte: default, , low, mediumhigh |
Nein |
OpenAI.FineTuneSupervisedHyperparameters
Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Batch-Größe | Zeichenfolge oder ganze Zahl | Anzahl der Beispiele in jedem Batch. Eine größere Batchgröße bedeutet, dass Modellparameter weniger häufig aktualisiert werden, aber mit geringerer Varianz. | Nein | |
| Lernratenmultiplikator | Zeichenfolge oder Zahl | Skalierungsfaktor für die Lernrate. Eine kleinere Lernrate kann nützlich sein, um Überanpassung zu vermeiden. | Nein | |
| n_epochs | Zeichenfolge oder ganze Zahl | Die Anzahl der Epochen zum Trainieren des Modells. Eine Epoche bezieht sich auf einen vollständigen Zyklus durch das Trainingsdataset. | Nein |
OpenAI.FineTuneSupervisedMethod
Konfiguration für die überwachte Feinabstimmungsmethode.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Hyperparameter | OpenAI.FineTuneSupervisedHyperparameters | Die Hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. | Nein |
OpenAI.FineTuningCheckpointPermission
Das checkpoint.permission Objekt stellt eine Berechtigung für einen fein abgestimmten Modellprüfpunkt dar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Berechtigung. | Ja | |
| id | Schnur | Der Berechtigungsbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Objekt | enum | Der Objekttyp, der immer "checkpoint.permission" ist. Möglicher Wert: checkpoint.permission |
Ja | |
| project_id | Schnur | Der Projektbezeichner, für den die Berechtigung gilt. | Ja |
OpenAI.FineTuningIntegration
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird Möglicher Wert: wandb |
Ja | |
| wandb | OpenAI.FineTuningIntegrationWandb | Ja | ||
| └– Entität | Zeichenfolge oder null | Nein | ||
| └– Name | Zeichenfolge oder null | Nein | ||
| └- Projekt | Schnur | Ja | ||
| └- Tags | Array von Zeichenfolgen | Nein |
OpenAI.FineTuningIntegrationWandb
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Entität | Zeichenfolge oder null | Nein | ||
| Name | Zeichenfolge oder null | Nein | ||
| Projekt | Schnur | Ja | ||
| tags | Array von Zeichenfolgen | Nein |
OpenAI.FineTuningJob
Das Objekt fine_tuning.job stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. | Ja | |
| Fehler | OpenAI.FineTuningJobError oder null | Ja | ||
| geschätzte Fertigstellung | Zeichenfolge oder null | Nein | ||
| fine_tuned_model | Zeichenfolge oder null | Ja | ||
| finished_at | Zeichenfolge oder null | Ja | ||
| Hyperparameter | OpenAI.FineTuningJobHyperparameters | Ja | ||
| └- batch_size | Zeichenfolge oder ganze Zahl oder Null | Nein | auto | |
| └– Lernraten-Multiplikator | Zeichenfolge oder Zahl | Nein | ||
| └– n_epochs | Zeichenfolge oder ganze Zahl | Nein | auto | |
| id | Schnur | Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Integrationen | Array von OpenAI.FineTuningIntegration oder null | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| method | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | Nein | |
| Modell | Schnur | Das Basismodell, das fein abgestimmt wird. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „fine_tuning.job“ ist. Möglicher Wert: fine_tuning.job |
Ja | |
| organization_id | Schnur | Die Organisation, die den Feinabstimmungsauftrag besitzt. | Ja | |
| Ergebnisdateien | Array von Zeichenfolgen | Die kompilierten Ergebnisdatei-ID(s) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. | Ja | |
| seed | integer | Der für den Optimierungsauftrag verwendete Seed | Ja | |
| status | enum | Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, queued, running, succeeded, failed oder cancelled sein kann.Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled |
Ja | |
| trainierte Token | ganze Zahl oder Null | Ja | ||
| Trainingsdatei | Schnur | Die Datei-ID, die für das Training verwendet wird. Sie können die Schulungsdaten mit der Dateien-API abrufen. | Ja | |
| Validierungsdatei | Zeichenfolge oder null | Ja |
OpenAI.FineTuningJobCheckpoint
Das Objekt fine_tuning.job.checkpoint stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. | Ja | |
| fine_tuned_model_checkpoint | Schnur | Der Name des erstellten fein abgestimmten Prüfpunktmodells. | Ja | |
| fine_tuning_job_id | Schnur | Name des Optimierungsauftrags, aus dem dieser Prüfpunkt erstellt wurde | Ja | |
| id | Schnur | Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| metrics | OpenAI.FineTuningJobCheckpointMetrics | Ja | ||
| └– full_valid_loss | number | Nein | ||
| └– Durchschnittliche Token-Genauigkeit für die gültigen vollständigen Daten | number | Nein | ||
| └– Schritt | number | Nein | ||
| └– train_loss | number | Nein | ||
| └– train_mean_token_accuracy | number | Nein | ||
| └– valid_loss | number | Nein | ||
| └– valid_mean_token_accuracy | number | Nein | ||
| Objekt | enum | Der Objekttyp, der immer „fine_tuning.job.checkpoint“ ist. Möglicher Wert: fine_tuning.job.checkpoint |
Ja | |
| Schrittnummer | integer | Die Schrittnummer, bei der der Prüfpunkt erstellt wurde. | Ja |
OpenAI.FineTuningJobCheckpointMetrics
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| full_valid_loss | number | Nein | ||
| full_valid_mean_token_accuracy | number | Nein | ||
| Schritt | number | Nein | ||
| train_loss | number | Nein | ||
| train_mean_token_accuracy | number | Nein | ||
| valid_loss | number | Nein | ||
| valid_mean_token_accuracy | number | Nein |
OpenAI.FineTuningJobError
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Schnur | Ja | ||
| Nachricht | Schnur | Ja | ||
| param | Zeichenfolge oder null | Ja |
OpenAI.FineTuningJobEvent
Ereignisobjekt des Feinabstimmungsauftrags
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Feinabstimmungsauftrags. | Ja | |
| Daten | OpenAI.FineTuningJobEventData | Nein | ||
| id | Schnur | Der Objektbezeichner. | Ja | |
| Ebene | enum | Der Protokolliergrad des Ereignisses. Mögliche Werte: info, , warnerror |
Ja | |
| Nachricht | Schnur | Die Meldung des Ereignisses. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „fine_tuning.job.event“ ist. Möglicher Wert: fine_tuning.job.event |
Ja | |
| type | enum | Den Typ des Ereignisses Mögliche Werte: message, metrics |
Nein |
OpenAI.FineTuningJobEventData
Typ: Objekt
OpenAI.FineTuningJobHyperparameters
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Batch-Größe | Zeichenfolge oder ganze Zahl oder Null | Nein | ||
| Lernratenmultiplikator | Zeichenfolge oder Zahl | Nein | ||
| n_epochs | Zeichenfolge oder ganze Zahl | Nein |
OpenAI.FunctionAndCustomToolCallOutput
Diskriminator für OpenAI.FunctionAndCustomToolCallOutput
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
input_text |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent |
input_image |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent |
input_file |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.FunctionAndCustomToolCallOutputType | Ja |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Eine Dateieingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file_data | Schnur | Der Inhalt der Datei, die an das Modell gesendet werden soll. | Nein | |
| Datei-ID | Zeichenfolge oder null | Nein | ||
| file_url | Schnur | Die URL der Datei, die an das Modell gesendet werden soll. | Nein | |
| filename | Schnur | Der Name der Datei, die an das Modell gesendet werden soll. | Nein | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Möglicher Wert: input_file |
Ja |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent
Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | OpenAI.ImageDetail | Ja | ||
| Datei-ID | Zeichenfolge oder null | Nein | ||
| image_url | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des Eingabeelements. Immer input_image.Möglicher Wert: input_image |
Ja |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent
Eine Texteingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Die Texteingabe für das Modell. | Ja | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Möglicher Wert: input_text |
Ja |
OpenAI.FunctionAndCustomToolCallOutputType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | input_textinput_imageinput_file |
OpenAI.FunctionObject
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | Nein | |
| Name | Schnur | Der Name der funktion, die aufgerufen werden soll. Muss aus a–z, A–Z, 0–9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. | Ja | |
| parameters | OpenAI.FunctionParameters | Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Siehe die leitfaden für Beispiele und die JSON Schema Reference für Dokumentationen zum Format. Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert. |
Nein | |
| strict | Boolescher Wert oder Null | Nein |
OpenAI.FunctionParameters
Die Parameter, die die Funktion akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Siehe die leitfaden für Beispiele und die JSON Schema Reference für Dokumentationen zum Format.
Wenn parameters weggelassen wird, wird eine Funktion mit einer leeren Parameterliste definiert.
Typ: Objekt
OpenAI.FunctionShellAction
Führen Sie einen Shellbefehl aus.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| commands | Array von Zeichenfolgen | Ja | ||
| max_output_length | ganze Zahl oder Null | Ja | ||
| timeout_ms | ganze Zahl oder Null | Ja |
OpenAI.FunctionShellCallOutputContent
Der Inhalt einer Shelltoolaufrufausgabe, die ausgegeben wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| created_by | Schnur | Der Bezeichner des Akteurs, der das Element erstellt hat. | Nein | |
| Ergebnis | OpenAI.FunctionShellCallOutputOutcome | Stellt entweder ein Ausgangsergebnis (mit einem Exitcode) oder ein Timeoutergebnis für einen Shell-Aufrufausgabeblock dar. | Ja | |
| └– Typ | OpenAI.FunctionShellCallOutputOutcomeType | Ja | ||
| Stderr | Schnur | Die Standardfehlerausgabe, die erfasst wurde. | Ja | |
| Stdout | Schnur | Die Standardausgabe, die erfasst wurde. | Ja |
OpenAI.FunctionShellCallOutputExitOutcome
Zeigt an, dass die Shell-Befehle abgeschlossen sind und einen Exit-Code zurückgegeben haben.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| exit_code | integer | Beenden Sie Code aus dem Shellprozess. | Ja | |
| type | enum | Der Ergebnistyp. Immer exit.Möglicher Wert: exit |
Ja |
OpenAI.FunctionShellCallOutputOutcome
Stellt entweder ein Ausgangsergebnis (mit einem Exitcode) oder ein Timeoutergebnis für einen Shell-Aufrufausgabeblock dar.
Diskriminator für OpenAI.FunctionShellCallOutputOutputOutcome
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
timeout |
OpenAI.FunctionShellCallOutputTimeoutOutcome |
exit |
OpenAI.FunctionShellCallOutputExitOutcome |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.FunctionShellCallOutputOutcomeType | Ja |
OpenAI.FunctionShellCallOutputOutcomeType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | timeoutexit |
OpenAI.FunctionShellCallOutputTimeoutOutcome
Zeigt an, dass der Shell-Aufruf das konfigurierte Zeitlimit überschritten hat.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Ergebnistyp. Immer timeout.Möglicher Wert: timeout |
Ja |
OpenAI.FunctionShellToolParam
Ein Werkzeug, das es dem Modell ermöglicht, Shell-Befehle auszuführen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Patronenwerkzeugs. Immer shell.Möglicher Wert: shell |
Ja |
OpenAI.FunctionTool
Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Zeichenfolge oder null | Nein | ||
| Name | Schnur | Der Name der aufzurufenden Funktion. | Ja | |
| parameters | -Objekt oder Null | Ja | ||
| strict | Boolescher Wert oder Null | Ja | ||
| type | enum | Der Typ des Funktionstools. Immer function.Möglicher Wert: function |
Ja |
OpenAI.GraderMulti
Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Bewerter, um eine einzelne Bewertung zu erzeugen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| calculate_output | Schnur | Eine Formel zum Berechnen der Ausgabe basierend auf den Ergebnissen des Bewerters. | Ja | |
| Bewerter | OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderScoreModel oder GraderEndpoint | Ja | ||
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| type | enum | Der Objekttyp, der immer multi ist.Möglicher Wert: multi |
Ja |
OpenAI.GraderPython
Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| image_tag | Schnur | Das Bildtag, das für das Python-Skript verwendet werden soll. | Nein | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| source | Schnur | Der Quellcode des Python-Skripts. | Ja | |
| type | enum | Der Objekttyp, der immer python ist.Möglicher Wert: python |
Ja |
OpenAI.GraderScoreModel
Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Array von OpenAI.EvalItem | Die vom Grader ausgewerteten Eingabemeldungen. Unterstützt Text-, Ausgabetext-, Eingabebild- und Eingabe-Audioinhaltsblöcke und kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Modell | Schnur | Das Modell, das für die Auswertung verwendet werden soll. | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| range | Array der Zahl | Der Bereich für den Score Wird standardmäßig auf [0, 1] festgelegt. |
Nein | |
| Parameter für Stichprobennahme | OpenAI.EvalGraderScoreModelSamplingParams | Nein | ||
| └– max_completions_tokens | ganze Zahl oder Null | Nein | ||
| └– reasoning_effort | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| └- Samen | ganze Zahl oder Null | Nein | ||
| └– Temperatur | Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| type | enum | Der Objekttyp, der immer score_model ist.Möglicher Wert: score_model |
Ja |
OpenAI.GraderStringCheck
Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Schnur | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang Einer der folgenden Werte: eq, ne, like oder ilike.Mögliche Werte: eq, , ne, likeilike |
Ja | |
| Referenz | Schnur | Der Referenztext. Dies kann Vorlagenzeichenfolgen enthalten. | Ja | |
| type | enum | Der Objekttyp, der immer string_check ist.Möglicher Wert: string_check |
Ja |
OpenAI.GraderTextSimilarity
Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewertungsmetrik | enum | Die zu verwendende Auswertungsmetrik. Einer der folgenden Werte: cosine, fuzzy_match, bleu,gleu, meteor, rouge_1, rouge_2, rouge_3, rouge_4, rouge_5oder rouge_l.Mögliche Werte: cosine, , fuzzy_match, bleu, gleumeteor, rouge_1, rouge_2rouge_3rouge_4rouge_5rouge_l |
Ja | |
| Eingabe | Schnur | Der Text, der benotet wird. | Ja | |
| Name | Schnur | Name des Bewerters (Graders) | Ja | |
| Referenz | Schnur | Der Text, für die Bewertung. | Ja | |
| type | enum | Typ des Bewerters (Graders) Möglicher Wert: text_similarity |
Ja |
OpenAI.GrammarSyntax1
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | larkregex |
OpenAI.HybridSearchOptions
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| embedding_weight | number | Das Gewicht der Einbettung in der reziproken Rangfolgefusion. | Ja | |
| text_weight | number | Das Gewicht des Textes in der wechselseitigen Rangfolgefusion. | Ja |
OpenAI.ImageDetail
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | lowhighauto |
OpenAI.ImageGenTool
Ein Tool, das Bilder mithilfe der GPT-Bildmodelle generiert.
Gültige Modelle:
gpt-image-1
gpt-image-1-mini
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| background | enum | Hintergrundtyp für das generierte Bild. Einer von transparent,opaque oder auto. Standardwert: auto.Mögliche Werte: transparent, , opaqueauto |
Nein | |
| input_fidelity | OpenAI.InputFidelity oder NULL | Nein | ||
| input_image_mask | OpenAI.ImageGenToolInputImageMask | Nein | ||
| └– file_id | Schnur | Nein | ||
| └– image_url | Schnur | Nein | ||
| Modell | string (siehe gültige Modelle unten) | Nein | ||
| moderation | enum | Moderationsebene für das generierte Bild. Standardwert: auto.Mögliche Werte: auto, low |
Nein | |
| Ausgabekomprimierung | integer | Komprimierungsebene für das Ausgabebild. Standardwert: 100. Einschränkungen: min: 0, max: 100 |
Nein | 100 |
| Ausgabeformat | enum | Das Ausgabeformat des generierten Bilds. Einer von png, , webpoderjpeg. Standardwert: png.Mögliche Werte: png, , webpjpeg |
Nein | |
| unvollständige Bilder | integer | Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. Einschränkungen: min: 0, max: 3 |
Nein | |
| quality | enum | Die Qualität des generierten Bilds. Einer der folgenden Werte: low, medium, high,oder auto. Standardwert: auto.Mögliche Werte: low, , medium, highauto |
Nein | |
| Größe | enum | Die Größe des generierten Bilds. Einer der folgenden Werte: 1024x1024, 1024x1536,1536x1024 oder auto. Standardwert: auto.Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto |
Nein | |
| type | enum | Der Typ des Tools zur Bildgenerierung. Immer image_generation.Möglicher Wert: image_generation |
Ja |
OpenAI.ImageGenToolInputImageMask
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Nein | ||
| image_url | Schnur | Nein |
OpenAI.IncludeEnum
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
-
web_search_call.action.sources: Schließen Sie die Quellen des Aufrufs des Websuchtools ein. -
code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters. -
computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen. -
file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein. -
message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein. -
reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn derstore-Parameter auffalsefestgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt).
| Eigentum | Wert |
|---|---|
| Beschreibung | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: |
-
web_search_call.action.sources: Schließen Sie die Quellen des Aufrufs des Websuchtools ein. -
code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in den Toolaufrufelementen des Code-Interpreters. -
computer_call_output.output.image_url: Bild-URLs aus dem Ergebnis einer Computeranfrage einfügen. -
file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein. -
message.output_text.logprobs: Fügen Sie Protokollwahrscheinlichkeiten (logprobs) in Assistentennachrichten ein. -
reasoning.encrypted_content: Enthält eine verschlüsselte Version von Argumentationstoken in den Ergebnissen von Argumentationselementen. Dies ermöglicht die Verwendung von logischen Elementen in mehrteiligen Unterhaltungen, wenn die Antworten-API zustandslos verwendet wird (z. B. wenn derstore-Parameter auffalsefestgelegt ist oder wenn eine Organisation am Null-Datenaufbewahrungsprgramm teilnimmt). | | Typ | string | | Werte |file_search_call.resultsweb_search_call.resultsweb_search_call.action.sourcesmessage.input_image.image_urlcomputer_call_output.output.image_urlcode_interpreter_call.outputsreasoning.encrypted_contentmessage.output_text.logprobs|
OpenAI.InputAudio
Eine Audioeingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| input_audio | OpenAI.InputAudioInputAudio | Ja | ||
| type | enum | Der Typ des Eingabeelements. Immer input_audio.Möglicher Wert: input_audio |
Ja |
OpenAI.InputAudioInputAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Schnur | Ja | ||
| format | enum | Mögliche Werte: mp3, wav |
Ja |
OpenAI.InputContent
Diskriminator für OpenAI.InputContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
input_text |
OpenAI.InputContentInputTextContent |
input_image |
OpenAI.InputContentInputImageContentContent |
input_file |
OpenAI.InputContentInputFileContent |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.InputContentType | Ja |
OpenAI.InputContentInputFileContent
Eine Dateieingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file_data | Schnur | Der Inhalt der Datei, die an das Modell gesendet werden soll. | Nein | |
| Datei-ID | Zeichenfolge oder null | Nein | ||
| file_url | Schnur | Die URL der Datei, die an das Modell gesendet werden soll. | Nein | |
| filename | Schnur | Der Name der Datei, die an das Modell gesendet werden soll. | Nein | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Möglicher Wert: input_file |
Ja |
OpenAI.InputContentInputImageContentContent
Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | OpenAI.ImageDetail | Ja | ||
| Datei-ID | Zeichenfolge oder null | Nein | ||
| image_url | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des Eingabeelements. Immer input_image.Möglicher Wert: input_image |
Ja |
OpenAI.InputContentInputTextContent
Eine Texteingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Die Texteingabe für das Modell. | Ja | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Möglicher Wert: input_text |
Ja |
OpenAI.InputContentType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | input_textinput_imageinput_file |
OpenAI.InputFidelity
Steuern Sie, wie viel Aufwand das Modell ausüben wird, um dem Stil und den Features, insbesondere Gesichtsmerkmalen, von Eingabebildern zu entsprechen. Der Parameter wird nur von gpt-image-1 unterstützt. Nicht unterstützt für gpt-image-1-mini. Unterstützt high und low. Wird standardmäßig auf low festgelegt.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | highlow |
OpenAI.InputFileContent
Eine Dateieingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file_data | Schnur | Der Inhalt der Datei, die an das Modell gesendet werden soll. | Nein | |
| Datei-ID | Zeichenfolge oder null | Nein | ||
| file_url | Schnur | Die URL der Datei, die an das Modell gesendet werden soll. | Nein | |
| filename | Schnur | Der Name der Datei, die an das Modell gesendet werden soll. | Nein | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Möglicher Wert: input_file |
Ja |
OpenAI.InputImageContent
Eine Bildeingabe für das Modell. Erfahren Sie mehr über Bildeingaben.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | OpenAI.ImageDetail | Ja | ||
| Datei-ID | Zeichenfolge oder null | Nein | ||
| image_url | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des Eingabeelements. Immer input_image.Möglicher Wert: input_image |
Ja |
OpenAI.InputItem
Diskriminator für OpenAI.InputItem
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
message |
OpenAI.EasyInputMessage |
item_reference |
OpenAI.ItemReferenceParam |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.InputItemType | Ja |
OpenAI.InputItemType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | messageitem_reference |
OpenAI.InputMessageContentList
Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhaltstypen enthält.
Array von: OpenAI.InputContent
OpenAI.InputMessageResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | OpenAI.InputMessageContentList | Eine Liste mit einem oder mehreren Eingabeelementen für das Modell, die unterschiedliche Inhalte enthält types. |
Ja | |
| id | Schnur | Die eindeutige ID der Nachrichteneingabe. | Ja | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer der folgenden Werte: user, system oder developer.Mögliche Werte: user, , systemdeveloper |
Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ der Nachrichteneingabe. Immer auf message festgelegt.Möglicher Wert: message |
Ja |
OpenAI.InputParam
Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen:
Typ: Zeichenfolge oder Array von OpenAI.InputItem
Text-, Bild- oder Dateieingaben für das Modell, die zum Generieren einer Antwort verwendet werden. Weitere Informationen:
OpenAI.InputTextContent
Eine Texteingabe für das Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Die Texteingabe für das Modell. | Ja | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Möglicher Wert: input_text |
Ja |
OpenAI.ItemReferenceParam
Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die ID des zu referenzierenden Elements. | Ja | |
| type | enum | Der Typ des zu referenzierenden Elements. Immer item_reference.Möglicher Wert: item_reference |
Ja |
OpenAI.ItemResource
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diskriminator für OpenAI.ItemResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ItemResourceType | Ja |
OpenAI.ItemResourceApplyPatchToolCall
Ein Toolaufruf, der Datei-Diffs anwendet, indem Dateien erstellt, gelöscht oder aktualisiert werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diesen Toolaufruf erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID des Aufrufs des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| operation | OpenAI.ApplyPatchFileOperation | Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden. | Ja | |
| └– Typ | OpenAI.ApplyPatchFileOperationType | Ja | ||
| status | OpenAI.ApplyPatchCallStatus | Ja | ||
| type | enum | Der Typ des Elements Immer apply_patch_call.Möglicher Wert: apply_patch_call |
Ja |
OpenAI.ItemResourceApplyPatchToolCallOutput
Die Ausgabe, die von einem Aufruf des Apply Patch-Tools ausgegeben wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diese Toolaufrufausgabe erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID der Ausgabe des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| output | Zeichenfolge oder null | Nein | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Ja | ||
| type | enum | Der Typ des Elements Immer apply_patch_call_output.Möglicher Wert: apply_patch_call_output |
Ja |
OpenAI.ItemResourceCodeInterpreterToolCall
Ein Toolaufruf zum Ausführen von Code.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Zeichenfolge oder null | Ja | ||
| container_id | Schnur | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Ja | |
| id | Schnur | Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. | Ja | |
| Ergebnisse | Array von OpenAI.CodeInterpreterOutputLogs oder OpenAI.CodeInterpreterOutputImage oder null | Ja | ||
| status | enum | Der Status des Code-Interpreter-Werkzeugaufrufs. Gültige Werte sind in_progress, completed, incomplete, interpreting und failed.Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed |
Ja | |
| type | enum | Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.Möglicher Wert: code_interpreter_call |
Ja |
OpenAI.ItemResourceComputerToolCall
Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Computer-Nutzungsleitfaden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Ja | ||
| call_id | Schnur | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird | Ja | |
| id | Schnur | Die eindeutige ID des Computeraufrufs. | Ja | |
| pending_safety_checks | Array von OpenAI.ComputerCallSafetyCheckParam | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Der Typ des Computeraufrufs. Immer computer_call.Möglicher Wert: computer_call |
Ja |
OpenAI.ItemResourceComputerToolCallOutputResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | Array von OpenAI.ComputerCallSafetyCheckParam | Die von der API gemeldeten Sicherheitskontrollen, die von der API anerkannt wurden. entwickelnden Person bestätigt wurden |
Nein | |
| call_id | Schnur | Die ID des Aufrufs des Computer-Tools, der die Ausgabe erzeugt hat. | Ja | |
| id | Schnur | Die ID der Ausgabe des Computertoolsaufrufs | Nein | |
| output | OpenAI.ComputerScreenshotImage | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. | Ja | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, , completedoderincomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ der Ausgabe des Computertoolsaufrufs Immer computer_call_output.Möglicher Wert: computer_call_output |
Ja |
OpenAI.ItemResourceFileSearchToolCall
Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie im Suchleitfaden Datei.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des Aufrufs des Dateisuchtools. | Ja | |
| Abfragen | Array von Zeichenfolgen | Die Zum Suchen nach Dateien verwendeten Abfragen. | Ja | |
| results | Array von OpenAI.FileSearchToolCallResults oder Null | Nein | ||
| status | enum | Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,searching, incomplete oder failedMögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Ja | |
| type | enum | Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.Möglicher Wert: file_search_call |
Ja |
OpenAI.ItemResourceFunctionShellCall
Ein Toolaufruf, der einen oder mehrere Shellbefehle in einer verwalteten Umgebung ausführt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.FunctionShellAction | Führen Sie einen Shellbefehl aus. | Ja | |
| └– Befehle | Array von Zeichenfolgen | Ja | ||
| └– max_output_length | ganze Zahl oder Null | Ja | ||
| └– timeout_ms | ganze Zahl oder Null | Ja | ||
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diesen Toolaufruf erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID des Shelltoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| status | OpenAI.LocalShellCallStatus | Ja | ||
| type | enum | Der Typ des Elements Immer shell_call.Möglicher Wert: shell_call |
Ja |
OpenAI.ItemResourceFunctionShellCallOutput
Die Ausgabe eines Shelltoolaufrufs, der ausgegeben wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. | Ja | |
| created_by | Schnur | Der Bezeichner des Akteurs, der das Element erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID der Shellaufrufausgabe. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| max_output_length | ganze Zahl oder Null | Ja | ||
| output | Array von OpenAI.FunctionShellCallOutputContent | Ein Array von Shellaufrufausgabeinhalten | Ja | |
| type | enum | Der Typ der Shellaufrufausgabe. Immer shell_call_output.Möglicher Wert: shell_call_output |
Ja |
OpenAI.ItemResourceFunctionToolCallOutputResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| id | Schnur | Die eindeutige ID der Ausgabe des Funktionstoolaufrufs Aufgefüllt, wenn dieses Element wird über DIE API zurückgegeben. |
Nein | |
| output | Zeichenfolge oder Array von OpenAI.FunctionAndCustomToolCallOutput | Die Ausgabe des von Ihrem Code generierten Funktionsaufrufs. Dies kann eine Zeichenfolge oder eine Liste von Ausgabeinhalten sein. |
Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ der Ausgabe des Funktionstoolaufrufs Immer function_call_output.Möglicher Wert: function_call_output |
Ja |
OpenAI.ItemResourceFunctionToolCallResource
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| id | Schnur | Die eindeutige ID des Aufrufs des Funktionswerkzeugs. | Nein | |
| Name | Schnur | Der Name der auszuführenden Funktion. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ des Funktionswerkzeuganrufs. Immer function_call.Möglicher Wert: function_call |
Ja |
OpenAI.ItemResourceImageGenToolCall
Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des Bilderzeugungsaufrufs. | Ja | |
| Ergebnis | Zeichenfolge oder null | Ja | ||
| status | enum | Der Status des Bilderzeugungsaufrufs. Mögliche Werte: in_progress, , completed, generatingfailed |
Ja | |
| type | enum | Der Typ des Bilderzeugungsaufrufs. Immer image_generation_call.Möglicher Wert: image_generation_call |
Ja |
OpenAI.ItemResourceLocalShellToolCall
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| id | Schnur | Die eindeutige ID des lokalen Shell-Anrufs. | Ja | |
| status | enum | Der Status des lokalen Shell-Anrufs. Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Die Art des lokalen Shell-Rufs. Immer local_shell_call.Möglicher Wert: local_shell_call |
Ja |
OpenAI.ItemResourceLocalShellToolCallOutput
Die Ausgabe eines Aufrufs eines lokalen Shelltools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| output | Schnur | Eine JSON-Zeichenfolge der Ausgabe des Aufrufs des lokalen Shelltools. | Ja | |
| status | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des lokalen Schalenwerkzeug-Aufrufsausgangs. Immer local_shell_call_output.Möglicher Wert: local_shell_call_output |
Ja |
OpenAI.ItemResourceMcpApprovalRequest
Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Ja | |
| id | Schnur | Die eindeutige ID der Genehmigungsanfrage. | Ja | |
| Name | Schnur | Der Name des auszuführenden Tools. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. | Ja | |
| type | enum | Der Typ des Elements Immer mcp_approval_request.Möglicher Wert: mcp_approval_request |
Ja |
OpenAI.ItemResourceMcpApprovalResponseResource
Eine Antwort auf eine MCP-Genehmigungsanforderung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| approval_request_id | Schnur | Die ID der Genehmigungsanforderung, die beantwortet wird. | Ja | |
| Genehmigen | boolean | Gibt an, ob die Anforderung genehmigt wurde. | Ja | |
| id | Schnur | Die eindeutige ID der Genehmigungsantwort | Ja | |
| Grund | Zeichenfolge oder null | Nein | ||
| type | enum | Der Typ des Elements Immer mcp_approval_response.Möglicher Wert: mcp_approval_response |
Ja |
OpenAI.ItemResourceMcpListTools
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Fehler | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die eindeutige ID der Liste. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers. | Ja | |
| Werkzeuge | Array von OpenAI.MCPListToolsTool | Die auf dem Server verfügbaren Tools. | Ja | |
| type | enum | Der Typ des Elements Immer mcp_list_tools.Möglicher Wert: mcp_list_tools |
Ja |
OpenAI.ItemResourceMcpToolCall
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| approval_request_id | Zeichenfolge oder null | Nein | ||
| Argumente | Schnur | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Ja | |
| Fehler | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die eindeutige ID des Toolaufrufs. | Ja | |
| Name | Schnur | Der Name des tools, das ausgeführt wurde. | Ja | |
| output | Zeichenfolge oder null | Nein | ||
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Ja | |
| status | OpenAI.MCPToolCallStatus | Nein | ||
| type | enum | Der Typ des Elements Immer mcp_call.Möglicher Wert: mcp_call |
Ja |
OpenAI.ItemResourceOutputMessage
Eine Ausgabemeldung aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.OutputMessageContent | Der Inhalt der Ausgabenachricht. | Ja | |
| id | Schnur | Die eindeutige ID der Ausgabenachricht. | Ja | |
| role | enum | Die Rolle der Ausgabemeldung. Immer assistant.Möglicher Wert: assistant |
Ja | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, , completedoderincomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Der Typ der Ausgabemeldung. Immer message.Möglicher Wert: output_message |
Ja |
OpenAI.ItemResourceType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | messageoutput_messagefile_search_callcomputer_callcomputer_call_outputweb_search_callfunction_callfunction_call_outputimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ItemResourceWebSearchToolCall
Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie im Web-Suchguide.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.WebSearchActionSearch oder OpenAI.WebSearchActionOpenPage oder OpenAI.WebSearchActionFind | Ein Objekt, das die spezifische Aktion beschreibt, die in diesem Websuchaufruf ausgeführt wird. Enthält Details dazu, wie das Modell das Web verwendet hat (Suchen, open_page, Suchen). |
Ja | |
| id | Schnur | Die eindeutige ID des Websuchwerkzeugs ruft auf. | Ja | |
| status | enum | Der Status des Aufrufs des Websuchtools. Mögliche Werte: in_progress, , searching, completedfailed |
Ja | |
| type | enum | Der Typ des Web-Suchwerkzeug-Aufrufs. Immer web_search_call.Möglicher Wert: web_search_call |
Ja |
OpenAI.KeyPressAction
Eine Sammlung von Tastendrücken, die das Modell ausführen möchte.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| keys | Array von Zeichenfolgen | Die Tastenkombination, die das Modell gedrückt haben möchte. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. | Ja | |
| type | enum | Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress gesetzt.Möglicher Wert: keypress |
Ja |
OpenAI.ListBatchesResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.Batch | Ja | ||
| first_id | Schnur | Nein | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Nein | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListFilesResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.OpenAIFile | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.ListFineTuningCheckpointPermissionResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.FineTuningCheckpointPermission | Ja | ||
| first_id | Zeichenfolge oder null | Nein | ||
| has_more | boolean | Ja | ||
| last_id | Zeichenfolge oder null | Nein | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListFineTuningJobCheckpointsResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.FineTuningJobCheckpoint | Ja | ||
| first_id | Zeichenfolge oder null | Nein | ||
| has_more | boolean | Ja | ||
| last_id | Zeichenfolge oder null | Nein | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListFineTuningJobEventsResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.FineTuningJobEvent | Ja | ||
| has_more | boolean | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListMessagesResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.MessageObject | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.ListModelsResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.Model | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListPaginatedFineTuningJobsResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.FineTuningJob | Ja | ||
| has_more | boolean | Ja | ||
| Objekt | enum | Möglicher Wert: list |
Ja |
OpenAI.ListRunStepsResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.RunStepObject | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.ListRunsResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.RunObject | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.ListVectorStoreFilesResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.VectorStoreFileObject | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.ListVectorStoresResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.VectorStoreObject | Ja | ||
| first_id | Schnur | Ja | ||
| has_more | boolean | Ja | ||
| last_id | Schnur | Ja | ||
| Objekt | Schnur | Ja |
OpenAI.LocalShellCallStatus
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | in_progresscompletedincomplete |
OpenAI.LocalShellExecAction
Führen Sie einen Shellbefehl auf dem Server aus.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| command | Array von Zeichenfolgen | Der auszuführende Befehl. | Ja | |
| env | Objekt | Umgebungsvariablen, die für den Befehl festgelegt werden sollen. | Ja | |
| timeout_ms | ganze Zahl oder Null | Nein | ||
| type | enum | Der Typ der lokalen Shellaktion. Immer exec.Möglicher Wert: exec |
Ja | |
| user | Zeichenfolge oder null | Nein | ||
| working_directory | Zeichenfolge oder null | Nein |
OpenAI.LocalShellToolParam
Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des lokalen Shelltools. Immer local_shell.Möglicher Wert: local_shell |
Ja |
OpenAI.LogProb
Die Protokollwahrscheinlichkeit eines Tokens.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Byte | Array mit ganzzahliger Zahl | Ja | ||
| logprob | number | Ja | ||
| token | Schnur | Ja | ||
| top_logprobs | Array von OpenAI.TopLogProb | Ja |
OpenAI.MCPListToolsTool
Ein Tool, das auf einem MCP-Server verfügbar ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anmerkungen | OpenAI.MCPListToolsToolAnnotations oder NULL | Nein | ||
| Beschreibung | Zeichenfolge oder null | Nein | ||
| input_schema | OpenAI.MCPListToolsToolInputSchema | Ja | ||
| Name | Schnur | Der Name des Tools. | Ja |
OpenAI.MCPListToolsToolAnnotations
Typ: Objekt
OpenAI.MCPListToolsToolInputSchema
Typ: Objekt
OpenAI.MCPTool
Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol). Erfahren Sie mehr über MCP.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erlaubte_Werkzeuge | Array von Zeichenfolge oder OpenAI.MCPToolFilter oder NULL | Nein | ||
| Autorisierung | Schnur | Ein OAuth-access-Token, das mit einem entfernten MCP-Server verwendet werden kann, entweder mit einer benutzerdefinierten MCP-Server-URL oder einem Dienstconnector. Ihre Anwendung muss den OAuth-Autorisierungsfluss verarbeiten und das Token hier bereitstellen. |
Nein | |
| connector_id | enum | Identifikator für Service Connectors, wie sie in ChatGPT verfügbar sind. Einer vonserver_url oder connector_id muss bereitgestellt werden. Weitere Informationen zum DienstSteckverbinder hier. Derzeit unterstützte connector_id Werte sind:-Dropbox: connector_dropbox-Google mail: connector_gmail- Google-Kalender: connector_googlecalendar- Google Drive: connector_googledrive- Microsoft Teams: connector_microsoftteams- Outlook-Kalender: connector_outlookcalendar- Outlook-E-Mail: connector_outlookemail-Sharepoint: connector_sharepointMögliche Werte: connector_dropbox, , connector_gmail, connector_googlecalendarconnector_googledrive, connector_microsoftteams, , connector_outlookcalendar, connector_outlookemailconnector_sharepoint |
Nein | |
| headers | -Objekt oder Null | Nein | ||
| Genehmigung erforderlich | OpenAI.MCPToolRequireApproval oder string oder null | Nein | ||
| server_description | Schnur | Optionale Beschreibung des MCP-Servers, die verwendet wird, um mehr Kontext zu liefern. | Nein | |
| Serverbeschriftung | Schnur | Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. | Ja | |
| server_url | Schnur | Die URL für den MCP-Server. Einer von server_url oder connector_id muss seinbereitgestellt. |
Nein | |
| type | enum | Der Typ des MCP-Tools. Immer mcp.Möglicher Wert: mcp |
Ja |
OpenAI.MCPToolCallStatus
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | in_progresscompletedincompletecallingfailed |
OpenAI.MCPToolFilter
Ein Filterobjekt, um anzugeben, welche Werkzeuge erlaubt sind.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| read_only | boolean | Gibt an, ob ein Werkzeug Daten verändert oder nur lesbar ist. Wenn ein MCP-Server ist mit Anmerkungen versehen mit readOnlyHint,dieser Filter entspricht. |
Nein | |
| tool_names | Array von Zeichenfolgen | Liste der zulässigen Toolnamen. | Nein |
OpenAI.MCPToolRequireApproval
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| immer | OpenAI.MCPToolFilter | Ein Filterobjekt, um anzugeben, welche Werkzeuge erlaubt sind. | Nein | |
| Niemals | OpenAI.MCPToolFilter | Ein Filterobjekt, um anzugeben, welche Werkzeuge erlaubt sind. | Nein |
OpenAI.MessageContent
Diskriminator für OpenAI.MessageContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
image_url |
OpenAI.MessageContentImageUrlObject |
text |
OpenAI.MessageContentTextObject |
refusal |
OpenAI.MessageContentRefusalObject |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.MessageContentType | Ja |
OpenAI.MessageContentImageFileObject
Verweist auf eine Bilddatei im Inhalt einer Nachricht.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| image_file | OpenAI.MessageContentImageFileObjectImageFile | Ja | ||
| type | enum | Immer image_file.Möglicher Wert: image_file |
Ja |
OpenAI.MessageContentImageFileObjectImageFile
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | enum | Mögliche Werte: auto, , lowhigh |
Nein | |
| Datei-ID | Schnur | Ja |
OpenAI.MessageContentImageUrlObject
Verweist auf eine Bild-URL im Inhalt einer Nachricht.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| image_url | OpenAI.MessageContentImageUrlObjectImageUrl | Ja | ||
| type | enum | Der Typ des Inhaltsteils Möglicher Wert: image_url |
Ja |
OpenAI.MessageContentImageUrlObjectImageUrl
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| detail | enum | Mögliche Werte: auto, , lowhigh |
Nein | |
| url | Schnur | Ja |
OpenAI.MessageContentRefusalObject
Der vom Assistenten generierte Weigerungsinhalt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ablehnung | Schnur | Ja | ||
| type | enum | Immer refusal.Möglicher Wert: refusal |
Ja |
OpenAI.MessageContentTextAnnotationsFileCitationObject
Ein Zitat innerhalb der Nachricht, das auf ein bestimmtes Zitat aus einer bestimmten Datei verweist, die dem Assistenten oder der Nachricht zugeordnet ist. Wird generiert, wenn der Assistent das Tool „file_search“ für die Dateisuche verwendet.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| end_index | integer | Einschränkungen: min: 0 | Ja | |
| file_citation | OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation | Ja | ||
| start_index | integer | Einschränkungen: min: 0 | Ja | |
| Text | Schnur | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Ja | |
| type | enum | Immer file_citation.Möglicher Wert: file_citation |
Ja |
OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Ja |
OpenAI.MessageContentTextAnnotationsFilePathObject
Eine URL für die Datei, die generiert wird, wenn der Assistent das Tool code_interpreter zum Generieren einer Datei verwendet hat.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| end_index | integer | Einschränkungen: min: 0 | Ja | |
| file_path | OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath | Ja | ||
| start_index | integer | Einschränkungen: min: 0 | Ja | |
| Text | Schnur | Der Text im Nachrichteninhalt, der ersetzt werden muss. | Ja | |
| type | enum | Immer file_path.Möglicher Wert: file_path |
Ja |
OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Ja |
OpenAI.MessageContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | OpenAI.MessageContentTextObjectTextText | Ja | ||
| type | enum | Immer text.Möglicher Wert: text |
Ja |
OpenAI.MessageContentTextObjectTextText
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anmerkungen | Array von OpenAI.TextAnnotation | Ja | ||
| Wert | Schnur | Ja |
OpenAI.MessageContentType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | image_fileimage_urltextrefusal |
OpenAI.MessageObject
Stellt eine Nachricht in einem Thread dar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| assistant_id | Zeichenfolge oder null | Ja | ||
| attachments | Array von OpenAI.MessageObjectAttachments oder NULL | Ja | ||
| abgeschlossen_am | Zeichenfolge oder null | Ja | ||
| Inhalt | Array von OpenAI.MessageContent | Der Inhalt der Nachricht im Textarray und/oder Bildern. | Ja | |
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Nachricht erstellt wurde. | Ja | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| incomplete_at | Zeichenfolge oder null | Ja | ||
| incomplete_details | OpenAI.MessageObjectIncompleteDetails oder NULL | Ja | ||
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Objekt | enum | Der Objekttyp, der immer thread.message ist.Möglicher Wert: thread.message |
Ja | |
| role | enum | Die Entität, die die Nachricht generiert hat. Einer der folgenden Werte: user oder assistant.Mögliche Werte: user, assistant |
Ja | |
| run_id | Zeichenfolge oder null | Ja | ||
| status | enum | Der Status der Nachricht (entweder in_progress, incomplete oder completed).Mögliche Werte: in_progress, , incompletecompleted |
Ja | |
| thread_id | Schnur | Die Thread-ID , zu der diese Nachricht gehört. | Ja |
OpenAI.MessageObjectAttachments
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Nein | ||
| Werkzeuge | Array von OpenAI.AssistantToolsCode oder OpenAI.AssistantToolsFileSearchTypeOnly | Nein |
OpenAI.MessageObjectIncompleteDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Grund | enum | Mögliche Werte: content_filter, , max_tokensrun_cancelled, , run_expiredrun_failed |
Ja |
OpenAI.MessageRequestContentTextObject
Der Textinhalt, der Teil einer Nachricht ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Textinhalt, der an das Modell gesendet werden soll | Ja | |
| type | enum | Immer text.Möglicher Wert: text |
Ja |
OpenAI.MessageRole
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | unknownuserassistantsystemcriticdiscriminatordevelopertool |
OpenAI.MessageStatus
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | in_progresscompletedincomplete |
OpenAI.Metadata
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Typ: Objekt
OpenAI.Model
Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Modells. | Ja | |
| id | Schnur | Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Objekt | enum | Der Objekttyp, der immer „model“ lautet. Möglicher Wert: model |
Ja | |
| owned_by | Schnur | Die Organisation, die das Modell besitzt. | Ja |
OpenAI.ModifyMessageRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein |
OpenAI.ModifyRunRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein |
OpenAI.ModifyThreadRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources oder NULL | Nein |
OpenAI.ModifyThreadRequestToolResources
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code_interpreter | OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter | Nein | ||
| file_search | OpenAI.ModifyThreadRequestToolResourcesFileSearch | Nein |
OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-IDs | Array von Zeichenfolgen | Nein |
OpenAI.ModifyThreadRequestToolResourcesFileSearch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| vector_store_ids | Array von Zeichenfolgen | Nein |
OpenAI.Move
Aktion zur Änderung der Mauszeigerposition
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für das Verschieben ist diese Eigenschaft immer auf move festgelegt.Möglicher Wert: move |
Ja | |
| x | integer | Die x-Koordinate, zu der verschoben werden soll. | Ja | |
| y | integer | Die y-Koordinate, zu der verschoben werden soll. | Ja |
OpenAI.NoiseReductionType
Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | near_fieldfar_field |
OpenAI.OpenAIFile
Das File Objekt stellt ein Dokument dar, das in OpenAI hochgeladen wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Byte | integer | Die Größe der Datei in Byte. | Ja | |
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Datei. | Ja | |
| läuft_ab_am | integer | Der Unix-Zeitstempel (in Sekunden) für das Ablaufdatum der Datei. | Nein | |
| filename | Schnur | Der Name der Datei. | Ja | |
| id | Schnur | Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Ja | |
| Objekt | enum | Der Objekttyp, der immer file ist.Möglicher Wert: file |
Ja | |
| Zweck | enum | Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, assistants_output, batch, batch_output, fine-tune und fine-tune-results.Mögliche Werte: assistants, assistants_output, batch, batch_output, fine-tune, fine-tune-results, evals |
Ja | |
| status | enum | Mögliche Werte: uploaded, pending, running, processed, error, deleting, deleted |
Ja | |
| status_details | Zeichenfolge (veraltet) | Deprecated. Details dazu, warum bei der Überprüfung einer Trainingsdatei für die Feinabstimmung ein Fehler aufgetreten ist, finden Sie im Feld error im fine_tuning.job. |
Nein |
OpenAI.OtherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Segmentierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei vor der Einführung des chunking_strategy-Konzepts in der API indiziert wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Immer other.Möglicher Wert: other |
Ja |
OpenAI.OutputContent
Diskriminator für OpenAI.OutputContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
output_text |
OpenAI.OutputContentOutputTextContent |
refusal |
OpenAI.OutputContentRefusalContent |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.OutputContentType | Ja |
OpenAI.OutputContentOutputTextContent
Eine Textausgabe aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anmerkungen | Array von OpenAI.Annotation | Die Anmerkungen der Textausgabe | Ja | |
| logprobs | Array von OpenAI.LogProb | Nein | ||
| Text | Schnur | Die Textausgabe aus dem Modell. | Ja | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Möglicher Wert: output_text |
Ja |
OpenAI.OutputContentRefusalContent
Eine Ablehnung des Modells
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ablehnung | Schnur | Die Erklärung der Ablehnung des Modells | Ja | |
| type | enum | Die Art der Ablehnung. Immer refusal.Möglicher Wert: refusal |
Ja |
OpenAI.OutputContentType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | output_textrefusalreasoning_text |
OpenAI.OutputItem
Diskriminator für OpenAI.OutputItem
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
output_message |
OpenAI.OutputItemOutputMessage |
file_search_call |
OpenAI.OutputItemFileSearchToolCall |
function_call |
OpenAI.OutputItemFunctionToolCall |
web_search_call |
OpenAI.OutputItemWebSearchToolCall |
computer_call |
OpenAI.OutputItemComputerToolCall |
reasoning |
OpenAI.OutputItemReasoningItem |
compaction |
OpenAI.OutputItemCompactionBody |
image_generation_call |
OpenAI.OutputItemImageGenToolCall |
code_interpreter_call |
OpenAI.OutputItemCodeInterpreterToolCall |
local_shell_call |
OpenAI.OutputItemLocalShellToolCall |
shell_call |
OpenAI.OutputItemFunctionShellCall |
shell_call_output |
OpenAI.OutputItemFunctionShellCallOutput |
apply_patch_call |
OpenAI.OutputItemApplyPatchToolCall |
apply_patch_call_output |
OpenAI.OutputItemApplyPatchToolCallOutput |
mcp_call |
OpenAI.OutputItemMcpToolCall |
mcp_list_tools |
OpenAI.OutputItemMcpListTools |
mcp_approval_request |
OpenAI.OutputItemMcpApprovalRequest |
custom_tool_call |
OpenAI.OutputItemCustomToolCall |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.OutputItemType | Ja |
OpenAI.OutputItemApplyPatchToolCall
Ein Toolaufruf, der Datei-Diffs anwendet, indem Dateien erstellt, gelöscht oder aktualisiert werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diesen Toolaufruf erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID des Aufrufs des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| operation | OpenAI.ApplyPatchFileOperation | Einer der create_file, delete_file oder update_file Vorgänge, die über apply_patch angewendet werden. | Ja | |
| └– Typ | OpenAI.ApplyPatchFileOperationType | Ja | ||
| status | OpenAI.ApplyPatchCallStatus | Ja | ||
| type | enum | Der Typ des Elements Immer apply_patch_call.Möglicher Wert: apply_patch_call |
Ja |
OpenAI.OutputItemApplyPatchToolCallOutput
Die Ausgabe, die von einem Aufruf des Apply Patch-Tools ausgegeben wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Apply Patch Tool-Aufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diese Toolaufrufausgabe erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID der Ausgabe des Anwenden-Patchtools. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| output | Zeichenfolge oder null | Nein | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Ja | ||
| type | enum | Der Typ des Elements Immer apply_patch_call_output.Möglicher Wert: apply_patch_call_output |
Ja |
OpenAI.OutputItemCodeInterpreterToolCall
Ein Toolaufruf zum Ausführen von Code.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Zeichenfolge oder null | Ja | ||
| container_id | Schnur | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Ja | |
| id | Schnur | Die eindeutige ID des Aufrufs des Code-Interpreter-Tools. | Ja | |
| Ergebnisse | Array von OpenAI.CodeInterpreterOutputLogs oder OpenAI.CodeInterpreterOutputImage oder null | Ja | ||
| status | enum | Der Status des Code-Interpreter-Werkzeugaufrufs. Gültige Werte sind in_progress, completed, incomplete, interpreting und failed.Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed |
Ja | |
| type | enum | Der Typ des Codedolmetscher-Toolaufrufs. Immer code_interpreter_call.Möglicher Wert: code_interpreter_call |
Ja |
OpenAI.OutputItemCompactionBody
Ein von der v1/responses/compact API generiertes Kompaktionselement.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| created_by | Schnur | Der Bezeichner des Akteurs, der das Element erstellt hat. | Nein | |
| encrypted_content | Schnur | Der verschlüsselte Inhalt, der durch Komprimierung erzeugt wurde. | Ja | |
| id | Schnur | Die eindeutige ID des Kompaktionselements. | Ja | |
| type | enum | Der Typ des Elements Immer compaction.Möglicher Wert: compaction |
Ja |
OpenAI.OutputItemComputerToolCall
Ein Toolaufruf eines von einem Computer verwendeten Tools Weitere Informationen finden Sie im Computer-Nutzungsleitfaden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Ja | ||
| call_id | Schnur | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit einer Ausgabe verwendet wird | Ja | |
| id | Schnur | Die eindeutige ID des Computeraufrufs. | Ja | |
| pending_safety_checks | Array von OpenAI.ComputerCallSafetyCheckParam | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Der Typ des Computeraufrufs. Immer computer_call.Möglicher Wert: computer_call |
Ja |
OpenAI.OutputItemCustomToolCall
Ein Aufruf eines benutzerdefinierten Tools, das vom Modell erstellt wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Eine Identifikator, die verwendet wird, um diesen benutzerdefinierten Werkzeugaufruf auf die Ausgabe eines Werkzeugaufrufs abzubilden. | Ja | |
| id | Schnur | Die eindeutige ID des benutzerdefinierten Werkzeugaufrufs in der OpenAI-Plattform. | Nein | |
| Eingabe | Schnur | Die Eingabe für den benutzerdefinierten Werkzeugaufruf, der vom Modell generiert wird. | Ja | |
| Name | Schnur | Der Name des benutzerdefinierten Tools, das aufgerufen wird. | Ja | |
| type | enum | Der Typ des benutzerdefinierten Werkzeugaufrufs. Immer custom_tool_call.Möglicher Wert: custom_tool_call |
Ja |
OpenAI.OutputItemFileSearchToolCall
Die Ergebnisse eines Dateisuchtoolaufrufs. Weitere Informationen finden Sie im Suchleitfaden Datei.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des Aufrufs des Dateisuchtools. | Ja | |
| Abfragen | Array von Zeichenfolgen | Die Zum Suchen nach Dateien verwendeten Abfragen. | Ja | |
| results | Array von OpenAI.FileSearchToolCallResults oder Null | Nein | ||
| status | enum | Der Status des Aufrufs des Dateisuchwerkzeugs. Einer von in_progress,searching, incomplete oder failedMögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Ja | |
| type | enum | Der Typ des Aufrufs des Dateisuchtools. Immer file_search_call.Möglicher Wert: file_search_call |
Ja |
OpenAI.OutputItemFunctionShellCall
Ein Toolaufruf, der einen oder mehrere Shellbefehle in einer verwalteten Umgebung ausführt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.FunctionShellAction | Führen Sie einen Shellbefehl aus. | Ja | |
| └– Befehle | Array von Zeichenfolgen | Ja | ||
| └– max_output_length | ganze Zahl oder Null | Ja | ||
| └– timeout_ms | ganze Zahl oder Null | Ja | ||
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. | Ja | |
| created_by | Schnur | Die ID der Entität, die diesen Toolaufruf erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID des Shelltoolaufrufs. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| status | OpenAI.LocalShellCallStatus | Ja | ||
| type | enum | Der Typ des Elements Immer shell_call.Möglicher Wert: shell_call |
Ja |
OpenAI.OutputItemFunctionShellCallOutput
Die Ausgabe eines Shelltoolaufrufs, der ausgegeben wurde.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Shell-Toolaufrufs. | Ja | |
| created_by | Schnur | Der Bezeichner des Akteurs, der das Element erstellt hat. | Nein | |
| id | Schnur | Die eindeutige ID der Shellaufrufausgabe. Aufgefüllt, wenn dieses Element über die API zurückgegeben wird. | Ja | |
| max_output_length | ganze Zahl oder Null | Ja | ||
| output | Array von OpenAI.FunctionShellCallOutputContent | Ein Array von Shellaufrufausgabeinhalten | Ja | |
| type | enum | Der Typ der Shellaufrufausgabe. Immer shell_call_output.Möglicher Wert: shell_call_output |
Ja |
OpenAI.OutputItemFunctionToolCall
Ein Toolaufruf zum Ausführen einer Funktion. Weitere Informationen finden Sie im Funktionsaufruf-Leitfaden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Ja | |
| id | Schnur | Die eindeutige ID des Aufrufs des Funktionswerkzeugs. | Nein | |
| Name | Schnur | Der Name der auszuführenden Funktion. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| type | enum | Der Typ des Funktionswerkzeuganrufs. Immer function_call.Möglicher Wert: function_call |
Ja |
OpenAI.OutputItemImageGenToolCall
Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Die eindeutige ID des Bilderzeugungsaufrufs. | Ja | |
| Ergebnis | Zeichenfolge oder null | Ja | ||
| status | enum | Der Status des Bilderzeugungsaufrufs. Mögliche Werte: in_progress, , completed, generatingfailed |
Ja | |
| type | enum | Der Typ des Bilderzeugungsaufrufs. Immer image_generation_call.Möglicher Wert: image_generation_call |
Ja |
OpenAI.OutputItemLocalShellToolCall
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Ja | |
| call_id | Schnur | Die eindeutige ID des vom Modell generierten Aufrufs des lokalen Shelltools. | Ja | |
| id | Schnur | Die eindeutige ID des lokalen Shell-Anrufs. | Ja | |
| status | enum | Der Status des lokalen Shell-Anrufs. Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Die Art des lokalen Shell-Rufs. Immer local_shell_call.Möglicher Wert: local_shell_call |
Ja |
OpenAI.OutputItemMcpApprovalRequest
Eine Anforderung für menschliche Genehmigung eines Toolaufrufs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Ja | |
| id | Schnur | Die eindeutige ID der Genehmigungsanfrage. | Ja | |
| Name | Schnur | Der Name des auszuführenden Tools. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. | Ja | |
| type | enum | Der Typ des Elements Immer mcp_approval_request.Möglicher Wert: mcp_approval_request |
Ja |
OpenAI.OutputItemMcpListTools
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Fehler | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die eindeutige ID der Liste. | Ja | |
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers. | Ja | |
| Werkzeuge | Array von OpenAI.MCPListToolsTool | Die auf dem Server verfügbaren Tools. | Ja | |
| type | enum | Der Typ des Elements Immer mcp_list_tools.Möglicher Wert: mcp_list_tools |
Ja |
OpenAI.OutputItemMcpToolCall
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| approval_request_id | Zeichenfolge oder null | Nein | ||
| Argumente | Schnur | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Ja | |
| Fehler | Zeichenfolge oder null | Nein | ||
| id | Schnur | Die eindeutige ID des Toolaufrufs. | Ja | |
| Name | Schnur | Der Name des tools, das ausgeführt wurde. | Ja | |
| output | Zeichenfolge oder null | Nein | ||
| Serverbeschriftung | Schnur | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Ja | |
| status | OpenAI.MCPToolCallStatus | Nein | ||
| type | enum | Der Typ des Elements Immer mcp_call.Möglicher Wert: mcp_call |
Ja |
OpenAI.OutputItemOutputMessage
Eine Ausgabemeldung aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.OutputMessageContent | Der Inhalt der Ausgabenachricht. | Ja | |
| id | Schnur | Die eindeutige ID der Ausgabenachricht. | Ja | |
| role | enum | Die Rolle der Ausgabemeldung. Immer assistant.Möglicher Wert: assistant |
Ja | |
| status | enum | Der Status der Nachrichteneingabe. Einer von in_progress, , completedoderincomplete. Befüllt, wenn Eingabeelemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Ja | |
| type | enum | Der Typ der Ausgabemeldung. Immer message.Möglicher Wert: output_message |
Ja |
OpenAI.OutputItemReasoningItem
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Stellen Sie sicher, dass Sie diese Elemente in Ihre input in die Responses-API für spätere Runden eines Gesprächs aufnehmen, wenn Sie manuell Kontextverwaltung durchführen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.ReasoningTextContent | Argumentation des Textinhalts. | Nein | |
| encrypted_content | Zeichenfolge oder null | Nein | ||
| id | Schnur | Der eindeutige Bezeichner des Argumentationsinhalts. | Ja | |
| status | enum | Der Status des Elements. Einer von in_progress, , completedoderincomplete. Wird ausgefüllt, wenn Elemente über die API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Nein | |
| summary | Array von OpenAI.Summary | Inhalt der Zusammenfassung der Begründung. | Ja | |
| type | enum | Der Typ des Objekts. Immer reasoning.Möglicher Wert: reasoning |
Ja |
OpenAI.OutputItemType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | output_messagefile_search_callfunction_callweb_search_callcomputer_callreasoningcompactionimage_generation_callcode_interpreter_calllocal_shell_callshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_callmcp_list_toolsmcp_approval_requestcustom_tool_call |
OpenAI.OutputItemWebSearchToolCall
Die Ergebnisse eines Aufrufs eines Websuchwerkzeugs. Weitere Informationen finden Sie im Web-Suchguide.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| action | OpenAI.WebSearchActionSearch oder OpenAI.WebSearchActionOpenPage oder OpenAI.WebSearchActionFind | Ein Objekt, das die spezifische Aktion beschreibt, die in diesem Websuchaufruf ausgeführt wird. Enthält Details dazu, wie das Modell das Web verwendet hat (Suchen, open_page, Suchen). |
Ja | |
| id | Schnur | Die eindeutige ID des Websuchwerkzeugs ruft auf. | Ja | |
| status | enum | Der Status des Aufrufs des Websuchtools. Mögliche Werte: in_progress, , searching, completedfailed |
Ja | |
| type | enum | Der Typ des Web-Suchwerkzeug-Aufrufs. Immer web_search_call.Möglicher Wert: web_search_call |
Ja |
OpenAI.OutputMessageContent
Diskriminator für OpenAI.OutputMessageContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
output_text |
OpenAI.OutputMessageContentOutputTextContent |
refusal |
OpenAI.OutputMessageContentRefusalContent |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.OutputMessageContentType | Ja |
OpenAI.OutputMessageContentOutputTextContent
Eine Textausgabe aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anmerkungen | Array von OpenAI.Annotation | Die Anmerkungen der Textausgabe | Ja | |
| logprobs | Array von OpenAI.LogProb | Nein | ||
| Text | Schnur | Die Textausgabe aus dem Modell. | Ja | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Möglicher Wert: output_text |
Ja |
OpenAI.OutputMessageContentRefusalContent
Eine Ablehnung des Modells
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ablehnung | Schnur | Die Erklärung der Ablehnung des Modells | Ja | |
| type | enum | Die Art der Ablehnung. Immer refusal.Möglicher Wert: refusal |
Ja |
OpenAI.OutputMessageContentType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | output_textrefusal |
OpenAI.OutputTextContent
Eine Textausgabe aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Anmerkungen | Array von OpenAI.Annotation | Die Anmerkungen der Textausgabe | Ja | |
| logprobs | Array von OpenAI.LogProb | Nein | ||
| Text | Schnur | Die Textausgabe aus dem Modell. | Ja | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Möglicher Wert: output_text |
Ja |
OpenAI.ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Typ: boolean
OpenAI.PredictionContent
Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Zeichenfolge oder Array von OpenAI.ChatCompletionRequestMessageContentPartText | Der Inhalt, der beim Generieren einer Modellantwort abgeglichen werden soll. Wenn generierte Token mit diesem Inhalt übereinstimmen würden, würde die gesamte Modellantwort kann viel schneller zurückgegeben werden. |
Ja | |
| type | enum | Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist aktuell immer content.Möglicher Wert: content |
Ja |
OpenAI.Prompt
Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| id | Schnur | Der eindeutige Bezeichner der zu verwendenden Promptvorlage. | Ja | |
| variables | OpenAI.ResponsePromptVariables oder NULL | Nein | ||
| version | Zeichenfolge oder null | Nein |
OpenAI.RankerVersionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | autodefault-2024-11-15 |
OpenAI.RankingOptions
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| hybrid_search | OpenAI.HybridSearchOptions | Nein | ||
| └– embedding_weight | number | Das Gewicht der Einbettung in der reziproken Rangfolgefusion. | Ja | |
| └– text_weight | number | Das Gewicht des Textes in der wechselseitigen Rangfolgefusion. | Ja | |
| Bewerter | OpenAI.RankerVersionType | Nein | ||
| score-threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. | Nein |
OpenAI.RealtimeAudioFormats
Diskriminator für OpenAI.RealtimeAudioFormats
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
audio/pcm |
OpenAI.RealtimeAudioFormatsAudioPcm |
audio/pcmu |
OpenAI.RealtimeAudioFormatsAudioPcmu |
audio/pcma |
OpenAI.RealtimeAudioFormatsAudioPcma |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.RealtimeAudioFormatsType | Ja |
OpenAI.RealtimeAudioFormatsAudioPcm
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| rate | enum | Möglicher Wert: 24000 |
Nein | |
| type | enum | Möglicher Wert: audio/pcm |
Ja |
OpenAI.RealtimeAudioFormatsAudioPcma
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: audio/pcma |
Ja |
OpenAI.RealtimeAudioFormatsAudioPcmu
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: audio/pcmu |
Ja |
OpenAI.RealtimeAudioFormatsType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | audio/pcmaudio/pcmuaudio/pcma |
OpenAI.RealtimeCallCreateRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Sdp | Schnur | WebRTC Session Description Protocol (SDP)-Angebot, das vom Aufrufer generiert wird. | Ja | |
| session | OpenAI.RealtimeSessionCreateRequestGA | Objektkonfiguration der Echtzeitsitzung. | Nein | |
| └– Audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Konfiguration für Eingabe- und Ausgabeaudio. | Nein | |
| └- einschließen | Array von Zeichenfolgen | Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein. |
Nein | |
| └– Anweisungen | Schnur | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind. |
Nein | |
| └– max_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| └─ Modell | Schnur | Das für diese Sitzung verwendete Realtime-Modell. | Nein | |
| └– output_modalities | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dassdass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, umDas Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern. |
Nein | ['audio'] |
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP | Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus function/MCP tool. |
Nein | auto |
| └- Werkzeuge | Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool | Tools, die für das Modell verfügbar sind. | Nein | |
| └– Ablaufverfolgung | string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null | "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | auto |
| └– Abschneiden | OpenAI.RealtimeTruncation | Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet. |
Nein | |
| └– Typ | enum | Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.Möglicher Wert: realtime |
Ja |
OpenAI.RealtimeCallReferRequest
Parameter, die zum Übertragen eines SIP-Aufrufs an ein neues Ziel mithilfe der Realtime-API erforderlich sind.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| target_uri | Schnur | URI, der im SIP-Refer-To-Header angezeigt werden soll. Unterstützt Werte wietel:+14155550123 oder sip:agent\@example.com. |
Ja |
OpenAI.RealtimeCallRejectRequest
Parameter, die zum Ablehnen eines eingehenden SIP-Anrufs verwendet werden, der von der Realtime-API verarbeitet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| status_code | integer | SIP-Antwortcode, der an den Anrufer zurücksenden soll. Standardwerte sind 603 (Ablehnen)ausgelassen. |
Nein |
OpenAI.RealtimeCreateClientSecretRequest
Erstellen Sie eine Sitzung und einen geheimen Clientschlüssel für die Realtime-API. Die Anforderung kann entweder eine Echtzeit- oder eine Transkriptionssitzungskonfiguration angeben. Erfahren Sie mehr über die Realtime-API.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | Nein | ||
| └– Anker | enum | Möglicher Wert: created_at |
Nein | |
| └─ Sekunden | integer | Einschränkungen: min: 10, max: 7200 | Nein | 600 |
| session | OpenAI.RealtimeSessionCreateRequestUnion | Nein | ||
| └– Typ | OpenAI.RealtimeSessionCreateRequestUnionType | Ja |
OpenAI.RealtimeCreateClientSecretRequestExpiresAfter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| anchor | enum | Möglicher Wert: created_at |
Nein | |
| Sekunden | integer | Einschränkungen: min: 10, max: 7200 | Nein | 600 |
OpenAI.RealtimeCreateClientSecretResponse
Antwort vom Erstellen einer Sitzung und eines geheimen Clientschlüssels für die Realtime-API.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| läuft_ab_am | integer | Ablaufzeitstempel für den geheimen Clientschlüssel in Sekunden seit der Epoche. | Ja | |
| session | OpenAI.RealtimeSessionCreateResponseUnion | Ja | ||
| └– Typ | OpenAI.RealtimeSessionCreateResponseUnionType | Ja | ||
| Wert | Schnur | Der generierte geheime Clientschlüsselwert. | Ja |
OpenAI.RealtimeFunctionTool
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Beschreibung der Funktion, einschließlich Anleitungen zu wann und wie um sie aufzurufen, und Anleitungen darüber, was der Benutzer beim Anrufen mitteilen soll (falls vorhanden). |
Nein | |
| Name | Schnur | Der Name der Funktion. | Nein | |
| parameters | OpenAI.RealtimeFunctionToolParameters | Nein | ||
| type | enum | Der Typ des Tools, d. h. function.Möglicher Wert: function |
Nein |
OpenAI.RealtimeFunctionToolParameters
Typ: Objekt
OpenAI.RealtimeSessionCreateRequest
Eine neue Realtime-Sitzungskonfiguration mit einem kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt eine Minute.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeSessionCreateRequestClientSecret | Ja | ||
| └– abläuft_am | integer | Ja | ||
| └– Wert | Schnur | Ja | ||
| input_audio_format | Schnur | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
Nein | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | Nein | ||
| └─ Modell | Schnur | Nein | ||
| instructions | Schnur | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind. |
Nein | |
| max_response_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| modalities | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio legen Sie dies auf ["text"] fest. |
Nein | ['text'; 'audio'] |
| output_audio_format | Schnur | Das Ausgabeaudioformat. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
Nein | |
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| speed | number | Die Geschwindigkeit der gesprochenen Antwort des Modells. 1.0 ist die Standardgeschwindigkeit. 0.25 ist die Mindestgeschwindigkeit. 1,5 ist die maximale Geschwindigkeit. Dieser Wert kann nur geändert werden. in between model turns, not while a response is in progress. Einschränkungen: min: 0,25, max: 1,5 |
Nein | 1 |
| Temperatur | number | Probenahmetemperatur für das Modell, beschränkt auf [0.6, 1.2]. Der Standardwert ist 0,8. | Nein | |
| tool_choice | Schnur | Gibt an, wie das Modell Tools auswählt. Optionen sind auto, , none, requiredodergeben Sie eine Funktion an. |
Nein | |
| Werkzeuge | Array von OpenAI.RealtimeSessionCreateRequestTools | Tools (Funktionen), die für das Modell verfügbar sind. | Nein | |
| tracing | Zeichenfolge oder Objekt | Konfigurationsoptionen für die Ablaufverfolgung. Legen Sie auf NULL fest, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | |
| truncation | OpenAI.RealtimeTruncation | Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet. |
Nein | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | Nein | ||
| └– prefix_padding_ms | integer | Nein | ||
| └– Dauer_der_Stille_in_ms | integer | Nein | ||
| └– Schwellenwert | number | Nein | ||
| └– Typ | Schnur | Nein | ||
| type | enum | Möglicher Wert: realtime |
Ja | |
| voice | OpenAI.VoiceIdsShared | Nein |
OpenAI.RealtimeSessionCreateRequestClientSecret
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| läuft_ab_am | integer | Ja | ||
| Wert | Schnur | Ja |
OpenAI.RealtimeSessionCreateRequestGA
Objektkonfiguration der Echtzeitsitzung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio | OpenAI.RealtimeSessionCreateRequestGAAudio | Nein | ||
| └– Eingabe | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Nein | ||
| └─ Ausgabe | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Nein | ||
| einschließen | Array von Zeichenfolgen | Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen.item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein. |
Nein | |
| instructions | Schnur | Die standardmäßigen Systemanweisungen (d. h. Systemmeldungen) werden den Modellaufrufen vorangestellt. Dieses Feld ermöglicht es dem Client, das Modell auf die gewünschten Antworten zu leiten. Das Modell kann an Antwortinhalten und -formaten angewiesen werden (z. B. "extrem prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und audioverhalten (z. B. "Sprechen Sie schnell", "Emotionen in Ihre Stimme einfügen", "lachen Sie häufig"). Es kann nicht garantiert werden, dass die Anweisungen vom Modell befolgt werden, aber sie bieten dem Modell eine Orientierung für das gewünschte Verhalten. Beachten Sie, dass der Server Standardinstruktionen setzt, die verwendet werden, wenn dieses Feld nicht gesetzt ist und im Event zu Beginn der Sitzung sichtbar session.created sind. |
Nein | |
| max_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| Modell | Schnur | Das für diese Sitzung verwendete Realtime-Modell. | Nein | |
| Ausgabemodalitäten | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. Der Standardwert ist ["audio"], der angibt, dassdass das Modell mit Audio und einer Transkription reagiert. ["text"] kann verwendet werden, umDas Modell antwortet nur mit Text. Es ist nicht möglich, beide text und audio gleichzeitig anzufordern. |
Nein | ['audio'] |
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceFunction oder OpenAI.ToolChoiceMCP | Gibt an, wie das Modell Tools auswählt. Bereitstellen eines der Zeichenfolgenmodi oder Erzwingen eines bestimmten Zeichenfolgenmodus function/MCP tool. |
Nein | |
| Werkzeuge | Array von OpenAI.RealtimeFunctionTool oder OpenAI.MCPTool | Tools, die für das Modell verfügbar sind. | Nein | |
| tracing | string oder OpenAI.RealtimeSessionCreateRequestGATracing oder null | "" Auf NULL festgelegt, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | |
| truncation | OpenAI.RealtimeTruncation | Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet. |
Nein | |
| type | enum | Der Typ der zu erstellenden Sitzung. Immer realtime für die Realtime-API.Möglicher Wert: realtime |
Ja |
OpenAI.RealtimeSessionCreateRequestGAAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Nein | ||
| output | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Nein |
OpenAI.RealtimeSessionCreateRequestGAAudioInput
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Nein | ||
| noise_reduction | OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction | Nein | ||
| Transkription | OpenAI.AudioTranscription | Nein | ||
| turn_detection | OpenAI.RealtimeTurnDetection | Nein |
OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.NoiseReductionType | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. |
Nein |
OpenAI.RealtimeSessionCreateRequestGAAudioOutput
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Nein | ||
| speed | number | Einschränkungen: min: 0,25, max: 1,5 | Nein | 1 |
| voice | OpenAI.VoiceIdsShared | Nein |
OpenAI.RealtimeSessionCreateRequestGATracing
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| group_id | Schnur | Nein | ||
| metadata | Objekt | Nein | ||
| workflow_name | Schnur | Nein |
OpenAI.RealtimeSessionCreateRequestInputAudioTranscription
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Modell | Schnur | Nein |
OpenAI.RealtimeSessionCreateRequestTools
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Nein | ||
| Name | Schnur | Nein | ||
| parameters | OpenAI.RealtimeSessionCreateRequestToolsParameters | Nein | ||
| type | enum | Möglicher Wert: function |
Nein |
OpenAI.RealtimeSessionCreateRequestToolsParameters
Typ: Objekt
OpenAI.RealtimeSessionCreateRequestTurnDetection
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Nein | ||
| Stille_Dauer_ms | integer | Nein | ||
| threshold | number | Nein | ||
| type | Schnur | Nein |
OpenAI.RealtimeSessionCreateRequestUnion
Diskriminator für OpenAI.RealtimeSessionCreateRequestUnion
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateRequest |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateRequest |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.RealtimeSessionCreateRequestUnionType | Ja |
OpenAI.RealtimeSessionCreateRequestUnionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | realtimetranscription |
OpenAI.RealtimeSessionCreateResponse
Ein Realtime-Sitzungskonfigurationsobjekt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio | OpenAI.RealtimeSessionCreateResponseAudio | Nein | ||
| └– Eingabe | OpenAI.RealtimeSessionCreateResponseAudioInput | Nein | ||
| └─ Ausgabe | OpenAI.RealtimeSessionCreateResponseAudioOutput | Nein | ||
| läuft_ab_am | integer | Ablaufzeitstempel für die Sitzung in Sekunden seit der Epoche. | Nein | |
| id | Schnur | Eindeutiger Bezeichner für die Sitzung, die wie sess_1234567890abcdeffolgt aussieht. |
Nein | |
| einschließen | Array von Zeichenfolgen | Zusätzliche Felder, die in Serverausgaben eingeschlossen werden sollen. - item.input_audio_transcription.logprobs: Schließen Sie Logprobs für die Audiotranskription für die Eingabe ein. |
Nein | |
| instructions | Schnur | Die Standardsystemanweisungen (d. h. Systemmeldung) werden dem Modell vorangestellt Anrufe. Dieses Feld ermöglicht es dem Client, das Modell nach Wunsch zu leiten. Antworten. Das Modell kann für Antwortinhalte und -formate angewiesen werden, (Beispiel: "sehr prägnant", "handeln freundlich", "hier sind Beispiele für gute Antworten") und über das Audioverhalten (z. B. "Schnell sprechen", "Emotion injizieren") in deine Stimme", "lacht häufig"). Die Anweisungen sind nicht garantiert auf das Modell folgen, aber sie bieten Anleitungen für das Modell auf dem gewünschtes Verhalten. Beachten Sie, dass der Server Standardanweisungen festlegt, die verwendet werden, wenn dies der Fall ist. field is not set and are visible in the session.created event at theBeginn der Sitzung. |
Nein | |
| max_output_tokens | ganze Zahl (siehe gültige Modelle unten) | Maximale Anzahl von Ausgabetoken für eine einzelne Assistentenantwort, einschließlich von Toolaufrufen. Geben Sie eine ganze Zahl zwischen 1 und 4096 an Einschränken von Ausgabetoken oder inf für die maximal verfügbaren Token für einangegebenes Modell. Wird standardmäßig auf inf festgelegt. |
Nein | |
| Modell | Schnur | Das für diese Sitzung verwendete Realtime-Modell. | Nein | |
| Objekt | Schnur | Der Objekttyp. Immer realtime.session. |
Nein | |
| Ausgabemodalitäten | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio legen Sie dies auf ["text"] fest. |
Nein | |
| tool_choice | Schnur | Gibt an, wie das Modell Tools auswählt. Optionen sind auto, , none, requiredodergeben Sie eine Funktion an. |
Nein | |
| Werkzeuge | Array von OpenAI.RealtimeFunctionTool | Tools (Funktionen), die für das Modell verfügbar sind. | Nein | |
| tracing | Zeichenfolge oder Objekt | Konfigurationsoptionen für die Ablaufverfolgung. Legen Sie auf NULL fest, um die Ablaufverfolgung zu deaktivieren. Einmal Die Ablaufverfolgung ist für eine Sitzung aktiviert, die Konfiguration kann nicht geändert werden. auto erstellt eine Ablaufverfolgung für die Sitzung mit Standardwerten für dieWorkflowname, Gruppen-ID und Metadaten. |
Nein | |
| turn_detection | OpenAI.RealtimeSessionCreateResponseTurnDetection | Nein | ||
| └– prefix_padding_ms | integer | Nein | ||
| └– Dauer_der_Stille_in_ms | integer | Nein | ||
| └– Schwellenwert | number | Nein | ||
| └– Typ | Schnur | Nein | ||
| type | enum | Möglicher Wert: realtime |
Ja |
OpenAI.RealtimeSessionCreateResponseAudio
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | OpenAI.RealtimeSessionCreateResponseAudioInput | Nein | ||
| output | OpenAI.RealtimeSessionCreateResponseAudioOutput | Nein |
OpenAI.RealtimeSessionCreateResponseAudioInput
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Nein | ||
| noise_reduction | OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction | Nein | ||
| Transkription | OpenAI.AudioTranscription | Nein | ||
| turn_detection | OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection | Nein |
OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.NoiseReductionType | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. |
Nein |
OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Nein | ||
| Stille_Dauer_ms | integer | Nein | ||
| threshold | number | Nein | ||
| type | Schnur | Nein |
OpenAI.RealtimeSessionCreateResponseAudioOutput
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | OpenAI.RealtimeAudioFormats | Nein | ||
| speed | number | Nein | ||
| voice | OpenAI.VoiceIdsShared | Nein |
OpenAI.RealtimeSessionCreateResponseTurnDetection
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Nein | ||
| Stille_Dauer_ms | integer | Nein | ||
| threshold | number | Nein | ||
| type | Schnur | Nein |
OpenAI.RealtimeSessionCreateResponseUnion
Diskriminator für OpenAI.RealtimeSessionCreateResponseUnion
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateResponse |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateResponse |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.RealtimeSessionCreateResponseUnionType | Ja |
OpenAI.RealtimeSessionCreateResponseUnionType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | realtimetranscription |
OpenAI.RealtimeTranscriptionSessionCreateRequest
Echtzeit-Transkriptionssitzungsobjektkonfiguration.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| einschließen | Array von Zeichenfolgen | Die Gruppe der Elemente, die in die Transkription aufgenommen werden sollen. Aktuelle verfügbare Elemente sind:item.input_audio_transcription.logprobs |
Nein | |
| input_audio_format | enum | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw.Für pcm16, Eingabeaudio muss 16-Bit-PCM mit einer 24-kHz-Abtastrate sein,Einzelkanal (Mono) und kleine Bytereihenfolge. Mögliche Werte: pcm16, , g711_ulawg711_alaw |
Nein | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | Nein | ||
| └– Typ | OpenAI.NoiseReductionType | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. |
Nein | |
| input_audio_transcription | OpenAI.AudioTranscription | Nein | ||
| └– Sprache | Schnur | Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in ISO-639-1 (z. B. en) Formatverbessert die Genauigkeit und Latenz. |
Nein | |
| └─ Modell | Schnur | Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. |
Nein | |
| └– Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals Segment. For whisper-1, the prompt is a list of keywords.Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
Nein | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | Nein | ||
| └– prefix_padding_ms | integer | Nein | ||
| └– Dauer_der_Stille_in_ms | integer | Nein | ||
| └– Schwellenwert | number | Nein | ||
| └– Typ | enum | Möglicher Wert: server_vad |
Nein | |
| type | enum | Möglicher Wert: transcription |
Ja |
OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.NoiseReductionType | Art der Rauschunterdrückung.
near_field ist für Nahgesprächsmikrofone wie Kopfhörer vorgesehen, far_field für Weitfeldmikrofone wie Laptop- oder Konferenzraummikrofone. |
Nein |
OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Nein | ||
| Stille_Dauer_ms | integer | Nein | ||
| threshold | number | Nein | ||
| type | enum | Möglicher Wert: server_vad |
Nein |
OpenAI.RealtimeTranscriptionSessionCreateResponse
Eine neue Realtime-Transkriptionssitzungskonfiguration. Wenn eine Sitzung über die REST-API auf dem Server erstellt wird, enthält das Sitzungsobjekt auch einen kurzlebigen Schlüssel. Die Standard-TTL für Schlüssel beträgt 10 Minuten. Diese Eigenschaft ist nicht vorhanden, wenn eine Sitzung über die WebSocket-API aktualisiert wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret | Ja | ||
| └– abläuft_am | integer | Ja | ||
| └– Wert | Schnur | Ja | ||
| input_audio_format | Schnur | Das Format des Audioeingangs. Optionen sind pcm16, g711_ulaw oder g711_alaw. |
Nein | |
| input_audio_transcription | OpenAI.AudioTranscription | Nein | ||
| └– Sprache | Schnur | Die Sprache der Audioeingabe. Bereitstellen der Eingabesprache in ISO-639-1 (z. B. en) Formatverbessert die Genauigkeit und Latenz. |
Nein | |
| └─ Modell | Schnur | Das Modell, das für die Transkription verwendet werden soll. Aktuelle Optionen sind whisper-1, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, gpt-4o-transcribeund gpt-4o-transcribe-diarize. Verwenden Sie diese Verwendung gpt-4o-transcribe-diarize , wenn Sie Diarisierung mit Lautsprecherbeschriftungen benötigen. |
Nein | |
| └– Eingabeaufforderung | Schnur | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosignals Segment. For whisper-1, the prompt is a list of keywords.Bei gpt-4o-transcribe Modellen (mit Ausnahme gpt-4o-transcribe-diarize) ist die Eingabeaufforderung eine freie Textzeichenfolge, z. B. "Wörter im Zusammenhang mit Technologie erwarten". |
Nein | |
| modalities | Array von Zeichenfolgen | Die Reihe von Modalitäten, mit der das Modell reagieren kann. So deaktivieren Sie Audio legen Sie dies auf ["text"] fest. |
Nein | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection | Nein | ||
| └– prefix_padding_ms | integer | Nein | ||
| └– Dauer_der_Stille_in_ms | integer | Nein | ||
| └– Schwellenwert | number | Nein | ||
| └– Typ | Schnur | Nein | ||
| type | enum | Möglicher Wert: transcription |
Ja |
OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| läuft_ab_am | integer | Ja | ||
| Wert | Schnur | Ja |
OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Nein | ||
| Stille_Dauer_ms | integer | Nein | ||
| threshold | number | Nein | ||
| type | Schnur | Nein |
OpenAI.RealtimeTruncation
Wenn die Anzahl der Token in einer Unterhaltung den Eingabetokengrenzwert des Modells überschreitet, wird die Unterhaltung abgeschnitten, was bedeutet, dass Nachrichten (beginnend mit dem ältesten) nicht im Kontext des Modells enthalten sind. Ein 32k-Kontextmodell mit maximal 4.096 maximalen Ausgabetoken kann nur 28.224 Token im Kontext enthalten, bevor die Abkürzung erfolgt. Clients können das Abkürzungsverhalten so konfigurieren, dass sie mit einem niedrigeren maximalen Tokenlimit abgeschnitten werden, was eine effektive Möglichkeit zur Steuerung der Tokennutzung und -kosten ist. Durch Abschneiden wird die Anzahl der zwischengespeicherten Token beim nächsten Schritt (Busting des Caches) reduziert, da Nachrichten vom Anfang des Kontexts gelöscht werden. Clients können jedoch auch die Abkürzung konfigurieren, um Nachrichten bis zu einem Bruchteil der maximalen Kontextgröße beizubehalten, wodurch die Notwendigkeit zukünftiger Abkürzungen verringert und dadurch die Cacherate verbessert wird. Die Abkürzung kann vollständig deaktiviert werden, was bedeutet, dass der Server nie abgeschnitten wird, sondern stattdessen einen Fehler zurückgibt, wenn die Unterhaltung den Eingabetokengrenzwert des Modells überschreitet.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | autodisabled |
OpenAI.RealtimeTurnDetection
Diskriminator für OpenAI.RealtimeTurnDetection
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.RealtimeTurnDetectionType | Ja |
OpenAI.RealtimeTurnDetectionType
Typ: string
OpenAI.Reasoning
Nur GPT-5 und O-Serie Modelle Konfigurationsoptionen für Schlussfolgermodelle.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| effort | OpenAI.ReasoningEffort | Schränkt den Begründungsaufwand ein für Begründungsmodelle. Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. ReduzierenDer Denkaufwand kann zu schnelleren Antworten und weniger genutzten Token führen. die bei der Begründung in einer Antwort verwendet werden. - gpt-5.1 Standardwert ist none, was keine Begründung ausführt. Die unterstützten Argumentationswerte für gpt-5.1 sind none, low, medium, und high. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt.- Alle Modelle vor gpt-5.1 der Standardeinstellung des medium Grundaufwands und nicht unterstützen none.- Das gpt-5-pro Modell ist standardmäßig auf (und nur unterstützt) high Grunderlegungsaufwand festgelegt.- xhigh wird für alle Modelle nach gpt-5.1-codex-max. |
Nein | |
| generate_summary | Zeichenfolge oder null | Nein | ||
| summary | Zeichenfolge oder null | Nein |
OpenAI.ReasoningEffort
Schränkt den Begründungsaufwand für Begründungsmodelle ein.
Derzeit unterstützte Werte sind none, minimal, , low, medium, highund xhigh. Das Reduzieren von Begründungen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
-
gpt-5.1standardmäßig aufnone, was kein Schlussfolgern ausführt. Die unterstützten Argumentationswerte fürgpt-5.1sindnone,low,medium, undhigh. Toolaufrufe werden für alle Gründe in gpt-5.1 unterstützt. - Alle Modelle dienen vorher
gpt-5.1standardmäßig demmediumReasoning-Aufwand und unterstützennonenicht . - Das
gpt-5-proModell basiert standardmäßig auf (und unterstützt nur)highden Schlussfolgerungsaufwand. -
xhighwird für alle Modelle nachgpt-5.1-codex-maxunterstützt.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | noneminimallowmediumhighxhigh |
OpenAI.ReasoningTextContent
Argumentationstext aus dem Modell.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Der Argumentationstext des Modells. | Ja | |
| type | enum | Die Art des Argumentationstextes. Immer reasoning_text.Möglicher Wert: reasoning_text |
Ja |
OpenAI.RefusalContent
Eine Ablehnung des Modells
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ablehnung | Schnur | Die Erklärung der Ablehnung des Modells | Ja | |
| type | enum | Die Art der Ablehnung. Immer refusal.Möglicher Wert: refusal |
Ja |
OpenAI.Response
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| background | Boolescher Wert oder Null | Nein | ||
| abgeschlossen_am | Zeichenfolge oder null | Nein | ||
| content_filters | Array von AzureContentFilterForResponsesAPI | Der Inhaltsfilter ergibt sich aus RAI. | Ja | |
| -Unterhaltung | OpenAI.ConversationReference oder NULL | Nein | ||
| erstellt_am | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| Fehler | OpenAI.ResponseError oder NULL | Ja | ||
| id | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| incomplete_details | OpenAI.ResponseIncompleteDetails oder NULL | Ja | ||
| instructions | Zeichenfolge oder Array von OpenAI.InputItem oder NULL | Ja | ||
| max_output_tokens | ganze Zahl oder Null | Nein | ||
| max_tool_calls | ganze Zahl oder Null | Nein | ||
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| output | Array von OpenAI.OutputItem | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| output_text | Zeichenfolge oder null | Nein | ||
| Parallele Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| previous_response_id | Zeichenfolge oder null | Nein | ||
| prompt | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| reasoning | OpenAI.Reasoning oder NULL | Nein | ||
| safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| Temperatur | Zahl oder Null | Nein | ||
| Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| tool_choice | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| top_logprobs | ganze Zahl oder Null | Nein | ||
| top_p | Zahl oder Null | Nein | ||
| truncation | Zeichenfolge oder null | Nein | ||
| usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken. |
Nein | |
| user | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein |
OpenAI.ResponseAudioDeltaEvent
Wird ausgegeben, wenn eine partielle Audioantwort vorhanden ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Ein Block der Base64-codierten Antwortaudiobytes | Ja | |
| sequence_number | integer | Eine Sequenznummer für diesen Datenblock der Datenstromantwort. | Ja | |
| type | enum | Typ des Ereignisses Immer response.audio.delta.Möglicher Wert: response.audio.delta |
Ja |
OpenAI.ResponseAudioTranscriptDeltaEvent
Wird ausgegeben, wenn eine partielle Transkription von Audio vorhanden ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Die partielle Transkription der Audioantwort. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.audio.transcript.delta.Möglicher Wert: response.audio.transcript.delta |
Ja |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Wird ausgegeben, wenn ein partieller Codeschnipsel vom Code-Interpreter gestreamt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Der partielle Codeschnipsel, der vom Code-Interpreter gestreamt wird. | Ja | |
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses, die zum Sortieren von Streamingereignissen verwendet wird. | Ja | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call_code.delta.Möglicher Wert: response.code_interpreter_call_code.delta |
Ja |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Aufruf des Code-Interpreters in Arbeit ist. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses, die zum Sortieren von Streamingereignissen verwendet wird. | Ja | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.in_progress.Möglicher Wert: response.code_interpreter_call.in_progress |
Ja |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des Toolaufrufelements des Code-Interpreters. | Ja | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code-Interpreter Code interpretiert. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses, die zum Sortieren von Streamingereignissen verwendet wird. | Ja | |
| type | enum | Typ des Ereignisses Immer response.code_interpreter_call.interpreting.Möglicher Wert: response.code_interpreter_call.interpreting |
Ja |
OpenAI.ResponseContentPartAddedEvent
Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des hinzugefügten Inhaltsteils. | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Ja | |
| part | OpenAI.OutputContent | Ja | ||
| └– Typ | OpenAI.OutputContentType | Ja | ||
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.content_part.added.Möglicher Wert: response.content_part.added |
Ja |
OpenAI.ResponseCreatedEvent
Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| response | OpenAI.Response | Ja | ||
| └– Hintergrund | Boolescher Wert oder Null | Nein | ||
| └– completed_at | Zeichenfolge oder null | Nein | ||
| └- content_filters | Array von AzureContentFilterForResponsesAPI | Der Inhaltsfilter ergibt sich aus RAI. | Ja | |
| └– Unterhaltung | OpenAI.ConversationReference oder NULL | Nein | ||
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| └– Fehler | OpenAI.ResponseError oder NULL | Ja | ||
| └– ID | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| └─ unvollständige_Details | OpenAI.ResponseIncompleteDetails oder NULL | Ja | ||
| └– Anweisungen | Zeichenfolge oder Array von OpenAI.InputItem oder NULL | Ja | ||
| └– max_output_tokens | ganze Zahl oder Null | Nein | ||
| └– max_tool_calls | ganze Zahl oder Null | Nein | ||
| └- Metadaten | OpenAI.Metadata oder NULL | Nein | ||
| └─ Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| └─ Ausgabe | Array von OpenAI.OutputItem | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| └─ Ausgabentext | Zeichenfolge oder null | Nein | ||
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| └– vorherige_Antwort_ID | Zeichenfolge oder null | Nein | ||
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| └– Begründung | OpenAI.Reasoning oder NULL | Nein | ||
| └– safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| └─ Status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | Zahl oder Null | Nein | 1 | |
| └– Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| └– top_logprobs | ganze Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| └– Abschneiden | Zeichenfolge oder null | Nein | deaktiviert | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken. |
Nein | |
| └– Benutzer | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein | |
| sequence_number | integer | Die Sequenznummer für dieses Ereignis. | Ja | |
| type | enum | Typ des Ereignisses Immer response.created.Möglicher Wert: response.created |
Ja |
OpenAI.ResponseCustomToolCallInputDeltaEvent
Ereignis, das ein Delta (partielle Aktualisierung) für die Eingabe eines benutzerdefinierten Toolaufrufs darstellt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Die inkrementellen Eingabedaten (Delta) für den benutzerdefinierten Toolaufruf. | Ja | |
| item_id | Schnur | Eindeutiger Bezeichner für das API-Element, das diesem Ereignis zugeordnet ist. | Ja | |
| output_index | integer | Der Index der Ausgabe, auf die dieses Delta angewendet wird. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Der Ereignistypbezeichner. Möglicher Wert: response.custom_tool_call_input.delta |
Ja |
OpenAI.ResponseError
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | Ja | |
| Nachricht | Schnur | Eine für Menschen lesbare Beschreibung des Fehlers. | Ja |
OpenAI.ResponseErrorCode
Der Fehlercode für die Antwort.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Wird ausgegeben, wenn ein Fehler auftritt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | Zeichenfolge oder null | Ja | ||
| Nachricht | Schnur | Die Fehlermeldung. | Ja | |
| param | Zeichenfolge oder null | Ja | ||
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer error.Möglicher Wert: error |
Ja |
OpenAI.ResponseFailedEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| response | OpenAI.Response | Ja | ||
| └– Hintergrund | Boolescher Wert oder Null | Nein | ||
| └– completed_at | Zeichenfolge oder null | Nein | ||
| └- content_filters | Array von AzureContentFilterForResponsesAPI | Der Inhaltsfilter ergibt sich aus RAI. | Ja | |
| └– Unterhaltung | OpenAI.ConversationReference oder NULL | Nein | ||
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| └– Fehler | OpenAI.ResponseError oder NULL | Ja | ||
| └– ID | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| └─ unvollständige_Details | OpenAI.ResponseIncompleteDetails oder NULL | Ja | ||
| └– Anweisungen | Zeichenfolge oder Array von OpenAI.InputItem oder NULL | Ja | ||
| └– max_output_tokens | ganze Zahl oder Null | Nein | ||
| └– max_tool_calls | ganze Zahl oder Null | Nein | ||
| └- Metadaten | OpenAI.Metadata oder NULL | Nein | ||
| └─ Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| └─ Ausgabe | Array von OpenAI.OutputItem | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| └─ Ausgabentext | Zeichenfolge oder null | Nein | ||
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| └– vorherige_Antwort_ID | Zeichenfolge oder null | Nein | ||
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| └– Begründung | OpenAI.Reasoning oder NULL | Nein | ||
| └– safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| └─ Status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | Zahl oder Null | Nein | 1 | |
| └– Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| └– top_logprobs | ganze Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| └– Abschneiden | Zeichenfolge oder null | Nein | deaktiviert | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken. |
Nein | |
| └– Benutzer | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.failed.Möglicher Wert: response.failed |
Ja |
OpenAI.ResponseFileSearchCallInProgressEvent
Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dass der Dateisuchaufruf initiiert wurde | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.file_search_call.in_progress.Möglicher Wert: response.file_search_call.in_progress |
Ja |
OpenAI.ResponseFileSearchCallSearchingEvent
Wird ausgegeben, wenn eine Dateisuche aktuell ausgeführt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Ausgabeelements, mit der der Dateisuchaufruf initiiert wird. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, das der Dateisuchaufruf sucht. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.file_search_call.searching.Möglicher Wert: response.file_search_call.searching |
Ja |
OpenAI.ResponseFormatJsonObject
JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten.
Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_object.Möglicher Wert: json_object |
Ja |
OpenAI.ResponseFormatJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Erfahren Sie mehr über Structured Outputs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| JSON-Schema | OpenAI.ResponseFormatJsonSchemaJsonSchema | Ja | ||
| └– Beschreibung | Schnur | Nein | ||
| └– Name | Schnur | Ja | ||
| └- Schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Nein | |
| └– streng | Boolescher Wert oder Null | Nein | ||
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Möglicher Wert: json_schema |
Ja |
OpenAI.ResponseFormatJsonSchemaJsonSchema
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Nein | ||
| Name | Schnur | Ja | ||
| Schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Nein | |
| strict | Boolescher Wert oder Null | Nein |
OpenAI.ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Typ: Objekt
OpenAI.ResponseFormatText
Standardantwortformat. Wird verwendet, um Textantworten zu generieren.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer text.Möglicher Wert: text |
Ja |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein partielles Argumentdelta eines Funktionsaufrufs vorhanden ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Das hinzugefügte Argumentdelta des Funktionsaufrufs | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem das Argumentdelta des Funktionsaufrufs hinzugefügt wird | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.function_call_arguments.delta.Möglicher Wert: response.function_call_arguments.delta |
Ja |
OpenAI.ResponseImageGenCallGeneratingEvent
Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild (Zwischenzustand) generiert.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| sequence_number | integer | Die Sequenznummer des verarbeiteten Bildgenerierungselements. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.image_generation_call.generating. Möglicher Wert: response.image_generation_call.generating |
Ja |
OpenAI.ResponseImageGenCallInProgressEvent
Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung ausgeführt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| sequence_number | integer | Die Sequenznummer des verarbeiteten Bildgenerierungselements. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.image_generation_call.in_progress”. Möglicher Wert: response.image_generation_call.in_progress |
Ja |
OpenAI.ResponseImageGenCallPartialImageEvent
Wird ausgegeben, wenn ein Teilbild während des Bildgenerierungsstreamings verfügbar ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| partial_image_b64 | Schnur | Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. | Ja | |
| partial_image_index | integer | 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). | Ja | |
| sequence_number | integer | Die Sequenznummer des verarbeiteten Bildgenerierungselements. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.image_generation_call.partial_image”. Möglicher Wert: response.image_generation_call.partial_image |
Ja |
OpenAI.ResponseInProgressEvent
Wird ausgegeben, wenn die Antwort derzeit verarbeitet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| response | OpenAI.Response | Ja | ||
| └– Hintergrund | Boolescher Wert oder Null | Nein | ||
| └– completed_at | Zeichenfolge oder null | Nein | ||
| └- content_filters | Array von AzureContentFilterForResponsesAPI | Der Inhaltsfilter ergibt sich aus RAI. | Ja | |
| └– Unterhaltung | OpenAI.ConversationReference oder NULL | Nein | ||
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| └– Fehler | OpenAI.ResponseError oder NULL | Ja | ||
| └– ID | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| └─ unvollständige_Details | OpenAI.ResponseIncompleteDetails oder NULL | Ja | ||
| └– Anweisungen | Zeichenfolge oder Array von OpenAI.InputItem oder NULL | Ja | ||
| └– max_output_tokens | ganze Zahl oder Null | Nein | ||
| └– max_tool_calls | ganze Zahl oder Null | Nein | ||
| └- Metadaten | OpenAI.Metadata oder NULL | Nein | ||
| └─ Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| └─ Ausgabe | Array von OpenAI.OutputItem | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| └─ Ausgabentext | Zeichenfolge oder null | Nein | ||
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| └– vorherige_Antwort_ID | Zeichenfolge oder null | Nein | ||
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| └– Begründung | OpenAI.Reasoning oder NULL | Nein | ||
| └– safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| └─ Status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | Zahl oder Null | Nein | 1 | |
| └– Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| └– top_logprobs | ganze Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| └– Abschneiden | Zeichenfolge oder null | Nein | deaktiviert | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken. |
Nein | |
| └– Benutzer | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.in_progress.Möglicher Wert: response.in_progress |
Ja |
OpenAI.ResponseIncompleteDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Grund | enum | Mögliche Werte: max_output_tokens, content_filter |
Nein |
OpenAI.ResponseIncompleteEvent
Ein Ereignis, das ausgelöst wird, wenn eine Antwort als unvollständig beendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| response | OpenAI.Response | Ja | ||
| └– Hintergrund | Boolescher Wert oder Null | Nein | ||
| └– completed_at | Zeichenfolge oder null | Nein | ||
| └- content_filters | Array von AzureContentFilterForResponsesAPI | Der Inhaltsfilter ergibt sich aus RAI. | Ja | |
| └– Unterhaltung | OpenAI.ConversationReference oder NULL | Nein | ||
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| └– Fehler | OpenAI.ResponseError oder NULL | Ja | ||
| └– ID | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| └─ unvollständige_Details | OpenAI.ResponseIncompleteDetails oder NULL | Ja | ||
| └– Anweisungen | Zeichenfolge oder Array von OpenAI.InputItem oder NULL | Ja | ||
| └– max_output_tokens | ganze Zahl oder Null | Nein | ||
| └– max_tool_calls | ganze Zahl oder Null | Nein | ||
| └- Metadaten | OpenAI.Metadata oder NULL | Nein | ||
| └─ Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| └─ Ausgabe | Array von OpenAI.OutputItem | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| └─ Ausgabentext | Zeichenfolge oder null | Nein | ||
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| └– vorherige_Antwort_ID | Zeichenfolge oder null | Nein | ||
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| └– Begründung | OpenAI.Reasoning oder NULL | Nein | ||
| └– safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| └─ Status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | Zahl oder Null | Nein | 1 | |
| └– Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| └– top_logprobs | ganze Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| └– Abschneiden | Zeichenfolge oder null | Nein | deaktiviert | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken. |
Nein | |
| └– Benutzer | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.incomplete.Möglicher Wert: response.incomplete |
Ja |
OpenAI.ResponseItemList
Eine Liste der Antwortelemente.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.ItemResource | Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. | Ja | |
| first_id | Schnur | Die ID des ersten Elements in der Liste. | Ja | |
| has_more | boolean | Gibt an, ob weitere Elemente verfügbar sind. | Ja | |
| last_id | Schnur | Die ID des letzten Elements in der Liste. | Ja | |
| Objekt | enum | Der Typ des zurückgegebenen Objekts muss sein list.Möglicher Wert: list |
Ja |
OpenAI.ResponseLogProb
Ein Logprob ist die logarithmische Wahrscheinlichkeit, die das Modell der Erstellung eines bestimmten Tokens an einer bestimmten Position in der Sequenz zuweist. Weniger negative (höhere) Logprobwerte deuten auf eine höhere Modellvertrauensstufe in diese Tokenauswahl hin.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| logprob | number | Die logarithmierte Wahrscheinlichkeit dieses Tokens | Ja | |
| token | Schnur | Ein mögliches Texttoken. | Ja | |
| top_logprobs | Array von OpenAI.ResponseLogProbTopLogprobs | Die Protokollwahrscheinlichkeit der top 20 höchstwahrscheinlichen Token. | Nein |
OpenAI.ResponseLogProbTopLogprobs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| logprob | number | Nein | ||
| token | Schnur | Nein |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Eine JSON-Zeichenfolge, die die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf enthält. | Ja | |
| item_id | Schnur | Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer "response.mcp_call_arguments.delta". Möglicher Wert: response.mcp_call_arguments.delta |
Ja |
OpenAI.ResponseMCPCallFailedEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Die ID des MCP-Toolaufrufelements, das fehlgeschlagen ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, das fehlgeschlagen ist. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.mcp_call.failed“. Möglicher Wert: response.mcp_call.failed |
Ja |
OpenAI.ResponseMCPCallInProgressEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf ausgeführt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.mcp_call.in_progress”. Möglicher Wert: response.mcp_call.in_progress |
Ja |
OpenAI.ResponseMCPListToolsFailedEvent
Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools auflisten, fehlgeschlagen ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Die ID des MCP-Toolaufrufelements, das fehlgeschlagen ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, das fehlgeschlagen ist. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.mcp_list_tools.failed”. Möglicher Wert: response.mcp_list_tools.failed |
Ja |
OpenAI.ResponseMCPListToolsInProgressEvent
Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Die ID des MCP-Toolaufrufelements, das verarbeitet wird. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, das verarbeitet wird. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.mcp_list_tools.in_progress”. Möglicher Wert: response.mcp_list_tools.in_progress |
Ja |
OpenAI.ResponseModalities
Ausgabetypen, die vom Modell generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"] Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden: ["text", "audio"]
Dieses Schema akzeptiert einen der folgenden Typen:
- Anordnung
- null
OpenAI.ResponseOutputItemAddedEvent
Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item | OpenAI.OutputItem | Ja | ||
| └– Typ | OpenAI.OutputItemType | Ja | ||
| output_index | integer | Der Index des Ausgabeelements, das hinzugefügt wurde. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.output_item.added.Möglicher Wert: response.output_item.added |
Ja |
OpenAI.ResponseOutputTextAnnotationAddedEvent
Wird ausgegeben, wenn eine Anmerkung zum Ausgabetextinhalt hinzugefügt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| annotation | OpenAI.Annotation | Eine Anmerkung, die sich auf einen Bereich von Ausgabetext bezieht. | Ja | |
| └– Typ | OpenAI.AnnotationType | Ja | ||
| annotation_index | integer | Der Index der Anmerkung innerhalb des Inhaltsteils. | Ja | |
| content_index | integer | Der Index des Inhaltsteils innerhalb des Ausgabeelements. | Ja | |
| item_id | Schnur | Der eindeutige Bezeichner des Elements, dem die Anmerkung hinzugefügt wird. | Ja | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer "response.output_text.annotation.added". Möglicher Wert: response.output_text.annotation.added |
Ja |
OpenAI.ResponsePromptVariables
Optionale Zuordnung von Werten, die Variablen in Ihrem Prompt ersetzen sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.
Typ: Objekt
OpenAI.ResponseQueuedEvent
Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| response | OpenAI.Response | Ja | ||
| └– Hintergrund | Boolescher Wert oder Null | Nein | ||
| └– completed_at | Zeichenfolge oder null | Nein | ||
| └- content_filters | Array von AzureContentFilterForResponsesAPI | Der Inhaltsfilter ergibt sich aus RAI. | Ja | |
| └– Unterhaltung | OpenAI.ConversationReference oder NULL | Nein | ||
| └– created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Ja | |
| └– Fehler | OpenAI.ResponseError oder NULL | Ja | ||
| └– ID | Schnur | Eindeutiger Bezeichner für diese Antwort | Ja | |
| └─ unvollständige_Details | OpenAI.ResponseIncompleteDetails oder NULL | Ja | ||
| └– Anweisungen | Zeichenfolge oder Array von OpenAI.InputItem oder NULL | Ja | ||
| └– max_output_tokens | ganze Zahl oder Null | Nein | ||
| └– max_tool_calls | ganze Zahl oder Null | Nein | ||
| └- Metadaten | OpenAI.Metadata oder NULL | Nein | ||
| └─ Modell | Schnur | Modell-ID, die zum Generieren der Antwort verwendet wird, z gpt-4o . B. oder o3. OpenAIbietet eine breite Palette von Modellen mit unterschiedlichen Funktionen, Leistung Merkmale und Preispunkte. Weitere Informationen finden Sie in der Modellanleitung um verfügbare Modelle zu durchsuchen und zu vergleichen. |
Nein | |
| └- Objekt | enum | Der Objekttyp dieser Ressource, immer auf response festgelegt.Möglicher Wert: response |
Ja | |
| └─ Ausgabe | Array von OpenAI.OutputItem | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array ist abhängigvon der Antwort des Modells. - Statt auf das erste Element im Array output zuzugreifen unddavon auszugehen, dass es sich um eine assistant-Nachricht mit dem Inhalt handelt, dervom Modell generiert wurde, können Sie ggf. die Eigenschaft output_text verwenden, soferndies in SDKs unterstützt wird. |
Ja | |
| └─ Ausgabentext | Zeichenfolge oder null | Nein | ||
| └─ parallele_Werkzeugaufrufe | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Ja | Richtig |
| └– vorherige_Antwort_ID | Zeichenfolge oder null | Nein | ||
| └– Eingabeaufforderung | OpenAI.Prompt | Verweisen Sie auf eine Promptvorlage und deren Variablen. Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_key | Schnur | Wird von OpenAI verwendet, um Antworten für ähnliche Anforderungen zwischenzuspeichern, um ihre Cachetreffraten zu optimieren. Ersetzt das user Feld.
Erfahren Sie mehr. |
Nein | |
| └– prompt_cache_retention | Zeichenfolge oder null | Nein | ||
| └– Begründung | OpenAI.Reasoning oder NULL | Nein | ||
| └– safety_identifier | Schnur | Ein stabiler Bezeichner, der verwendet wird, um Benutzer Ihrer Anwendung zu erkennen, die möglicherweise die Nutzungsrichtlinien von OpenAI verletzen. Die IDs sollten eine Zeichenfolge sein, die jeden Benutzer eindeutig identifiziert. Wir empfehlen, den Benutzernamen oder die E-Mail-Adresse zu hashen, um zu vermeiden, dass wir identifizierende Informationen senden. Erfahren Sie mehr. |
Nein | |
| └─ Status | enum | Der Status der Antwortgenerierung. Einer der folgenden Werte: completed, failed,in_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
Nein | |
| └– Temperatur | Zahl oder Null | Nein | 1 | |
| └– Text | OpenAI.ResponseTextParam | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann einfacher Text oder strukturierte JSON-Daten sein. Weitere Informationen: - Texteingaben und -ausgaben - Strukturierte Ausgaben |
Nein | |
| └─ Werkzeugwahl | OpenAI.ToolChoiceParam | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren verwendet werden sollen einer Antwort. Sehen Sie sich den tools Parameter an, um zu erfahren, wie Sie angeben, welche Toolsdas Modell aufrufen kann. |
Nein | |
| └- Werkzeuge | OpenAI.ToolsArray | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Wir unterstützen die folgenden Kategorien von Tools: - Integrierte Tools: Tools, die von OpenAI zur Erweiterung von Funktionen bereitgestellt werden Die Funktionen des Modells, wie Websuche oder Dateisuche. Weitere Informationen zu eingebaute Werkzeuge. - MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Weitere Informationen zu MCP-Tools. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, Aktivieren des Modells zum Aufrufen ihres eigenen Codes mit stark typierten Argumenten und Ausgaben. Weitere Informationen zu Funktionsaufruf. Sie können auch verwenden Benutzerdefinierte Tools zum Aufrufen ihres eigenen Codes. |
Nein | |
| └– top_logprobs | ganze Zahl oder Null | Nein | ||
| └– top_p | Zahl oder Null | Nein | 1 | |
| └– Abschneiden | Zeichenfolge oder null | Nein | deaktiviert | |
| └– Nutzung | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails dar, einschließlich Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken. |
Nein | |
| └– Benutzer | Zeichenfolge (veraltet) | Dieses Feld wird durch safety_identifier und prompt_cache_key. Verwenden Sie prompt_cache_key stattdessen die Zwischenspeicherungsoptimierungen.Ein stabiler Bezeichner für Ihre Endbenutzer. Wird verwendet, um Die Trefferraten des Caches zu erhöhen, indem ähnliche Anforderungen besser zusammengefasst werden, und um OpenAI dabei zu helfen, Missbrauch zu erkennen und zu verhindern. Erfahren Sie mehr. |
Nein | |
| sequence_number | integer | Die Sequenznummer für dieses Ereignis. | Ja | |
| type | enum | Typ des Ereignisses Immer „response.queued”. Möglicher Wert: response.queued |
Ja |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Wird ausgegeben, wenn ein neuer Zusammenfassungsteil für die Begründung hinzugefügt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. | Ja | |
| part | OpenAI.ResponseReasoningSummaryPartAddedEventPart | Ja | ||
| └– Text | Schnur | Ja | ||
| └– Typ | enum | Möglicher Wert: summary_text |
Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| summary_index | integer | Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. | Ja | |
| type | enum | Typ des Ereignisses Immer response.reasoning_summary_part.added.Möglicher Wert: response.reasoning_summary_part.added |
Ja |
OpenAI.ResponseReasoningSummaryPartAddedEventPart
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Ja | ||
| type | enum | Möglicher Wert: summary_text |
Ja |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Wird ausgegeben, wenn ein Delta zu einem Begründungszusammenfassungstext hinzugefügt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| delta | Schnur | Das Textdelta, das der Zusammenfassung hinzugefügt wurde. | Ja | |
| item_id | Schnur | Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| summary_index | integer | Der Index des zusammenfassenden Teils innerhalb der Begründungszusammenfassung. | Ja | |
| type | enum | Typ des Ereignisses Immer response.reasoning_summary_text.delta.Möglicher Wert: response.reasoning_summary_text.delta |
Ja |
OpenAI.ResponseReasoningTextDeltaEvent
Wird ausgegeben, wenn ein Delta einem Grundsatztext hinzugefügt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Grundinhaltsteils, dem dieses Delta zugeordnet ist. | Ja | |
| delta | Schnur | Das Textdelta, das dem Grundinhalt hinzugefügt wurde. | Ja | |
| item_id | Schnur | Die ID des Elements, dem dieses Grundtextdelta zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem dieses Grundtextdelta zugeordnet ist. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.reasoning_text.delta.Möglicher Wert: response.reasoning_text.delta |
Ja |
OpenAI.ResponseRefusalDeltaEvent
Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. | Ja | |
| delta | Schnur | Der Verweigerungstext, der hinzugefügt wird. | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. | Ja | |
| sequence_number | integer | Die Sequenznummer dieses Ereignisses. | Ja | |
| type | enum | Typ des Ereignisses Immer response.refusal.delta.Möglicher Wert: response.refusal.delta |
Ja |
OpenAI.ResponseStreamOptions
Optionen für Antworten im Streaming-Bereich. Legen Sie dies nur fest, wenn Sie stream: true festlegen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| include_obfuscation | boolean | Wenn WAHR, wird die Stream-Verschleierung aktiviert. Stream-Verschleierung fügt hinzu Zufällige Zeichen für ein obfuscation Feld bei Streaming-Delta-Ereignissennormalisieren Sie Nutzlastgrößen als Gegenmaßnahme für bestimmte Seitenkanalangriffe. Diese Verschleierungsfelder sind standardmäßig enthalten, fügen jedoch einen kleinen Betrag hinzu. mehr Aufwand für den Datenstrom. Sie können auf include_obfuscationfalse, um die Bandbreite zu optimieren, wenn Sie den Netzwerkverbindungen zwischen Ihre Anwendung und die OpenAI-API. |
Nein |
OpenAI.ResponseTextDeltaEvent
Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde | Ja | |
| delta | Schnur | Das Textdelta, das hinzugefügt wurde | Ja | |
| item_id | Schnur | Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. | Ja | |
| logprobs | Array von OpenAI.ResponseLogProb | Die Protokollwahrscheinlichkeiten der Token im Delta. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde | Ja | |
| sequence_number | integer | Die Sequenznummer für dieses Ereignis. | Ja | |
| type | enum | Typ des Ereignisses Immer response.output_text.delta.Möglicher Wert: response.output_text.delta |
Ja |
OpenAI.ResponseTextParam
Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. Weitere Informationen:
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| format | OpenAI.TextResponseFormatConfiguration | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Das Konfigurieren von { "type": "json_schema" } ermöglicht strukturierten Ausgaben,dadurch wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Weitere Informationen finden Sie in der Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.*Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung auf { "type": "json_object" } ermöglicht den älteren JSON-Modus, derstellt sicher, dass die Nachricht, die das Modell generiert, gültiger JSON-Code ist. Verwenden von json_schemawird für Modelle bevorzugt, die es unterstützen. |
Nein | |
| Wortfülle | OpenAI.Verbosity | Begrenzt die Wortreichweite der Antwort des Modells. Niedrigere Werte führen zu präzisere Antworten, während höhere Werte zu ausführlicheren Antworten führen. Derzeit werden die Werte low, medium und high unterstützt. |
Nein |
OpenAI.ResponseUsage
Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | Ja | |
| input_tokens_details | OpenAI.ResponseUsageInputTokensDetails | Ja | ||
| └– zwischengespeicherte_Token | integer | Ja | ||
| output_tokens | integer | Die Anzahl der Ausgabetoken. | Ja | |
| output_tokens_details | OpenAI.ResponseUsageOutputTokensDetails | Ja | ||
| └– reasoning_tokens | integer | Ja | ||
| Gesamtanzahl Tokens | integer | Die Gesamtzahl der verwendeten Token. | Ja |
OpenAI.ResponseUsageInputTokensDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cached_tokens | integer | Ja |
OpenAI.ResponseUsageOutputTokensDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Begründungs_Token | integer | Ja |
OpenAI.ResponseWebSearchCallInProgressEvent
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Ja | |
| sequence_number | integer | Die Sequenznummer des verarbeiteten Websuchaufrufs. | Ja | |
| type | enum | Typ des Ereignisses Immer response.web_search_call.in_progress.Möglicher Wert: response.web_search_call.in_progress |
Ja |
OpenAI.ResponseWebSearchCallSearchingEvent
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| item_id | Schnur | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Ja | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Ja | |
| sequence_number | integer | Die Sequenznummer des verarbeiteten Websuchaufrufs. | Ja | |
| type | enum | Typ des Ereignisses Immer response.web_search_call.searching.Möglicher Wert: response.web_search_call.searching |
Ja |
OpenAI.RunCompletionUsage
Verwendungsstatistiken im Zusammenhang mit der Ausführung. Dieser Wert wird null, wenn sich die Ausführung nicht im Terminalzustand befindet (z. B. in_progress, queuedusw.).
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| completion_tokens | integer | Die Anzahl von Vervollständigungstoken, die im Laufe der Ausführung verwendet wurden. | Ja | |
| prompt_tokens | integer | Die Anzahl von Prompttoken, die im Laufe der Ausführung verwendet wurden. | Ja | |
| Gesamtanzahl Tokens | integer | Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). | Ja |
OpenAI.RunGraderRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint | Der Grader, der für den Feinabstimmungsauftrag verwendet wird. | Ja | |
| item | OpenAI.RunGraderRequestItem | Nein | ||
| model_sample | Schnur | Das zu bewertende Modellbeispiel. Dieser Wert wird zum Auffüllen des Namespace sample verwendet. Weitere Details finden Sie im Leitfaden.Die Variable output_json wird aufgefüllt, wenn das Modellbeispiel einegültige JSON-Zeichenfolge ist. |
Ja |
OpenAI.RunGraderRequestItem
Typ: Objekt
OpenAI.RunGraderResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.RunGraderResponseMetadata | Ja | ||
| model_grader_token_usage_per_model | Objekt | Ja | ||
| reward | number | Ja | ||
| sub_rewards | Objekt | Ja |
OpenAI.RunGraderResponseMetadata
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Irrtümer | OpenAI.RunGraderResponseMetadataErrors | Ja | ||
| execution_time | number | Ja | ||
| Name | Schnur | Ja | ||
| sampled_model_name | Zeichenfolge oder null | Ja | ||
| Spielergebnisse | Objekt | Ja | ||
| token_usage | ganze Zahl oder Null | Ja | ||
| type | Schnur | Ja |
OpenAI.RunGraderResponseMetadataErrors
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| formula_parse_error | boolean | Ja | ||
| invalid_variable_error | boolean | Ja | ||
| model_grader_parse_error | boolean | Ja | ||
| model_grader_refusal_error | boolean | Ja | ||
| model_grader_server_error | boolean | Ja | ||
| model_grader_server_error_details | Zeichenfolge oder null | Ja | ||
| other_error | boolean | Ja | ||
| python_grader_runtime_error | boolean | Ja | ||
| python_grader_runtime_error_details | Zeichenfolge oder null | Ja | ||
| python_grader_server_error | boolean | Ja | ||
| python_grader_server_error_type | Zeichenfolge oder null | Ja | ||
| sample_parse_error | boolean | Ja | ||
| truncated_observation_error | boolean | Ja | ||
| unresponsive_reward_error | boolean | Ja |
OpenAI.RunObject
Stellt eine Ausführung dar, die in einem Thread ausgeführt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| assistant_id | Schnur | Die ID des Assistenten , der für die Ausführung dieser Ausführung verwendet wird. | Ja | |
| cancelled_at | Zeichenfolge oder null | Der UNIX-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgebrochen wurde. | Ja | |
| abgeschlossen_am | Zeichenfolge oder null | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abgeschlossen wurde | Ja | |
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung erstellt wurde | Ja | |
| läuft_ab_am | Zeichenfolge oder null | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung abläuft | Ja | |
| failed_at | Zeichenfolge oder null | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung fehlgeschlagen ist | Ja | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| incomplete_details | OpenAI.RunObjectIncompleteDetails oder NULL | Details zum Grund für die unvollständige Ausführung. Wird null, wenn die Ausführung nicht unvollständig ist. |
Ja | |
| instructions | Schnur | Die Anweisungen, die der Assistent für diese Ausführung verwendet hat. | Ja | |
| last_error | OpenAI.RunObjectLastError oder NULL | Der letzte Fehler im Zusammenhang mit dieser Ausführung. Ist null, wenn keine Fehler vorliegen. |
Ja | |
| max_completion_tokens | ganze Zahl oder Null | Die maximale Anzahl an Abschlusstoken, die im Laufe der Ausführung verwendet wurden | Ja | |
| max_prompt_tokens | ganze Zahl oder Null | Die maximale Anzahl an Eingabeaufforderungstoken, die im Laufe der Ausführung verwendet wurden | Ja | |
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Modell | Schnur | Das Modell, das der Assistent für diese Ausführung verwendet hat. | Ja | |
| Objekt | enum | Der Objekttyp, der immer thread.run ist.Möglicher Wert: thread.run |
Ja | |
| Parallele Werkzeugaufrufe | OpenAI.ParallelToolCalls | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | Ja | |
| required_action | OpenAI.RunObjectRequiredAction oder NULL | Details zu der Aktion, die zum Fortsetzen der Ausführung erforderlich ist. Ist null, wenn keine Aktion erforderlich ist. |
Ja | |
| Antwortformat | OpenAI.AssistantsApiResponseFormatOption | Gibt das Format an, das das Modell ausgeben muss. Kompatibel mit GPT-4o, GPT-4 Turbo und allen GPT-3.5 Turbo-Modellen seit gpt-3.5-turbo-1106.Einstellung, um strukturierte Ausgaben zu { "type": "json_schema", "json_schema": {...} } aktivieren, die sicherstellen, dass das Modell ihrem bereitgestellten JSON-Schema entspricht. Weitere Informationen finden Sie im Das Festlegen auf { "type": "json_object" } aktiviert den JSON-Modus, der sicherstellt, dass die vom Modells generierte Meldung gültiger JSON-Code ist.Wichtig:* Wenn Sie den JSON-Modus verwenden, müssen Sie das Modell auch anweisen, JSON selbst über ein System oder eine Benutzernachricht zu erstellen. Andernfalls generiert das Modell möglicherweise einen unendlichen Leerzeichenstrom, bis der Tokengrenzwert erreicht wird. Dies kann zu einer lange ausgeführten und scheinbar „hängenden“ Anforderung führen. Beachten Sie auch, dass der Meldungsinhalt teilweise abgeschnitten werden kann, wenn Sie finish_reason="length" verwenden. Damit wird angegeben, dass bei der Generierung max_tokens überschritten wurde oder die Unterhaltung die maximale Kontextlänge überschritten hat. |
Ja | |
| started_at | Zeichenfolge oder null | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Ausführung gestartet wurde | Ja | |
| status | OpenAI.RunStatus | Der Status der Ausführung, die entweder , , in_progress, , requires_action, cancelling, cancelled, failed, , completed, oder incompleteexpired.queued |
Ja | |
| Temperatur | Zahl oder Null | Die für diese Ausführung verwendete Temperatur für die Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. | Nein | |
| thread_id | Schnur | Die ID des Threads , der als Teil dieser Ausführung ausgeführt wurde. | Ja | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell keine Tools aufruft und stattdessen eine Nachricht generiert.auto ist der Standardwert und bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss, bevor er auf den Benutzer reagiert.Wenn Sie ein bestimmtes Tool wie {"type": "file_search"} oder {"type": "function", "function": {"name": "my_function"}} angeben, wird das Modell gezwungen, dieses aufzurufen. |
Ja | |
| Werkzeuge | Array von OpenAI.AssistantTool | Die Liste der Tools, die der Assistent für diese Ausführung verwendet hat. | Ja | [] |
| top_p | Zahl oder Null | Der für diese Ausführung verwendete Wert für die Nukleus-Stichprobenentnahme. Ohne Angabe wird standardmäßig „1“ verwendet. | Nein | |
| truncation_strategy | OpenAI.TruncationObject | Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern. | Ja | |
| usage | OpenAI.RunCompletionUsage oder NULL | Ja |
OpenAI.RunObjectIncompleteDetails
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Grund | enum | Mögliche Werte: max_completion_tokens, max_prompt_tokens |
Nein |
OpenAI.RunObjectLastError
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | enum | Mögliche Werte: server_error, , rate_limit_exceededinvalid_prompt |
Ja | |
| Nachricht | Schnur | Ja |
OpenAI.RunObjectRequiredAction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| submit_tool_outputs | OpenAI.RunObjectRequiredActionSubmitToolOutputs | Ja | ||
| type | enum | Möglicher Wert: submit_tool_outputs |
Ja |
OpenAI.RunObjectRequiredActionSubmitToolOutputs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| tool_calls | Array von OpenAI.RunToolCallObject | Ja |
OpenAI.RunStatus
Der Status der Ausführung, die entweder , , in_progress, , requires_action, cancelling, cancelled, failed, , completed, oder incompleteexpired.queued
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | queuedin_progressrequires_actioncancellingcancelledfailedcompletedincompleteexpired |
OpenAI.RunStepCompletionUsage
Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| completion_tokens | integer | Die Anzahl von Vervollständigungstoken, die im Laufe des Ausführungsschritts verwendet wurden. | Ja | |
| prompt_tokens | integer | Die Anzahl von Prompttoken, die im Laufe des Ausführungsschritts verwendet wurden. | Ja | |
| Gesamtanzahl Tokens | integer | Die Gesamtzahl verwendeter Token (Prompttoken + Vervollständigungstoken). | Ja |
OpenAI.RunStepDetailsMessageCreationObject
Details zur Nachrichterstellung durch den Ausführungsschritt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| message_creation | OpenAI.RunStepDetailsMessageCreationObjectMessageCreation | Ja | ||
| type | enum | Immer message_creation.Möglicher Wert: message_creation |
Ja |
OpenAI.RunStepDetailsMessageCreationObjectMessageCreation
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| message_id | Schnur | Ja |
OpenAI.RunStepDetailsToolCall
Diskriminator für OpenAI.RunStepDetailsToolCall
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
code_interpreter |
OpenAI.RunStepDetailsToolCallsCodeObject |
file_search |
OpenAI.RunStepDetailsToolCallsFileSearchObject |
function |
OpenAI.RunStepDetailsToolCallsFunctionObject |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.RunStepDetailsToolCallType | Ja |
OpenAI.RunStepDetailsToolCallType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | code_interpreterfile_searchfunction |
OpenAI.RunStepDetailsToolCallsCodeObject
Details des Code-Interpreter-Toolaufrufs, an dem der Ausführungsschritt beteiligt war.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code_interpreter | OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter | Ja | ||
| └– Eingabe | Schnur | Ja | ||
| └─ Ausgaben | Array von OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject oder OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Ja | ||
| id | Schnur | Die ID des Toolaufrufs | Ja | |
| type | enum | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer code_interpreter.Möglicher Wert: code_interpreter |
Ja |
OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Eingabe | Schnur | Ja | ||
| Ergebnisse | Array von OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject oder OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Ja |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObject
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| image | OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage | Ja | ||
| type | enum | Immer image.Möglicher Wert: image |
Ja |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-ID | Schnur | Ja |
OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject
Textausgabe des Code-Interpreter-Toolaufrufs im Rahmen eines Ausführungsschritts.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| logs | Schnur | Die Textausgabe des Code-Interpreter-Toolaufrufs. | Ja | |
| type | enum | Immer logs.Möglicher Wert: logs |
Ja |
OpenAI.RunStepDetailsToolCallsFileSearchObject
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| file_search | OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch | Ja | ||
| └– ranking_options | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | Die Bewertungsoptionen für die Dateisuche. | Nein | |
| └- Ergebnisse | Array von OpenAI.RunStepDetailsToolCallsFileSearchResultObject | Nein | ||
| id | Schnur | Die ID des Toolaufrufobjekts. | Ja | |
| type | enum | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer file_search.Möglicher Wert: file_search |
Ja |
OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ranglistenoptionen | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | Die Bewertungsoptionen für die Dateisuche. | Nein | |
| results | Array von OpenAI.RunStepDetailsToolCallsFileSearchResultObject | Nein |
OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject
Die Bewertungsoptionen für die Dateisuche.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.FileSearchRanker | Der Rangfolger, der für die Dateisuche verwendet werden soll. Wird dieser Wert nicht angegeben, wird der Bewerter auto verwendet. |
Ja | |
| score-threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. Einschränkungen: min: 0, max: 1 |
Ja |
OpenAI.RunStepDetailsToolCallsFileSearchResultObject
Eine Ergebnisinstanz der Dateisuche.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Array von OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent | Der Inhalt des gefundenen Ergebnisses. Der Inhalt wird nur einbezogen, wenn er über den Include-Abfrageparameter angefordert wird. | Nein | |
| Datei-ID | Schnur | Die ID der Datei, in der das Ergebnis gefunden wurde. | Ja | |
| file_name | Schnur | Der Name der Datei, in der das Ergebnis gefunden wurde. | Ja | |
| score | number | Die Ergebnisbewertung. Alle Werte müssen eine Gleitkommazahl zwischen 0 und 1 sein. Einschränkungen: min: 0, max: 1 |
Ja |
OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Nein | ||
| type | enum | Möglicher Wert: text |
Nein |
OpenAI.RunStepDetailsToolCallsFunctionObject
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.RunStepDetailsToolCallsFunctionObjectFunction | Ja | ||
| └- Argumente | Schnur | Ja | ||
| └– Name | Schnur | Ja | ||
| └─ Ausgabe | Zeichenfolge oder null | Ja | ||
| id | Schnur | Die ID des Toolaufrufobjekts. | Ja | |
| type | enum | Die Art des Toolaufrufs. Ist für diese Art von Toolaufruf immer function.Möglicher Wert: function |
Ja |
OpenAI.RunStepDetailsToolCallsFunctionObjectFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Ja | ||
| Name | Schnur | Ja | ||
| output | Zeichenfolge oder null | Ja |
OpenAI.RunStepDetailsToolCallsObject
Details des Toolaufrufs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| tool_calls | Array von OpenAI.RunStepDetailsToolCall | Ein Array mit Toolaufrufen, an denen der Ausführungsschritt beteiligt war. Diese können einem von drei Arten von Tools zugeordnet werden: code_interpreter, , , file_searchoder function. |
Ja | |
| type | enum | Immer tool_calls.Möglicher Wert: tool_calls |
Ja |
OpenAI.RunStepObject
Stellt einen Schritt in einer Ausführung dar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| assistant_id | Schnur | Die ID des Assistenten , der dem Ausführungsschritt zugeordnet ist. | Ja | |
| cancelled_at | Zeichenfolge oder null | Ja | ||
| abgeschlossen_am | Zeichenfolge oder null | Ja | ||
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Ausführungsschritt erstellt wurde | Ja | |
| abgelaufen_am | Zeichenfolge oder null | Ja | ||
| failed_at | Zeichenfolge oder null | Ja | ||
| id | Schnur | Der Bezeichner des Ausführungsschritts, auf die in API-Endpunkten verwiesen werden kann | Ja | |
| last_error | OpenAI.RunStepObjectLastError oder NULL | Ja | ||
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Objekt | enum | Der Objekttyp, der immer thread.run.step ist.Möglicher Wert: thread.run.step |
Ja | |
| run_id | Schnur | Die ID der Ausführung , zu der dieser Ausführungsschritt gehört. | Ja | |
| status | enum | Der Status des Ausführungsschritts, der entweder in_progress, , cancelled, , failed, completedoder expired.Mögliche Werte: in_progress, , cancelledfailed, , completedexpired |
Ja | |
| step_details | OpenAI.RunStepDetailsMessageCreationObject oder OpenAI.RunStepDetailsToolCallsObject | Die Details des Ausführungsschritts | Ja | |
| thread_id | Schnur | Die ID des ausgeführten Threads . | Ja | |
| type | enum | Die Art des Ausführungsschritts (message_creation oder tool_calls).Mögliche Werte: message_creation, tool_calls |
Ja | |
| usage | OpenAI.RunStepCompletionUsage | Verwendungsstatistik im Zusammenhang mit dem Ausführungsschritt. Dieser Wert ist null, solange der Ausführungsschritt den Status in_progress hat. |
Ja |
OpenAI.RunStepObjectLastError
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | enum | Mögliche Werte: server_error, rate_limit_exceeded |
Ja | |
| Nachricht | Schnur | Ja |
OpenAI.RunToolCallObject
Toolaufrufobjekte
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Funktion | OpenAI.RunToolCallObjectFunction | Ja | ||
| └- Argumente | Schnur | Ja | ||
| └– Name | Schnur | Ja | ||
| id | Schnur | Die ID des Toolaufrufs Auf diese ID muss verwiesen werden, wenn Sie die Toolausgabe mithilfe der Ausgabe des Übermittlungstools zum Ausführen des Endpunkts übermitteln. | Ja | |
| type | enum | Der Typ des Toolaufrufs, für den die Ausgabe erforderlich ist. Dieser Wert ist vorerst immer function.Möglicher Wert: function |
Ja |
OpenAI.RunToolCallObjectFunction
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Argumente | Schnur | Ja | ||
| Name | Schnur | Ja |
OpenAI.Screenshot
Screenshotaktion
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf screenshot festgelegt.Möglicher Wert: screenshot |
Ja |
OpenAI.Scroll
Eine Scrollaktion
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| scroll_x | integer | Der horizontale Scrollabstand | Ja | |
| scroll_y | integer | Der vertikale Scrollabstand | Ja | |
| type | enum | Gibt den Ereignistyp an. Für eine Scrollaktion ist diese Eigenschaft immer auf scroll festgelegt.Möglicher Wert: scroll |
Ja | |
| x | integer | Die X-Koordinate, an der das Scrollen erfolgt ist | Ja | |
| y | integer | Die y-Koordinate, bei der das Scrollen stattfindet. | Ja |
OpenAI.SearchContextSize
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | lowmediumhigh |
OpenAI.SpecificApplyPatchParam
Erzwingt das Modell, das apply_patch Tool aufzurufen, wenn ein Toolaufruf ausgeführt wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Das tool, das aufgerufen werden soll. Immer apply_patch.Möglicher Wert: apply_patch |
Ja |
OpenAI.SpecificFunctionShellParam
Erzwingt das Modell, das Shelltool aufzurufen, wenn ein Toolaufruf erforderlich ist.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Das tool, das aufgerufen werden soll. Immer shell.Möglicher Wert: shell |
Ja |
OpenAI.StaticChunkingStrategy
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Die Anzahl von Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.Beachten Sie, dass die Überlappung nicht größer als die Hälfte des max_chunk_size_tokens-Werts sein darf. |
Ja | |
| max_chunk_size_tokens | integer | Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Mindestwert ist 100, und der maximale Wert ist 4096.Einschränkungen: min: 100, max: 4096 |
Ja |
OpenAI.StaticChunkingStrategyRequestParam
Passen Sie Ihre eigene Blockerstellungsstrategie an, indem Sie die Blockgröße und die Blocküberlappung festlegen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Statisch | OpenAI.StaticChunkingStrategy | Ja | ||
| type | enum | Immer static.Möglicher Wert: static |
Ja |
OpenAI.StaticChunkingStrategyResponseParam
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Statisch | OpenAI.StaticChunkingStrategy | Ja | ||
| type | enum | Immer static.Möglicher Wert: static |
Ja |
OpenAI.StopConfiguration
Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.
Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten.
Dieses Schema akzeptiert einen der folgenden Typen:
- Anordnung
- null
OpenAI.SubmitToolOutputsRunRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datenstrom | Boolescher Wert oder Null | Nein | ||
| tool_outputs | Array von OpenAI.SubmitToolOutputsRunRequestToolOutputs | Eine Liste der Tools, für die die Ausgaben übermittelt werden | Ja |
OpenAI.SubmitToolOutputsRunRequestToolOutputs
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| output | Schnur | Nein | ||
| tool_call_id | Schnur | Nein |
OpenAI.Summary
Ein Zusammenfassungstext des Modells.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Eine Zusammenfassung der bisherigen Argumentationsergebnisse des Modells. | Ja | |
| type | enum | Der Typ des Objekts. Immer summary_text.Möglicher Wert: summary_text |
Ja |
OpenAI.SummaryTextContent
Ein Zusammenfassungstext des Modells.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Eine Zusammenfassung der bisherigen Argumentationsergebnisse des Modells. | Ja | |
| type | enum | Der Typ des Objekts. Immer summary_text.Möglicher Wert: summary_text |
Ja |
OpenAI.TextAnnotation
Diskriminator für OpenAI.TextAnnotation
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
file_citation |
OpenAI.MessageContentTextAnnotationsFileCitationObject |
file_path |
OpenAI.MessageContentTextAnnotationsFilePathObject |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.TextAnnotationType | Ja |
OpenAI.TextAnnotationType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | file_citationfile_path |
OpenAI.TextContent
Ein Textinhalt.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Ja | ||
| type | enum | Möglicher Wert: text |
Ja |
OpenAI.TextResponseFormatConfiguration
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Das Konfigurieren von { "type": "json_schema" } stellt strukturierte Ausgaben, die garantieren, dass das Modell Ihrem bereitgestellten JSON-Schema entspricht, sicher. Weitere Informationen finden Sie in der
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für GPT-4o und neuere Modelle:* Einstellung aktiviert den { "type": "json_object" } älteren JSON-Modus, der sicherstellt, dass die vom Modell erzeugte Nachricht gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Diskriminator für OpenAI.TextResponseFormatConfiguration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
json_schema |
OpenAI.TextResponseFormatJsonSchema |
text |
OpenAI.TextResponseFormatConfigurationResponseFormatText |
json_object |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.TextResponseFormatConfigurationType | Ja |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten.
Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_object.Möglicher Wert: json_object |
Ja |
OpenAI.TextResponseFormatConfigurationResponseFormatText
Standardantwortformat. Wird verwendet, um Textantworten zu generieren.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer text.Möglicher Wert: text |
Ja |
OpenAI.TextResponseFormatConfigurationType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | textjson_schemajson_object |
OpenAI.TextResponseFormatJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren. Erfahren Sie mehr über Structured Outputs.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Beschreibung | Schnur | Eine Beschreibung des Zwecks des Antwortformats, mit dem vom Modell bestimmt wird, wie im Format geantwortet werden soll. |
Nein | |
| Name | Schnur | Der Name des Antwortformats. Muss a–z, A–Z, 0–9 sein oder Unterstriche und Gedankenstriche enthalten (maximale Länge: 64 Zeichen). |
Ja | |
| Schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Ja | |
| strict | Boolescher Wert oder Null | Nein | ||
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Möglicher Wert: json_schema |
Ja |
OpenAI.ThreadObject
Stellt einen Thread dar, der Nachrichten enthält.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem der Thread erstellt wurde. | Ja | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Objekt | enum | Der Objekttyp, der immer thread ist.Möglicher Wert: thread |
Ja | |
| tool_resources | OpenAI.ThreadObjectToolResources oder NULL | Ja |
OpenAI.ThreadObjectToolResources
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code_interpreter | OpenAI.ThreadObjectToolResourcesCodeInterpreter | Nein | ||
| file_search | OpenAI.ThreadObjectToolResourcesFileSearch | Nein |
OpenAI.ThreadObjectToolResourcesCodeInterpreter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Datei-IDs | Array von Zeichenfolgen | Nein |
OpenAI.ThreadObjectToolResourcesFileSearch
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| vector_store_ids | Array von Zeichenfolgen | Nein |
OpenAI.TokenLimits
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| post_instructions | integer | Einschränkungen: min: 0 | Nein |
OpenAI.Tool
Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
Diskriminator für OpenAI.Tool
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
code_interpreter |
OpenAI.CodeInterpreterTool |
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search |
OpenAI.WebSearchTool |
mcp |
OpenAI.MCPTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellToolParam |
shell |
OpenAI.FunctionShellToolParam |
custom |
OpenAI.CustomToolParam |
web_search_preview |
OpenAI.WebSearchPreviewTool |
apply_patch |
OpenAI.ApplyPatchToolParam |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ToolType | Ja |
OpenAI.ToolChoiceAllowed
Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| mode | enum | Beschränkt die tools, die für das Modell verfügbar sind, auf einen vordefinierten Satz.auto ermöglicht es dem Modell, zwischen den zulässigen Tools zu wählen und eineMeldung. required erfordert, dass das Modell mindestens eins der zulässigen Tools aufruft.Mögliche Werte: auto, required |
Ja | |
| Werkzeuge | Objektarray | Eine Liste der Tooldefinitionen, die das Modell aufrufen darf. Für die Antwort-API könnte die Liste der Tooldefinitionen wie folgt aussehen: json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br> |
Ja | |
| type | enum | Zulässiger Toolkonfigurationstyp. Immer allowed_tools.Möglicher Wert: allowed_tools |
Ja |
OpenAI.ToolChoiceCodeInterpreter
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: code_interpreter |
Ja |
OpenAI.ToolChoiceComputerUsePreview
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: computer_use_preview |
Ja |
OpenAI.ToolChoiceCustom
Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes benutzerdefiniertes Tool aufruft.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Der Name des benutzerdefinierten Tools, das aufgerufen werden soll. | Ja | |
| type | enum | Für benutzerdefinierte Toolaufrufe ist der Typ immer custom.Möglicher Wert: custom |
Ja |
OpenAI.ToolChoiceFileSearch
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: file_search |
Ja |
OpenAI.ToolChoiceFunction
Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Schnur | Der Name der aufzurufenden Funktion. | Ja | |
| type | enum | Bei Funktionsaufrufen ist der Typ immer function.Möglicher Wert: function |
Ja |
OpenAI.ToolChoiceImageGeneration
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: image_generation |
Ja |
OpenAI.ToolChoiceMCP
Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Name | Zeichenfolge oder null | Nein | ||
| Serverbeschriftung | Schnur | Die Bezeichnung des zu verwendenden MCP-Servers. | Ja | |
| type | enum | Bei MCP-Tools ist der Typ immer mcp.Möglicher Wert: mcp |
Ja |
OpenAI.ToolChoiceOptions
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen von Tools wählen kann.
required bedeutet, dass das Modell mindestens ein Tool aufrufen muss.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | noneautorequired |
OpenAI.ToolChoiceParam
Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann.
Diskriminator für OpenAI.ToolChoiceParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Typwert | Schema |
|---|---|
allowed_tools |
OpenAI.ToolChoiceAllowed |
mcp |
OpenAI.ToolChoiceMCP |
custom |
OpenAI.ToolChoiceCustom |
apply_patch |
OpenAI.SpecificApplyPatchParam |
shell |
OpenAI.SpecificFunctionShellParam |
file_search |
OpenAI.ToolChoiceFileSearch |
web_search_preview |
OpenAI.ToolChoiceWebSearchPreview |
computer_use_preview |
OpenAI.ToolChoiceComputerUsePreview |
web_search_preview_2025_03_11 |
OpenAI.ToolChoiceWebSearchPreview20250311 |
image_generation |
OpenAI.ToolChoiceImageGeneration |
code_interpreter |
OpenAI.ToolChoiceCodeInterpreter |
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | OpenAI.ToolChoiceParamType | Ja |
OpenAI.ToolChoiceParamType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | allowed_toolsfunctionmcpcustomapply_patchshellfile_searchweb_search_previewcomputer_use_previewweb_search_preview_2025_03_11image_generationcode_interpreter |
OpenAI.ToolChoiceWebSearchPreview
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: web_search_preview |
Ja |
OpenAI.ToolChoiceWebSearchPreview20250311
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Erfahren Sie mehr über integrierte Tools.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: web_search_preview_2025_03_11 |
Ja |
OpenAI.ToolType
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | functionfile_searchcomputer_use_previewweb_searchmcpcode_interpreterimage_generationlocal_shellshellcustomweb_search_previewapply_patch |
OpenAI.ToolsArray
Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.
Wir unterstützen die folgenden Kategorien von Tools:
- Integrierte Tools: Werkzeuge, die von OpenAI bereitgestellt werden und die Funktionen des Modells erweitern, wie Websuche oder Dateisuche. Erfahren Sie mehr über integrierte Tools.
- MCP-Tools: Integrationen mit Drittanbietersystemen über benutzerdefinierte MCP-Server oder vordefinierte Connectors wie Google Drive und SharePoint. Erfahren Sie mehr über MCP Tools.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, wodurch das Modell Ihren eigenen Code mit stark typierten Argumenten und Ausgaben aufrufen kann. Erfahren Sie mehr über function calling. Sie können auch benutzerdefinierte Tools verwenden, um Ihren eigenen Code aufzurufen.
Array von: OpenAI.Tool
OpenAI.TopLogProb
Die oberste Protokollwahrscheinlichkeit eines Tokens.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Byte | Array mit ganzzahliger Zahl | Ja | ||
| logprob | number | Ja | ||
| token | Schnur | Ja |
OpenAI.TranscriptionSegment
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| avg_logprob | number | Durchschnittliche logprob des Segments. Wenn der Wert niedriger als -1 ist, betrachten Sie die Logprobs als gescheitert. | Ja | |
| Kompressionsverhältnis | number | Komprimierungsverhältnis des Segments. Wenn der Wert größer als 2,4 ist, sollten Sie die Komprimierung als fehlgeschlagen betrachten. | Ja | |
| Ende | number | Endzeit des Segments in Sekunden. | Ja | |
| id | integer | Eindeutiger Bezeichner des Segments. | Ja | |
| no_speech_prob | number | Die Wahrscheinlichkeit, dass kein Wort im Segment gesprochen wird. Wenn der Wert höher als 1,0 ist und der avg_logprob Wert unter -1 liegt, sollten Sie dieses Segment unbeaufsichtigt betrachten. |
Ja | |
| seek | integer | Der Suchoffset des Segments. | Ja | |
| Start | number | Startzeit des Abschnitts in Sekunden. | Ja | |
| Temperatur | number | Temperaturparameter, der zum Generieren des Segments verwendet wird. | Ja | |
| Text | Schnur | Textinhalt des Segments. | Ja | |
| tokens | Array mit ganzzahliger Zahl | Array von Token-IDs für den Textinhalt. | Ja |
OpenAI.TranscriptionWord
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Ende | number | Endzeit des Worts in Sekunden. | Ja | |
| Start | number | Startzeit des Worts in Sekunden. | Ja | |
| word | Schnur | Der Textinhalt des Worts. | Ja |
OpenAI.TruncationObject
Steuert, wie ein Thread vor der Ausführung abgeschnitten wird. Verwenden Sie diese Option, um das anfängliche Kontextfenster der Ausführung zu steuern.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| last_messages | ganze Zahl oder Null | Nein | ||
| type | enum | Die für den Thread zu verwendende Kürzungsstrategie. Der Standardwert lautet auto. Bei Verwendung von last_messages wird der Thread auf die n neuesten Nachrichten im Thread gekürzt. Bei Verwendung von auto werden Nachrichten in der Mitte des Threads gelöscht, um der Kontextlänge des Modells (max_prompt_tokens) zu entsprechen.Mögliche Werte: auto, last_messages |
Ja |
OpenAI.Type
Eine Aktion zum Eingeben von Text.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Der einzugebende Text. | Ja | |
| type | enum | Gibt den Ereignistyp an. Für eine Typaktion ist diese Eigenschaft immer auf type festgelegt.Möglicher Wert: type |
Ja |
OpenAI.UpdateConversationBody
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| metadata | OpenAI.Metadata oder NULL | 16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Ja |
OpenAI.UpdateVectorStoreFileAttributesRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Ja |
OpenAI.UpdateVectorStoreRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| metadata | OpenAI.Metadata oder NULL | Nein | ||
| Name | Zeichenfolge oder null | Der Name des Vektorspeichers. | Nein |
OpenAI.UrlCitationBody
Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| end_index | integer | Der Index des letzten Zeichens des URL-Zitats in der Nachricht. | Ja | |
| start_index | integer | Der Index des ersten Zeichens des URL-Zitats in der Nachricht. | Ja | |
| title | Schnur | Der Titel der Webressource. | Ja | |
| type | enum | Der Typ des URL-Zitats. Immer url_citation.Möglicher Wert: url_citation |
Ja | |
| url | Schnur | Die URL der Webressource. | Ja |
OpenAI.ValidateGraderResponse
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | OpenAI.GraderStringCheck oder OpenAI.GraderTextSimilarity oder OpenAI.GraderPython oder OpenAI.GraderScoreModel oder OpenAI.GraderMulti oder GraderEndpoint | Der Grader, der für den Feinabstimmungsauftrag verwendet wird. | Nein |
OpenAI.VectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| anchor | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Möglicher Wert: last_active_at |
Ja | |
| Tage | integer | Gibt an, wie viele Tage nach der Ankerzeit der Vektorspeicher abläuft. Einschränkungen: min: 1, max: 365 |
Ja |
OpenAI.VectorStoreFileAttributes
16 Schlüssel-Wert-Paare, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Typ: Objekt
OpenAI.VectorStoreFileBatchObject
Eine Gruppe von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeicher-Dateibatchs. | Ja | |
| file_counts | OpenAI.VectorStoreFileBatchObjectFileCounts | Ja | ||
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| Objekt | enum | Der Objekttyp, der immer vector_store.file_batch ist.Möglicher Wert: vector_store.files_batch |
Ja | |
| status | enum | Der Status des Vektorspeicher-Dateibatchs (in_progress, completed, cancelled oder failed).Mögliche Werte: in_progress, , completed, cancelledfailed |
Ja | |
| vector_store_id | Schnur | Die ID des Vektorspeichers , an den die Datei angefügt ist. | Ja |
OpenAI.VectorStoreFileBatchObjectFileCounts
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cancelled | integer | Ja | ||
| abgeschlossen | integer | Ja | ||
| misslungen | integer | Ja | ||
| in_progress | integer | Ja | ||
| gesamt | integer | Ja |
OpenAI.VectorStoreFileObject
Eine Liste der an einen Vektorspeicher angefügten Dateien.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Nein | ||
| chunking_strategy | OpenAI.ChunkingStrategyResponse | Die Strategie, die verwendet wird, um die Datei zu blöcken. | Nein | |
| erstellt_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt der Vektorspeicherdatei. | Ja | |
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| last_error | OpenAI.VectorStoreFileObjectLastError oder NULL | Ja | ||
| Objekt | enum | Der Objekttyp, der immer vector_store.file ist.Möglicher Wert: vector_store.file |
Ja | |
| status | enum | Der Status der Vektorspeicherdatei (in_progress, completed, cancelled oder failed). Der Status completed bedeutet, dass die Vektorspeicherdatei einsatzbereit ist.Mögliche Werte: in_progress, , completed, cancelledfailed |
Ja | |
| usage_bytes | integer | Die Gesamtauslastung des Vektorspeichers in Bytes. Dies kann sich von der ursprünglichen Dateigröße unterscheiden. | Ja | |
| vector_store_id | Schnur | Die ID des Vektorspeichers , an den die Datei angefügt ist. | Ja |
OpenAI.VectorStoreFileObjectLastError
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| code | enum | Mögliche Werte: server_error, , unsupported_fileinvalid_file |
Ja | |
| Nachricht | Schnur | Ja |
OpenAI.VectorStoreObject
Ein Vektorspeicher ist eine Sammlung verarbeiteter Dateien, die vom Tool file_search verwendet werden können.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| erstellt_am | integer | Der UNIX-Zeitstempel (in Sekunden) für den Erstellungszeitpunkt des Vektorspeichers. | Ja | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | Nein | |
| läuft_ab_am | Zeichenfolge oder null | Nein | ||
| file_counts | OpenAI.VectorStoreObjectFileCounts | Ja | ||
| id | Schnur | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann | Ja | |
| last_active_at | Zeichenfolge oder null | Ja | ||
| metadata | OpenAI.Metadata oder NULL | Ja | ||
| Name | Schnur | Der Name des Vektorspeichers. | Ja | |
| Objekt | enum | Der Objekttyp, der immer vector_store ist.Möglicher Wert: vector_store |
Ja | |
| status | enum | Der Status des Vektorspeichers (expired, in_progress oder completed). Der Status completed bedeutet, dass der Vektorspeicher einsatzbereit ist.Mögliche Werte: expired, , in_progresscompleted |
Ja | |
| usage_bytes | integer | Die Gesamtanzahl von Bytes, die von den Dateien im Vektorspeicher beansprucht werden. | Ja |
OpenAI.VectorStoreObjectFileCounts
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| cancelled | integer | Ja | ||
| abgeschlossen | integer | Ja | ||
| misslungen | integer | Ja | ||
| in_progress | integer | Ja | ||
| gesamt | integer | Ja |
OpenAI.VectorStoreSearchRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| filters | OpenAI.ComparisonFilter oder OpenAI.CompoundFilter | Ein Filter, der basierend auf Dateiattributen angewendet werden soll. | Nein | |
| max_anzahl_ergebnisse | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Dieser Wert sollte zwischen 1 und einschließlich 50 liegen. Einschränkungen: min: 1, max: 50 |
Nein | 10 |
| Anfrage | Zeichenfolge oder Array von Zeichenfolgen | Eine Abfragezeichenfolge für eine Suche | Ja | |
| Ranglistenoptionen | OpenAI.VectorStoreSearchRequestRankingOptions | Nein | ||
| └– Ranker | enum | Mögliche Werte: none, , autodefault-2024-11-15 |
Nein | |
| └─ Punktschwelle | number | Einschränkungen: min: 0, max: 1 | Nein | |
| rewrite_query | boolean | Gibt an, ob die Abfrage der natürlichen Sprache für die Vektorsuche neu geschrieben werden soll. | Nein |
OpenAI.VectorStoreSearchRequestRankingOptions
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Bewerter | enum | Mögliche Werte: none, , autodefault-2024-11-15 |
Nein | |
| score-threshold | number | Einschränkungen: min: 0, max: 1 | Nein |
OpenAI.VectorStoreSearchResultContentObject
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Text | Schnur | Der von der Suche zurückgegebene Textinhalt. | Ja | |
| type | enum | Der Inhaltstyp. Möglicher Wert: text |
Ja |
OpenAI.VectorStoreSearchResultItem
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| attributes | OpenAI.VectorStoreFileAttributes oder Null | Ja | ||
| Inhalt | Array von OpenAI.VectorStoreSearchResultContentObject | Inhaltsblöcke aus der Datei. | Ja | |
| Datei-ID | Schnur | Die ID der Vektorspeicherdatei. | Ja | |
| filename | Schnur | Der Name der Vektorspeicherdatei. | Ja | |
| score | number | Der Ähnlichkeitswert für das Ergebnis. Einschränkungen: min: 0, max: 1 |
Ja |
OpenAI.VectorStoreSearchResultsPage
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von OpenAI.VectorStoreSearchResultItem | Die Liste der Suchergebniselemente. | Ja | |
| has_more | boolean | Gibt an, ob weitere Ergebnisse abgerufen werden sollen. | Ja | |
| next_page | Zeichenfolge oder null | Ja | ||
| Objekt | enum | Der Objekttyp, der immer vector_store.search_results.page ist.Möglicher Wert: vector_store.search_results.page |
Ja | |
| search_query | Array von Zeichenfolgen | Ja |
OpenAI.Verbosity
Begrenzt die Wortreichweite der Antwort des Modells. Niedrigere Werte führen zu prägnanteren Antworten, während höhere Werte zu wortreicheren Antworten führen.
Derzeit werden die Werte low, medium und high unterstützt.
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | lowmediumhigh |
OpenAI.VoiceIdsShared
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | alloyashballadcoralechosageshimmerversemarincedar |
OpenAI.Wait
Eine Warteaktion.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf wait festgelegt.Möglicher Wert: wait |
Ja |
OpenAI.WebSearchActionFind
Aktionstyp „find“: Sucht innerhalb einer geladenen Seite nach einem Muster.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| pattern | Schnur | Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. | Ja | |
| type | enum | Der Aktionstyp. Möglicher Wert: find_in_page |
Ja | |
| url | Schnur | Die URL der Seite, die nach dem Muster durchsucht wird. | Ja |
OpenAI.WebSearchActionOpenPage
Aktionstyp „open_page“ – Öffnet eine bestimmte URL aus Suchergebnissen.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Der Aktionstyp. Möglicher Wert: open_page |
Ja | |
| url | Schnur | Die URL, die vom Modell geöffnet wird. | Ja |
OpenAI.WebSearchActionSearch
Aktionstyp „search“ – Führt eine Websuchabfrage aus.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Abfragen | Array von Zeichenfolgen | Die Suchabfragen. | Nein | |
| Anfrage | Zeichenfolge (veraltet) | [VERALTET] Die Suchabfrage. | Ja | |
| Quellen | Array von OpenAI.WebSearchActionSearchSources | Die Quellen, die bei der Suche verwendet werden. | Nein | |
| type | enum | Der Aktionstyp. Möglicher Wert: search |
Ja |
OpenAI.WebSearchActionSearchSources
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| type | enum | Möglicher Wert: url |
Ja | |
| url | Schnur | Ja |
OpenAI.WebSearchApproximateLocation
Der ungefähre Standort des Nutzers.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| city | Zeichenfolge oder null | Nein | ||
| country | Zeichenfolge oder null | Nein | ||
| region | Zeichenfolge oder null | Nein | ||
| timezone | Zeichenfolge oder null | Nein | ||
| type | enum | Die Art der Ortsapproximation. Immer approximate.Möglicher Wert: approximate |
Nein |
OpenAI.WebSearchPreviewTool
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Suchkontextgröße | OpenAI.SearchContextSize | Nein | ||
| type | enum | Der Typ des Websuchtools. Einer der folgenden Werte: web_search_preview oder web_search_preview_2025_03_11.Möglicher Wert: web_search_preview |
Ja | |
| Benutzerstandort | OpenAI.ApproximateLocation oder NULL | Nein |
OpenAI.WebSearchTool
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| filters | OpenAI.WebSearchToolFilters oder NULL | Nein | ||
| Suchkontextgröße | enum | Allgemeine Richtlinie für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer der folgenden Werte: low, medium oder high.
medium ist die Standardoption.Mögliche Werte: low, , mediumhigh |
Nein | |
| type | enum | Der Typ des Websuchtools. Einer der folgenden Werte: web_search oder web_search_2025_08_26.Möglicher Wert: web_search |
Ja | |
| Benutzerstandort | OpenAI.WebSearchApproximateLocation oder null | Nein |
OpenAI.WebSearchToolFilters
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| allowed_domains | Array von Zeichenfolge oder Null | Nein |
Bestellung
| Eigentum | Wert |
|---|---|
| Typ | Schnur |
| Werte | ascdesc |
ResponseFormatJSONSchemaRequest
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| JSON-Schema | Objekt | JSON-Schema für das Antwortformat | Ja | |
| type | enum | Typ des Antwortformats Möglicher Wert: json_schema |
Ja |
SpeechGenerationResponse
Eine Darstellung einer Antwort für einen Text-zu-Sprache-Vorgang.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| audio | Schnur | Das generierte Audio, das im angeforderten Audioausgabeformat generiert wurde. | Ja |
SpeechGenerationResponseFormat
Die unterstützten Audioausgabeformate für Text-zu-Sprache.
Mögliche Werte für diese Komponente:
- String
-
string:
mp3, ,aacopus,flac, ,wavpcm
SpeechVoice
Die verfügbaren Stimmen für Text-zu-Sprache.
| Eigentum | Wert |
|---|---|
| Beschreibung | Die verfügbaren Stimmen für Text-zu-Sprache. |
| Typ | Schnur |
| Werte | alloyechofableonyxnovashimmer |
VideoContent
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Inhalt | Schnur | Ja |
VideoContentVariant
Auswählbare Objektvarianten für heruntergeladene Inhalte.
| Eigentum | Wert |
|---|---|
| Beschreibung | Auswählbare Objektvarianten für heruntergeladene Inhalte. |
| Typ | Schnur |
| Werte | videothumbnailspritesheet |
VideoIdParameter
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Video-ID | Schnur | Die ID des Videos, das für die Azure OpenAI-Anforderung verwendet werden soll. | Ja |
VideoList
Eine Liste der Aufträge zur Videogenerierung.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| Daten | Array von VideoResource | Die Liste der Aufträge zur Videogenerierung. | Ja | |
| first_id | Schnur | Die ID des ersten Videos auf der aktuellen Seite, falls verfügbar. | Nein | |
| has_more | boolean | Ein Kennzeichen, das angibt, ob nach der Liste weitere Aufträge verfügbar sind. | Ja | |
| last_id | Schnur | Die ID des letzten Videos auf der aktuellen Seite, sofern verfügbar. | Nein | |
| Objekt | enum | Möglicher Wert: list |
Ja |
VideoResource
Strukturierte Informationen zur Beschreibung eines generierten Videoauftrags.
| Name | Typ | Description | Erforderlich | Default |
|---|---|---|---|---|
| abgeschlossen_am | integer | Unix-Zeitstempel (Sekunden) für den Abschluss des Auftrags, falls abgeschlossen. | Nein | |
| erstellt_am | integer | Unix-Zeitstempel (Sekunden) für den Zeitpunkt der Erstellung des Auftrags. | Ja | |
| Fehler | Fehler | Nein | ||
| └– Code | Schnur | Ja | ||
| └– Nachricht | Schnur | Ja | ||
| läuft_ab_am | integer | Unix-Zeitstempel (Sekunden) für den Ablauf der Videogenerierung (und wird gelöscht). | Nein | |
| id | Schnur | Eindeutiger Bezeichner für den Videoauftrag. | Ja | |
| Modell | Schnur | Die Bereitstellung des Videogenerierungsmodells, die den Auftrag erstellt hat. | Ja | |
| Objekt | Schnur | Der Objekttyp, der immer video ist. |
Ja | |
| Fortschritt | integer | Ungefährer Fertigstellungsprozentsatz für den Generierungsvorgang. | Ja | |
| remixed_from_video_id | Schnur | Bezeichner des Quellvideos, wenn es sich bei diesem Video um einen Remix handelt. | Nein | |
| Sekunden | VideoSeconds | Unterstützte Clipdauern, gemessen in Sekunden. | Ja | |
| Größe | VideoSize | Ausgabeabmessungen, die als {width}x{height}. |
Ja | |
| status | VideoStatus | Lebenszyklusstatus eines generierten Videos. | Ja |
VideoSeconds
Unterstützte Clipdauern, gemessen in Sekunden.
| Eigentum | Wert |
|---|---|
| Beschreibung | Unterstützte Clipdauern, gemessen in Sekunden. |
| Typ | Schnur |
| Werte | 4812 |
VideoSize
Ausgabeabmessungen, die als {width}x{height}.
| Eigentum | Wert |
|---|---|
| Beschreibung | Ausgabeabmessungen, die als {width}x{height}. |
| Typ | Schnur |
| Werte | 720x12801280x7201024x17921792x1024 |
VideoStatus
Lebenszyklusstatus eines generierten Videos.
| Eigentum | Wert |
|---|---|
| Beschreibung | Lebenszyklusstatus eines generierten Videos. |
| Typ | Schnur |
| Werte | queuedin_progresscompletedfailed |