Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Diese Seite bietet eine Übersicht über Tools zum Erstellen, Bereitstellen und Verwalten von generativen KI-Apps (Gen AI) in Azure Databricks.
Bereitstellung und Abfrage großer KI-Sprachmodelle (LLMs)
Stellen Sie eine kuratierte Reihe von KI-Modellen der Generation von LLM-Anbietern wie OpenAI und Anthropic bereit und stellen Sie sie über sichere, skalierbare APIs zur Verfügung.
| Feature | Description |
|---|---|
| Foundation Models | Stellen Sie generative KI-Modelle bereit, einschließlich Open-Source- und Drittanbietermodelle wie Meta Llama, Anthropic Claude, OpenAI GPT und weitere. |
Erstellen und Bereitstellen von KI-Agents auf Unternehmensniveau
Entwickeln und setzen Sie Ihre eigenen Agenten ein, einschließlich Agenten, die Werkzeuge aufrufen, Retrieval-Augmented-Generation-Apps und Multi-Agenten-Systeme.
| Feature | Description |
|---|---|
| AI Playground (kein Code) | Prototyp und testet KI-Agenten in einer No-Code-Umgebung. Experimentieren Sie schnell mit Agentverhalten und Toolintegrationen, bevor Sie Code für die Bereitstellung generieren. |
| Agent Bricks | Erstellen und optimieren Sie domänenspezifische KI-Agent-Systeme mit einer einfachen Schnittstelle. Konzentrieren Sie sich auf Ihre Daten und Metriken, während Agent Bricks die Implementierung optimiert. |
| Erstellen benutzerdefinierter Agents | Erstellen, Bereitstellen und Auswerten von Agents mithilfe von Python. Unterstützt Agenten, die mit einer beliebigen Programmbibliothek geschrieben wurden. Integriert mit MLflow-Tracking. Schnell iterieren mit Databricks-Apps. |
| KI-Agenten-Werkzeuge | Erstellen Sie Agenttools, um strukturierte und unstrukturierte Daten abzufragen, Code auszuführen oder eine Verbindung mit externen Dienst-APIs herzustellen. |
| MCP (Model Context Protocol) | Standardisieren Sie, wie Agents eine Verbindung mit Daten und Tools mit einer sicheren, konsistenten Schnittstelle herstellen. |
Bewerten, Debuggen und Optimieren von Agents
Verfolgen Sie die Leistung von Agenten, sammeln Sie Feedback und treiben Sie Qualitätsverbesserungen mit Evaluierungs- und Tracking-Tools voran.
| Feature | Description |
|---|---|
| MLflow-Ablaufverfolgung | Verwenden Sie MLflow Tracking für End-to-End-Beobachtbarkeit. Protokollieren Sie jeden Schritt, den Ihr Agent zum Debuggen, Überwachen und Analysieren des Agentverhaltens bei der Entwicklung und in der Produktion unternimmt. |
| Agent-Auswertung | Verwenden Sie agent Evaluation und MLflow, um Qualität, Kosten und Latenz zu messen. Sammeln Sie Feedback von Projektbeteiligten und Fachexperten über integrierte Prüf-Apps und verwenden Sie LLM-Richter, um Qualitätsprobleme zu identifizieren und zu beheben. |
| Überwachen von Agents | Verwenden Sie dieselbe Auswertungskonfiguration (LLM-Richter und benutzerdefinierte Metriken) in der Offlineauswertung und Onlineüberwachung. |