Freigeben über


So legen Sie los: LLMs abfragen und KI-Agenten prototypisieren ohne Code

In diesem 5-minütigen No-Code-Lernprogramm werden generative KI in Azure Databricks eingeführt. Sie verwenden den KI-Playground, um Folgendes zu tun:

  • Große Sprachmodelle (LLMs) abfragen und Ergebnisse im direkten Vergleich betrachten
  • Prototyp eines KI-Agenten, der Werkzeuge aufruft
  • Exportieren des Agenten in Code
  • Optional: Prototyp eines Fragebeantwortungs-Chatbots unter Verwendung von "Retrieval-Augmented Generation" (RAG)

Bevor Sie anfangen

Stellen Sie sicher, dass Ihr Arbeitsbereich auf Folgendes zugreifen kann:

Schritt 1: Abfragen von LLMs mit AI Playground

Verwenden Sie den KI-Playground, um LLMs in einer Chatschnittstelle abzufragen.

  1. Wählen Sie in Ihrem Arbeitsbereich " Playground" aus.
  2. Geben Sie eine Frage ein, z. B. "Was ist RAG?"

Fügen Sie eine neue LLM hinzu, um Antworten nebeneinander zu vergleichen:

  1. Wählen Sie + oben rechts aus, um ein Modell zum Vergleich hinzuzufügen.
  2. Wählen Sie im neuen Bereich ein anderes Modell über das Dropdown-Menü aus.
  3. Aktivieren Sie die Kontrollkästchen " Synchronisieren ", um die Abfragen zu synchronisieren.
  4. Probieren Sie eine neue Eingabeaufforderung aus, z. B. "Was ist ein zusammengesetztes KI-System?", um die beiden Antworten nebeneinander anzuzeigen.

KI-Playground

Testen und vergleichen Sie unterschiedliche LLMs, damit Sie entscheiden können, welche am besten zum Erstellen eines KI-Agenten verwendet werden sollen.

Schritt 2: Prototyp eines Tools, der KI-Agent aufruft

Mit Tools können LLMs mehr tun als Sprache generieren. Tools können externe Daten abfragen, Code ausführen und andere Aktionen ausführen. AI Playground bietet die Möglichkeit, ohne Code Agenten zu prototypisieren, die Werkzeuge aufrufen.

  1. Wählen Sie im Playground ein Modell mit der Bezeichnung Tools aktiviert aus.

    Auswählen eines Large Language Model (LLM) für den Toolaufruf

  2. Wählen Sie Tools>+ Tool hinzufügen aus, und wählen Sie die integrierte Unity Catalog-Funktion aus. system.ai.python_exec

    Mit dieser Funktion kann Ihr Agent beliebigen Python-Code ausführen.

    Auswählen eines Tools für gehostete Funktionen

    Weitere Tooloptionen sind:

    • UC-Funktion: Wählen Sie eine Unity-Katalogfunktion aus, die Ihr Agent verwenden soll.
    • Funktionsdefinition: Definieren Sie eine benutzerdefinierte Funktion für den Agent, die aufgerufen werden soll.
    • Vektorsuche: Geben Sie einen Vektorsuchindex an. Wenn Ihr Agent einen Vektorsuchindex verwendet, wird in seiner Antwort die verwendeten Quellen zitiert.
    • MCP: Geben Sie MCP-Server an, um verwaltete Databricks MCP-Server oder externe MCP-Server zu verwenden.
  3. Stellen Sie eine Frage, die das Generieren oder Ausführen von Python-Code umfasst. Sie können verschiedene Variationen Ihrer Eingabeformulierung ausprobieren. Wenn Sie mehrere Tools hinzufügen, wählt das LLM das entsprechende Tool aus, um eine Antwort zu generieren.

    Prototypisieren Sie das LLM mit dem gehosteten Funktionstool

Schritt 3: Exportieren Ihres Agents in Code

Klicken Sie nach dem Testen Ihres Agents im KI-Playground auf "Code>erstellen", um Ihren Agent in ein Python-Notizbuch zu exportieren.

Das Python-Notizbuch enthält Code, der den Agenten definiert und ihn zu einem Bereitstellungsendpunkt für Modelle bereitstellt.

Hinweis

Das exportierte Notizbuch verwendet derzeit einen Legacy-Agent-Erstellungsworkflow, der den Agent für model Serving bereitstellt. Databricks empfiehlt stattdessen die Erstellung von Agents mithilfe von Databricks-Apps. Weitere Informationen finden Sie unter Erstellen eines KI-Agenten und Bereitstellung in Databricks-Apps.

Optional: Prototyp eines RAG-Fragebeantwortungs-Bots

Wenn Sie einen Vektorsuchindex in Ihrem Arbeitsbereich eingerichtet haben, können Sie einen Prototyp für einen Fragebeantwortungs-Bot erstellen. Dieser Agenttyp verwendet Dokumente in einem Vektorsuchindex, um Fragen basierend auf diesen Dokumenten zu beantworten.

  1. Klicken Sie auf Extras>+ Tool hinzufügen. Wählen Sie dann Ihren Vektorsuchindex aus.

    Auswählen eines Vektorsuchtools

  2. Stellen Sie eine Frage im Zusammenhang mit Ihren Dokumenten. Der Agent kann den Vektorindex verwenden, um relevante Informationen nachzuschlagen und alle dokumente zu zitieren, die in seiner Antwort verwendet werden.

    Prototyp des LLM mit Vektorsuchtool

Informationen zum Einrichten eines Vektorsuchindex finden Sie unter Erstellen eines Vektorsuchindex.

Exportieren und Bereitstellen von KI-Playground-Agenten

Nachdem Sie den KI-Agenten im KI-Playground erstellt haben, exportieren Sie ihn in Python Notebooks, um ihn an einem Endpunkt für Modelldienste bereitzustellen.

  1. Klicken Sie auf "Code abrufen">"Agent-Notizbuch erstellen", um das Notizbuch zu generieren, das den KI-Agenten definiert und bereitstellt.

    Nach dem Exportieren des Agentcodes wird ein Ordner mit einem Treibernotizbuch in Ihrem Arbeitsbereich gespeichert. Dieser Treiber definiert einen toolaufrufenden ResponsesAgent, testet den Agent lokal, verwendet codebasierte Protokollierung, registriert und stellt den KI Agent mithilfe von Mosaic AI Agent Framework bereit.

  2. Bearbeiten Sie alle TODOs im Notizbuch.

Hinweis

Der exportierte Code verhält sich möglicherweise anders als Ihre AI Playground-Sitzung. Databricks empfiehlt, die exportierten Notebooks zum Durchlaufen und weiteren Debuggen auszuführen, die Qualität des Agents zu bewerten und den Agent dann zur Freigabe für andere Benutzer bereitzustellen.

Nächste Schritte

Informationen zum Erstellen von Agents mit einem Code-first-Ansatz finden Sie unter "Erstellen eines KI-Agents" und Bereitstellen in Databricks-Apps.