Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Verwenden Sie das Reference-Beispiel, das mit Apache JMeter erstellt wurde, das auf GitHub als Ausgangspunkt zum Erstellen eigener Leistungstests verfügbar ist.
Die Referenzprobe demonstriert folgende Prinzipien:
- Kommunikation mit Direct Line über WebSockets
- Mehrteilige Gespräche führen
- Mehrere Thread-Gruppen ausführen, von denen jede einen eigenen dialogorientierten Anwenderfall steuert.
Die Referenzprobe wurde mit JMeter, einem beliebten Open-Source-Tool, erstellt. Sie können Leistungstestskripts für Copilot Studio-Agents auch mit anderen Tools erstellen. Verwenden Sie Auswahlkriterien wie:
- Community-Unterstützung: Wählen Sie ein Tool mit einer starken und aktiven Community für Fehlersuche und Ressourcen.
- Plugin-Verfügbarkeit: Stellen Sie sicher, dass das Tool notwendige Plugins unterstützt, insbesondere für WebSocket-Protokolle.
- Rich Reporting: Suchen Sie nach Tools, die umfassende Berichte bieten, entweder integriert oder mit Plugins erweiterbar.
- Skalierbarkeit: Wählen Sie Tools, die die Testausführung leicht skalieren können. Sowohl JMeter als auch Locust sind mit Azure Load Testing kompatibel.
Stellen Sie beim Entwerfen von Leistungstestskripts für Agents, die mit Copilot Studio erstellt wurden, sicher, dass sie die reale Nutzung genau simulieren und mit Ihrem Produktionssetup übereinstimmen. Die folgenden wichtigsten Richtlinien helfen Ihnen, effektive und realistische Testskripte zu erstellen:
- Simulieren Sie realistische Verzögerungen: Nachdem Sie die letzte Antwort des Agenten erfasst haben, führen Sie eine realistische Verzögerung ein (zum Beispiel 30 Sekunden bis 1 Minute), bevor Sie die nächste Benutzernachricht senden. Diese Verzögerung spiegelt wider, wie echte Nutzer sich Zeit nehmen, um während Gesprächen zu lesen, nachzudenken und zu antworten.
- Fehlerbehandlung bei Mehrrundengesprächen: Fügen Sie Fehlerprüfungen nach jeder Runde des Gesprächs ein. Wenn ein Fehler auftritt (zum Beispiel eine fehlende oder falsche Antwort), wird das simulierte Gespräch gestoppt, um kaskadierende Probleme zu vermeiden und realistisches Nutzerverhalten widerzuspiegeln.
- Passen Sie Ihre Produktionskommunikationsprotokolle an: Stellen Sie sicher, dass Ihr Testskript dieselben Kommunikationsprotokolle wie Ihr Produktionssetup verwendet, wie WebSockets oder HTTP GET. Dieser Ansatz stellt sicher, dass der Leistungstest reale Bedingungen genau widerspiegelt.