Freigeben über


Voice-Funktionen konfigurieren

In diesem Artikel werden die features beschrieben, die in Copilot Studio für interaktive Sprachantwort mit Dynamics 365 Contact Center verfügbar sind.

Informationen zum Vorbereiten Ihres Agents für VoIP-Dienste finden Sie unter Integrieren eines sprachfähigen Agents mit Dynamics 365 Contact Center.

Eine Übersicht über die Sprachdienste finden Sie unter Verwenden der interaktiven Sprachantwort in Ihren Agenten.

Sprach- und DTMF-Modalität

Ein sprachgesteuerter Agent unterscheidet sich von einem chatbasierten Agenten. Der sprachaktivierte Agent enthält spezifische Themen des Sprachsystems für die Bearbeitung von Sprachszenarien. Ein chatbasierter Agent verwendet standardmäßig die Textmodalität. Ein sprachfähiger Agent verwendet die Modalität "Sprache" und "DTMF". Die beiden Modalitäten sind nicht miteinander kompatibel.

Mit Optimierung für Sprache können Sie sprachaktivierte Agenten über verschiedene Modalitäten hinweg verfassen und sicherstellen, dass sprachbezogene Funktionen korrekt verfasst werden.

Für Sprachanrufe optimieren

Wenn Sie Ihren Agent nicht mit der VoIP-Vorlage gestartet haben, müssen Sie die Option " Für VoIP optimieren" in den Einstellungen des Agents aktivieren.

  1. Wenn ein Agent geöffnet ist, gehen Sie zu Einstellungen>Sprache.

  2. Wählen Sie Für Sprache optimieren aus. Die Option Sprache als primären Erstellungsmodus verwenden ist ebenfalls standardmäßig aktiviert.

Ihr Agent erhält die folgenden Updates, wenn Sie die Optionen Für Sprache optimieren und Stimme als primären Authoringmodus verwenden aktivieren:

  • Die Möglichkeit, Sprachfunktionen zu erstellen, wenn von Text auf Sprache und MFV umgeschaltet wird.
  • Die Sprachsystemthemen Stille-Erkennung, Unerkannte Sprache und Unbekannt-Tastendruck werden automatisch hinzugefügt, um sprachbezogene Szenarien zu behandeln.
  • Erhöhen Sie die Genauigkeit mit Agentendaten (standardmäßig aktiviert), wodurch die Genauigkeit der Spracherkennung verbessert wird.
  • Es gibt keine Änderungen am vorhandenen Agentenflow, wie z. B. das Thema Hauptmenü zum Starten von Unterhaltungen mit zugeordneten DTMF-Triggern.

Wichtig

  • Die Einstellung Für Sprache optimieren ändert nur die Funktionen zur Spracherstellung, nicht die Kanaleinstellung. Aktivieren Sie den Telefoniekanal für einen vollständig sprachaktivierten Agenten.
  • Wenn Sie die Option Optimieren für Sprache für einen Agenten festlegen, der ursprünglich nicht für Sprachfunktionen konfiguriert wurde, hat der Agent das Thema Hauptmenü (Vorschauversion) nicht. Sie müssen das Thema bei Bedarf neu erstellen.
  • Wenn Sie 'Für Sprache optimieren' nicht aktivieren können, überprüfen Sie die Power Platform-Umgebung, in der Ihr Agent gehostet wird, und stellen Sie sicher, dass 'Neue Funktionen früher aktivieren' für diese Umgebung deaktiviert ist. Weitere Informationen finden Sie unter Optimierung für Sprache kann nicht aktiviert werden.

Optimierung für Sprache deaktivieren

Deaktivieren Sie "Optimieren für Sprache" in der Agentenerstellung, wenn Sie den Telefoniekanal nicht verwenden. Nachdem Sie "Optimieren für Sprache" deaktiviert haben, werden die folgenden Änderungen angezeigt:

  • Keine Erstellung von Agenten für Sprachfunktionen wie Mehrfrequenzwahlverfahren und Barge-in.
  • Die Standardmodalität ist auf Text festgelegt.
  • Es gibt keine Verbesserung der Spracherkennung, da sie nicht vorhanden ist.
  • Keine Sprachsystemthemen oder globalen DTMF-Themen.

    Anmerkung

    Einige Themen melden möglicherweise Fehler während der Veröffentlichung, wenn sie noch auf das DTMF-Thema verweisen (jetzt deaktiviert).

  • Keine Änderung der Einstellungen für den Agentenflow und den Kanal, da durch das Deaktivieren der Optimierung der Telefoniekanal nicht entfernt wird.
  • Das Aktivieren oder Deaktivieren der Option Optimieren für Sprache wird erst wirksam, wenn Sie Ihren Agent veröffentlichen. Wenn der Agent versehentlich aktiviert oder deaktiviert wird und zwischen den Betriebsarten wechselt, haben Sie Zeit, das Problem zu beheben.

Wichtig

Wenn Ihre Telefoniekanäle aktiviert sind, kann das Deaktivieren von Für Sprache optimieren Ihren Agenten beeinträchtigen, da alle DTMF-Trigger automatisch deaktiviert werden.

Verwenden Sie die Stimme als primären Erstellungsmodus

Wählen Sie die Sprach- und DTMF-Modalität für jeden Knoten in der Sprachfunktionserstellung aus. Wählen Sie als Einstellungsmodus für die Agentenerstellung Sprache als primären Erstellungsmodus. Diese Einstellung stellt sicher, dass alle Eingabefelder die richtige Modalität haben. Wenn Sie Für Sprache optimieren bereits aktiviert haben, ist die Option Stimme als primären Erstellungsmodus verwenden standardmäßig aktiviert.

Meldungs-Verfügbarkeit

Die Verwendung der Text- oder Sprachmodalität kann sich unterschiedlich auf Ihren Kanal auswirken.

Textmodalität Sprachmodalität Text- und Sprachkanal für Agenten
Meldung verfügbar Nachricht ist leer Meldung verfügbar
Nachricht ist leer Meldung verfügbar Meldung nicht verfügbar

Benutzerdefinierte automatische Spracherkennung

Sprachfähige Agents für eine bestimmte Domäne, z. B. medizinische oder Finanzwesen, können auf Benutzer stoßen, die Finanzbegriffe oder medizinisches Jargon verwenden. Einige Begriffe und Fachbegriffe sind für den sprachgesteuerten Agenten schwer von Sprache in Text umzuwandeln.

Um sicherzustellen, dass die Spracheingabe korrekt erkannt wird, verbessern Sie die Spracherkennung:

  1. Wählen Sie "Einstellungen>" in Ihrem Agent aus.

  2. Wählen Sie Genauigkeit mit Agentendaten erhöhen aus, um die benutzerdefinierten Standardeinstellungen für die automatische Spracherkennung des Agents zu aktivieren.

  3. Wählen Sie Speichern aus, um Ihre Änderungen zu übernehmen.

  4. Veröffentlichen Sie Ihren Agenten, um die neuen Änderungen zu sehen.

Referenz zu Sprachoptionen auf Agentenebene

Nutzen Sie die Spracheinstellungen , um Auszeiten für verschiedene stimmbezogene Funktionen einzustellen. Einstellungen, die Sie auf dieser Seite anwenden, werden zum Standard für Themen, die Sie in Ihrem Agent erstellen.

So nehmen Sie Änderungen an den Timeout-Optionen auf Agentenebene vor:

  1. Gehen Sie zur Seite Einstellungen Ihres Agenten und wählen Sie Sprache.

  2. Wählen Sie die gewünschten Einstellungen aus und passen Sie die Standardeinstellungen des Agenten an.

  3. Wählen Sie Speichern aus, um Ihre Änderungen zu übernehmen.

Agentebeneneinstellungen

In der folgenden Tabelle sind die einzelnen Optionen und ihre Beziehung zu den Einstellungen auf Knotenebene aufgeführt.

Abschnitt auf sprachgesteuerter Agentenebene Einstellungen Beschreibung Standardwert Knoteneinstellung außer Kraft setzen
MFV Zwischenziffer-Timeout Maximal zulässige Zeit in Millisekunden beim Warten auf die Eingabe der nächsten DTMF-Taste. Wendet mehrstellige DTMF-Eingaben nur an, wenn Benutzer die maximale Eingabelänge noch nicht erreicht haben. 3000 ms Frageknoten mit Stimmeigenschaften für mehrstellige DTMF-Eingabe
MFV Abbruch-Timeout Maximale Dauer in Millisekunden, um auf einen DTMF-Beendigungsschlüssel zu warten. Die Begrenzung gilt, wenn der Benutzer die maximale Eingabelänge erreicht und die Beendigungstaste nicht gedrückt hat. Gilt nur für mehrstellige DTMF-Eingaben.

Nachdem das Limit abgelaufen ist und der DTMF-Schlüssel nicht eintrifft, beendet der Agent die Erkennung und gibt das Ergebnis bis zu diesem Punkt zurück.

Wenn diese Option auf „Fortsetzen ohne Wartezeit“ festgelegt ist, wartet der Agent nicht auf die Beendigungstaste. Der Agent reagiert sofort, nachdem der Nutzer die maximale Länge eingegeben hat.
2000 ms Frageknoten mit Stimmeigenschaften für mehrstellige DTMF-Eingabe
Stille-Erkennung Timeout bei Stilleerkennung Maximale Stille in Millisekunden, die beim Warten auf Benutzereingaben zulässig sind. Der Grenzwert gilt, wenn der Agent keine Benutzereingaben erkennt. Die Standardeinstellung ist kein Stille-Timeout. Agent wartet endlos auf die Eingabe des Benutzers.

Die Sprachstilleerkennung misst die Zeitspanne, nachdem die Stimme zu Ende gesprochen hat.
Kein Stille-Timeout Frageknoten mit Stimmeigenschaften für mehrstellige DTMF-Eingabe

Systemthema (Eigenschaften des Auslösers für Stilleerkennung) zum Konfigurieren der Stilleerkennung und Zeitüberschreitungen
Spracherfassung Timeout für Sprachausgabeende Die Begrenzung gilt, wenn der Benutzer während oder nach der Rede eine Pause macht. Wenn die Pause länger als das Timeout-Limit dauert, geht der Agent davon aus, dass der Benutzende zu Ende gesprochen hat.

Der Maximalwert für das Timeout am Ende der Äußerung beträgt 3000 ms. Alles, was über 3000 ms liegt, reduziert sich auf 3000 ms.
1500 ms Fragenknotenpunkt mit Stimmeigenschaften
Spracherfassung Spracherkennungs-Timeout Legt fest, wie viel Zeit der Agent für die Eingabe des Benutzers einräumt, sobald er zu sprechen beginnt. Der Standardwert ist 12000 Millisekunden (ca. 12 Sekunden). Kein Erkennungs-Timeout bedeutet unendliche Zeit. Agent stellt die Frage erneut. Wenn keine Antwort erfolgt, ist das Timeout der Spracherkennung überschritten. 12,000 ms Fragenknotenpunkt mit Stimmeigenschaften
Latenznachrichten Sendenachricht verzögern Legt fest, wie lange der Agent wartet, bevor er die Latenznachricht übermittelt, nachdem eine Hintergrundvorgangsanforderung gestartet wurde. Die Zeit wird in Millisekunden eingestellt. 500 ms Aktionsknoteneigenschaften für lang andauernde Vorgänge
Latenznachrichten Minimale Wiedergabezeit Die Latenznachricht wird für eine Mindestzeit angezeigt, auch dann, wenn der Hintergrundvorgang während der Anzeige der Nachricht abgeschlossen wird. Die Zeit wird in Millisekunden eingestellt. 5000 ms Aktionsmoduseigenschaften für lang andauernde Vorgänge
Sprachsensitivität Sensitivität Steuert, wie das System die Erkennung von Sprache und Hintergrundgeräuschen ausgleicht. Verringern Sie die Sensitivität für laute Umgebungen, öffentliche Orte und den Freisprechbetrieb. Erhöhen Sie die Sensitivität für ruhige Umgebungen, leise sprechende Benutzende oder die Erkennung von Sprachbefehlen. Die Standardeinstellung ist 0.5. 0.5 Für dieses Steuerelement gibt es keine Überschreibungen auf Knotenebene.

Barge-In aktivieren

Wenn Sie barge-in aktivieren, können Ihre Agentbenutzer Ihren Agent unterbrechen. Dieses Feature ist nützlich, wenn der Agentbenutzer die gesamte Nachricht nicht hören muss. Beispielsweise ist es möglich, dass Anrufer die Menüoptionen bereits kennen, da sie diese schon einmal gehört haben. Durch Die Verwendung von Barge-In kann der Agent-Benutzer die gewünschte Option eingeben, auch wenn der Agent nicht fertig ist, alle Optionen aufzulisten.

Gründe für die Deaktivieren von Barge-Ins

  • Deaktivieren Sie die Barge-In-Funktion, wenn Sie kürzlich eine Agent-Nachricht aktualisiert haben oder wenn die Compliance-Nachricht nicht unterbrochen werden darf.
  • Deaktivieren Sie Unterbrechung-In für die erste Agent-Nachricht, um sicherzustellen, dass Agent-Benutzer über neue oder wichtige Informationen informiert sind.

Spezifikationen

  • Barge-in unterstützt DTMF- und sprachbasierte Unterbrechungen durch den Benutzer-Agenten.

  • Sie können das Barge-in mit jeder Nachricht in einem Batch steuern. Platzieren Sie barge-in-disabled Knoten in der Reihenfolge vor jedem Knoten, bei dem ein Barge-In zulässig ist. Andernfalls wird das System als Allow-Barge-In-Nachricht behandelt barge-in-disabled .

    Screenshot der Platzierungen von barge-in und deaktiviertem barge-in in Nachrichtenknoten.

    Wenn eine Stapelwarteschlange abgeschlossen ist, wird die automatische Einstellung für den nächsten Stapel zurückgesetzt. Das Barge-In-Flag in jeder nachfolgenden Nachricht steuert den Prozess. Sie können deaktivierte Barge-In-Knoten platzieren, wenn die Sequenz erneut gestartet wird.

Tipp

Wenn aufeinander folgende Nachrichtenknoten von einem Frageknoten gefolgt werden, werden Sprachnachrichten für diese Knoten als ein Batch definiert. Ein Batch beginnt mit einem Nachrichtenknoten und stoppt am Frageknoten, der auf die Eingabe des Benutzers wartet.

Vermeiden Sie das Deaktivieren von Barge-Ins für langwierige Nachrichten, insbesondere, wenn Sie erwarten, dass Agentbenutzer häufig mit dem Agent interagieren. Wenn Ihr Agent die Menüoptionen bereits kennt, lassen Sie ihn selbst wählen, wohin er gehen möchte.

Barge-In einrichten

  1. Wählen Sie einen Knoten "Nachricht " oder " Frage " aus, und legen Sie die gewünschte Modalität auf "Speech & DTMF" fest.

  2. Wählen Sie die drei Punkte (...) für den Knoten aus, und wählen Sie dann "Eigenschaften" aus.

    • Für Nachrichtenknoten öffnet sich der Bereich Eigenschaften der Sendeaktivität seitlich der Erstellungsfläche.

      Wählen Sie Barge-in zulassen aus.

    • Für Fragen Knoten wird das Fenster Frageneigenschaften geöffnet. Wählen Sie dort Sprache aus.

      Wählen Sie in den Eigenschaften von Voice die Option Barge-in zulassen aus.

  3. Speichern Sie das Thema.

Stilleerkennung und Zeitüberschreitungen konfigurieren

Mit der Stilleerkennung können Sie konfigurieren, wie lange der Agent auf die Benutzereingabe wartet und welche Aktion ausgeführt wird, wenn der Agent keine Eingabe erhält. Die Stilleerkennung ist besonders nützlich, wenn Sie auf eine Frage auf Knotenebene antworten oder wenn der Agent auf eine Triggerphrase wartet, um ein neues Thema zu beginnen.

Sie können die Standard-Timeouts für Themen konfigurieren.

Zum Überschreiben der Standardwerte für einen Knoten:

  1. Wählen Sie die drei Punkte (...) für den Knoten aus, und wählen Sie dann "Eigenschaften" aus.

    Der Bereich Frageeigenschaften wird geöffnet.

  2. Wählen Sie Voice aus und nehmen Sie die folgenden Einstellungen vor:

    Timeout-Option für Stilleerkennung Beschreibung
    Agenteinstellungen verwenden Node verwendet die globale Einstellung zur Stille Erkennung.
    Für diesen Knoten deaktivieren Der Agent wartet unbegrenzt auf eine Antwort.
    Anpassung in Millisekunden Der Agent wartet eine bestimmte Zeit, bevor er die Frage wiederholt.

Ausweichaktion

Sie können einige Verhaltensweisen als Fallback-Aktion konfigurieren:

  • Wie oft der Agent eine Frage wiederholen soll
  • Was die erneute Eingabeaufforderung enthalten soll
  • Was der Agent nach einer bestimmten Anzahl an Wiederholungen tun soll

Spracheingabe

Geben Sie für die Spracheingabe Werte für die folgenden Einstellungen an:

  • Ende-Timeout der Äußerung: Wie lange der Agent wartet, nachdem der Benutzer die Äußerung beendet hat.
  • Timeout für die Spracherkennung: Wie viel Zeit der Agent dem Benutzer gibt, sobald er mit der Antwort beginnt.

Um das Verhalten der Stilleerkennung zu konfigurieren, wenn Ihr Agent auf eine Auslösephrase wartet, passen Sie die Einstellungen im Bei Stille Systemthema an.

Eine Meldung zur Latenz für einen zeitintensiven Vorgang hinzufügen

Bei langen Back-End-Vorgängen kann Ihr Agent eine Nachricht an die Benutzenden senden, um sie über die längeren Prozesse zu informieren. Agenten in einem Messaging-Kanal können ebenfalls eine Latenznachricht senden.

Latenznachrichten-Audiowiedergabe Latenzmeldung im Chat
Die Schleife läuft weiter, bis der Vorgang abgeschlossen ist. Wird nur einmal gesendet, wenn die angegebene Latenz erreicht wird.

In Copilot Studio kann Ihr Agent eine Nachricht wiederholen, nachdem ein Power Automate Flow initiiert wurde.

  1. Fügen Sie einen Aktion-Knoten hinzu, der einen Flow auslöst.

  2. Wählen Sie die drei Punkte (...) des Knotens aus und wählen Sie dann Eigenschaften. Der Bereich Aktionseigenschaften wird geöffnet.

  3. Wählen Sie Nachricht senden.

  4. Geben Sie in das Textfeld ein, was der Agent sagen soll. Verwenden Sie SSML, um den Sound der Nachricht zu ändern. Der Agent wiederholt die Nachricht, bis der Ablauf abgeschlossen ist.

Sie können einstellen, wie lange der Agent warten soll, bevor er die Nachricht wiederholt. Dies erfolgt im Abschnitt Verzögerung. Legen Sie eine minimale Wartezeit fest, auch wenn der Ablauf abgeschlossen ist.

Anrufbeendigung konfigurieren

Um Ihren Agent so zu konfigurieren, dass der Anruf beendet und aufgehängt wird, fügen Sie einen neuen Knoten (+) hinzu, und wählen Sie "Themenverwaltung>beenden"-Unterhaltung aus.

Screenshot eines neuen Knotenmenüs mit hervorgehobenen Optionen „Themenverwaltung“ und „Unterhaltung beenden“.

Erkennen von Antwortcomputern

Sie können Ihren Agent so konfigurieren, sodass er einen Anrufbeantworter erkennt und eine Nachricht beim Agent-Nutzer hinterlässt, nachdem die Nachricht des Agent-Nutzers abgeschlossen wurde. Im Thema "Answering Machine Detection System" können Sie eine benutzerdefinierte Nachricht für Szenarien erstellen, wenn ihr Agent auf die Voicemail eines Benutzers trifft. Definieren Sie im Nachricht-Knoten die Nachricht, die hinterlassen wird, wenn der Agent auf einen Anrufbeantworter trifft.

Screenshot des Themas

Formatieren der Sprachsynthese mit SSML

Verwenden Sie die Sprachsynthesemarkupsprache (Speech Synthesis Markup Language, SSML), um zu ändern, wie der Agent klingt, wenn er Nachrichten laut vorliest. So können Sie beispielsweise die Tonhöhe bzw. Frequenz der gesprochenen Wörter, die Geschwindigkeit und die Lautstärke verändern.

SSML verwendet Tags, um den zu ändernden Text einzuschließen, ähnlich wie HTML. Verwenden Sie die folgenden Tags in Copilot Studio:

SSML-Tag Beschreibung Link zur Dokumentation des Sprachdiensts
<audio src="_URL to an audio file_"/> Fügen Sie innerhalb des Tags die URL zu einer Audiodatei hinzu. Der Agentenbenutzende muss auf die Datei zugreifen können. Aufgezeichnetes Audio hinzufügen
<break /> Fügen Sie Pausen oder Unterbrechungen zwischen Wörtern ein. Fügen Sie Unterbrechungsoptionen innerhalb des Tags ein. Pause hinzufügen
<emphasis> Text, den Sie ändern möchten</emphasis> Fügen Sie Wörtern oder Sätzen Stress hinzu. Fügen Sie im öffnenden Tag Hervorhebungsoptionen hinzu. Fügen Sie das schließende Tag nach dem Text hinzu, den Sie ändern möchten. Hervorhebungsoptionen anpassen
<prosody> Text, den Sie ändern möchten</prosody> Geben Sie Änderungen an Tonhöhe, Kontur, Bereich, Rate und Lautstärke an. Fügen Sie Prosodie-Optionen im öffnenden Tag hinzu. Fügen Sie das schließende Tag nach dem Text hinzu, den Sie ändern möchten. Prosodie-Optionen anpassen
<lang xml:lang="xx-XX"> Text, den Sie ändern möchten</lang> Passen Sie die Sprechsprache innerhalb derselben Nachricht an, wenn Sie eine mehrsprachige neuronale Stimme verwenden. Anpassen der gesprochenen Sprachen

Anmerkung

Wenn Sie den <audio src="_URL to an audio file_"/>-Tag verwenden und die URL in einer Variablen speichern, codieren Sie die URL, bevor Sie sie in das Audio-SSML-Tag der Nachricht einfügen. Verwenden Sie die EncodeHTML Power Fx-Funktion, um die URL zu codieren, wenn sie einer Variablen in der Zuweisen-Aktion zugewiesen wird.

Screenshot einer Sprachnachricht mit hinzugefügten SSML-Tags

Suchen und Verwenden eines Tags

SSML verwendet Tags, um den zu ändernden Text einzuschließen, ähnlich wie HTML.

Verwenden Sie die folgenden Tags in Copilot Studio:

  1. Wählen Sie einen Knoten "Nachricht " oder " Frage " aus. Ändern Sie den Modus in Sprache und DTMF.

  2. Wählen Sie das Menü SSML-Tags und wählen Sie dann ein Tag aus.

    Das Meldungsfenster wird mit dem Tag befüllt. Wenn das Nachrichtenfeld bereits Text enthält, wird der Code des Tags an das Ende Ihrer Nachricht angehängt.

  3. Umgeben Sie den Text, den Sie ändern möchten, mit den öffnenden und schließenden Tags. Dabei können Sie mehrere Tags kombinieren und einzelne Teile der Nachricht durch individuelle Tags individualisieren.

Tipp

Sie können SSML-Tags, die nicht im Hilfsmenü angezeigt werden, manuell eingeben. Weitere Informationen zu anderen verwendbaren Tags finden Sie unter Verbessern Sie die Synthese mit Speech Synthesis Markup Language.

Anruf an einen Mitarbeitenden oder an eine externe Telefonnummer weiterleiten

Erlauben Sie Agenten, den Anruf an eine externe Telefonnummer weiterzuleiten. Copilot Studio unterstützt die blinde Weiterleitung an eine PSTN-Nummer und eine Direct Routing-Nummer.

Anmerkung

Anrufübertragungen können auch mithilfe von SIP-X-Headern verarbeitet werden. Weitere Informationen finden Sie unter SIP X-Header konfigurieren für sprachgesteuerte Agenten.

Zum Weiterleiten an eine externe Telefonnummer:

  1. Fügen Sie in dem Thema, das Sie ändern möchten, einen neuen Knoten (+) hinzu. Wählen Sie im Knotenmenü Themenverwaltung und wählen Sie dann Unterhaltung übertragen.

  2. Wählen Sie unter Weiterleitungsart die Option Externe Rufnummernweiterleitung aus und geben Sie die Weiterleitungsnummer ein.

  3. Optionalerweise fügen Sie einem Telefonanruf einen SIP-UUI-Header hinzu.

    Dieser Header ist eine Zeichenfolge aus key=value-Paaren ohne Leerzeichen oder Sonderzeichen, die für das Lesen durch externe Systeme angezeigt wird.

    1. Wählen Sie die drei Punkte (...) des Knotens aus und wählen Sie dann Eigenschaften. Das Panel für die Übertragung von Unterhaltungseigenschaften wird geöffnet.

    2. Geben Sie unter SIP-UUI-Header die Informationen ein, die Sie mit der Anrufweiterleitung senden möchten. Bei der Weiterleitung auf eine externe Rufnummer werden Variablen nicht unterstützt.

    Vorsicht

    Nur die ersten 256 Zeichen der Zeichenkette werden gesendet. In der Kopfzeile sind nur Zahlen, Buchstaben, Gleichheitszeichen (=) und Semikolons (;) zulässig. Alle anderen Zeichen, einschließlich Leerzeichen, Klammern und eckige Klammern sowie Formeln werden nicht unterstützt und können dazu führen, dass die Übertragung fehlschlägt.

Tipp

Fügen Sie in Ihrer Telefonnummer ein + für die entsprechende Landesvorwahl ein.

Für die ausgehende Übertragung mit SIP-UUI für die Zieltelefonnummer muss das direkte Routing verwendet werden. Telefonnummern im öffentlichen Telefonnetz (PSTN) unterstützen keine SIP-UUI-Header-Übertragungen.

Informationen zum Übertragen an einen Mitarbeitenden finden Sie unter Explizite Trigger.

Verwenden Sie Voice-Variablen

Copilot Studio unterstützt die Population von Variablen. Sie können vordefinierte Variablen verwenden oder benutzerdefinierte Variablen erstellen.

Anmerkung

  • Weitere Informationen zur Verwendung und Erstellung von Variablen in Copilot Studio finden Sie unter Work with variables.
  • Informationen zu anderen Aktivitäts- und Unterhaltungsvariablen, die für sprachaktivierte Agenten verfügbar sind, finden Sie unter Variablen für sprachaktivierte Agenten.

Ein sprachfähiger Agent in Copilot Studio unterstützt Kontextvariablen. Diese Variablen helfen Ihnen, die Gespräche Ihrer Agenten bei der Weiterleitung eines Anrufs an Dynamics 365 Contact Center zu integrieren.

Weitere Informationen zu Kontextvariablen in Dynamics 365 Contact Center finden Sie unter Context-Variablen für Copilot Studio-Bots.

Diese Integration unterstützt diese Szenarios mit den folgenden Variablen beim Übertragen:

Variable Typ Beschreibung
System.Activity.From.Name String Die Anrufer-ID des Agentenbenutzers
System.Activity.Recipient.Name String Die Nummer, die zum Anrufen oder zum Herstellen einer Verbindung mit dem Agenten verwendet wird
System.Conversation.SipUuiHeaderValue String SIP-Headerwert bei der Weiterleitung über eine Direktverbindungsrufnummer
System.Activity.UserInputType String Ob der Agent-Benutzer DTMF oder Sprache in der Unterhaltung verwendet hat
System.Activity.InputDTMFKey String Die unformatierte MFV-Eingabe des Agentenbenutzenden
System.Conversation.OnlyAllowDTMF Boolesch Wenn die Einstellung auf true gesetzt ist, ignoriert Voice die Spracheingabe
System.Activity.SpeechRecognition.Confidence Nummer Der Konfidenzwert (zwischen 0 und 1) des letzten Spracherkennungsereignisses
System.Activity.SpeechRecognition.MinimalFormattedText String Ergebnisse der Spracherkennung (als Unformatierter Text), bevor Copilot Studio das dedizierte naturale Sprachverständnismodell angewendet hat

Anmerkung

  • Die Veröffentlichung eines Agenten mit langen Triggerausdrücken und Entitätsdimensionierungen dauert länger.
  • Wenn mehrere Benutzende denselben Agenten gleichzeitig veröffentlichen, wird Ihre Veröffentlichungsaktion blockiert. Sie müssen den Agent erneut veröffentlichen, nachdem andere ihre vorhandenen Änderungen am Agenten abgeschlossen haben.

Weitere Informationen zu den Grundlagen der Veröffentlichung finden Sie unter Hauptkonzepte: Veröffentlichen und Bereitstellen des Agents.