Verstehen Sie die KI-Modelle und LLM-Eingaben von Genesys Agent Copilot

Genesys Agent-Copilot verwendet eine Kombination aus nativen und AWS Bedrock Modelle, je nach Funktion, Anwendungsfall und Dialekt.

Notiz : Large Language Model (LLM)-Token sind nicht dasselbe wie Genesys Cloud AI Experience-Token. Weitere Informationen zu Genesys Cloud AI Experience-Tokens und Preisen finden Sie unter Messung und Preisgestaltung für Genesys Cloud AI Experience-Token .

Genesys Agent Copilot-KI-Modelle und LLM-Eingabe

Genesys Agent Copilot verwendet eine Kombination aus nativer und AWS Bedrock Modelle, je nach Funktion, Anwendungsfall und Dialekt.


Sprache Region Sprache
tag
Wissen
surfacing
Wissen
Antwort auftauchen
highlight
Intent-based
NBA 
Zusammenfassung Erweiterte Zusammenfassung Wrap-up-Codevorhersage
Deutsch Australien  en-AU Genesys nativ

AWS Bedrock

Genesys nativ

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Großbritannien  en-GB Genesys nativ AWS Bedrock Genesys nativ

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

USA en-US Genesys nativ AWS Bedrock Genesys nativ

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Token-Eingabe
< 6000: Genesys-Native

Token-Eingabe
> 6000: AWS Bedrock

Niederländisch Niederlande  nl-NL

Genesys nativ

AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock
Französisch Kanada  fr-CA Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Frankreich fr-FR Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Deutsch Deutschland  de-DE Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Italienisch Italien it-IT Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Japanisch Japan jp-JP Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Portugiesisch Brasilien pt-BR Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Portugal pt-PT Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Spanisch USA es-US Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*
Spanien es-ES Genesys nativ AWS Bedrock* Genesys nativ AWS Bedrock AWS Bedrock* AWS Bedrock*

* Roadmap

Tokenübersicht

Token stellen Textsegmente dar, beispielsweise Wortteile, Leerzeichen oder Satzzeichen. Die API verarbeitet die Eingabe und zerlegt sie in Token, die nicht immer ganzen Wörtern entsprechen. Zu den wichtigsten Näherungswerten zählen:

  • Ein Token entspricht ungefähr vier Zeichen in Englisch
  • Ein Token entspricht ungefähr ¾ eines Wortes
  • 100 Token entsprechen ungefähr 75 Wörtern

 Oder: 

  • 1–2 Sätze entsprechen ungefähr 30 Token
  • Ein Absatz entspricht ungefähr 100 Token
  • 1.500 Wörter entsprechen ungefähr 2048 Token

Beispielsweise Ein beliebtes Sprichwort wie „Carpe diem“ könnte 10 Token haben. Die Visionserklärung eines Unternehmens könnte etwa 500 Token umfassen. Ein klassisches Gedicht wie „The Road Not Taken“ könnte etwa 1.700 Token enthalten.

Sprachunterschiede

Die Tokenisierung variiert je nach Sprache. Beispielsweise enthält „Bonjour tout le monde“, was auf Französisch „Hallo zusammen“ bedeutet, fünf Token, obwohl es nur 19 Zeichen lang ist. Für nicht-englische Texte sind möglicherweise mehr Token erforderlich, was sich auf die API-Kosten auswirkt.

Wie Tokens generieren

Die API wandelt Wörter kontextbezogen in Token um, verarbeitet sie und übersetzt die Token dann wieder in lesbaren Text. Dasselbe Wort kann je nach Platzierung in verschiedene Token aufgeteilt werden. Beispielsweise könnte das Wort „blau“ ein anderes Token haben, wenn es mit einem Leerzeichen endet oder mit einem Großbuchstaben beginnt.

Beispiele:

  • Das Token für „blau“ mit einem abschließenden Leerzeichen könnte „4321“ sein.
  • Das Token für „Blau“ (großgeschrieben mit Leerzeichen) könnte „4521“ sein.
  • Das Token für „Blau“ (am Anfang groß geschrieben) könnte „5000“ sein.

Gewöhnliche Token haben niedrigere Werte. Satzzeichen wie Kommas neigen aufgrund ihrer häufigen Verwendung dazu, eine konsistente Token-ID zu haben. Wörter können je nach Fall oder Position in einem Satz unterschiedliche Token-IDs haben.