Tokens helfen Ihnen zu steuern, wie ChatGPT reagiert. Hier ist, was sie sind und wie man sie benutzt.

ChatGPT hat die technologische Welt im Sturm erobert, und es gibt keinen Mangel an Fortschritten und Updates. Aber trotz der Verwendung fortschrittlicher Technologie gibt es in der aktuellen Version einige einschränkende Faktoren.

Einer dieser Faktoren ist das Token-System, das den Evolutionszyklus weiterhin durchbricht und den Nutzen der App in die Knie zwingt. Wenn Sie ChatGPT verwenden, möchten Sie vielleicht etwas über die Token von ChatGPT wissen und wissen, was zu tun ist, wenn Ihnen die Token ausgehen.

Lassen Sie uns einen Schritt zurücktreten und Ihnen einen Einblick in alles geben, was Sie über die zugrunde liegenden Funktionsmechanismen der App wissen müssen.

Was ist ein ChatGPT-Token?

Wenn Sie an der Fassade der App vorbeigehen, sehen Sie nur eine Computersprache, die Ihren Befehlen gehorcht und Ihnen die Antworten gibt, die Sie suchen. Das Backend besteht jedoch nur aus viel Code, der jede Minute dazulernt und sich mit den Fragen, die er beantwortet, auf den neuesten Stand bringt.

instagram viewer

ChatGPT wandelt jedes Wort in ein lesbares Token um, wenn Sie eine Frage stellen. Um es weiter aufzuschlüsseln: Token sind Textfragmente, und jede Programmiersprache verwendet einen anderen Satz von Tokenwerten, um die Anforderungen zu verstehen.

Da Computer Textwerte nicht direkt verstehen, zerlegen sie sie in eine Zahlenkombination, die oft als Einbettungen bezeichnet wird. Sie können sogar Einbettungen wie z Python-Listen, die einer Liste zusammengehöriger Zahlen ähneln, z. B. [1.1,2.1,3.1,4.1…n].

Sobald ChatGPT die anfängliche Eingabe entgegennimmt, versucht es, die nächste mögliche Eingabe basierend auf den vorherigen Informationen vorherzusagen. Es wählt die gesamte Liste früherer Token aus und versucht unter Verwendung seiner Codierungssynthese, der nachfolgenden Eingabe durch den Benutzer zuvorzukommen. Es verwendet und prognostiziert jeweils ein Token, um es der Sprache zu erleichtern, die Verwendung zu verstehen.

Um die Vorhersagen zu verbessern und die Genauigkeit zu verbessern, nimmt es die gesamte Liste der Einbettungen auf und leitet sie durch Transformatorschichten, um Assoziationen zwischen Wörtern herzustellen. Wenn Sie beispielsweise eine Frage wie „Wer ist Thomas Edison?“ stellen, nimmt ChatGPT die wertvollsten Wörter in der Liste auf: WHO Und Edison.

Transformer-Layer spielen ihre Rolle im gesamten Prozess. Diese Schichten sind eine Form neuronaler Netzwerkarchitektur, die darauf trainiert ist, die relevantesten Schlüsselwörter aus einer Wortfolge zu entnehmen. Der Trainingsprozess ist jedoch nicht so einfach, wie es sich anhört, denn es dauert lange, Transformer-Layer mit Gigabyte an Daten zu trainieren.

Obwohl ChatGPT jeweils nur einen Token vorhersagt, ist seine autoregressive Technologie so programmiert, dass sie vorhersagt und in das primäre Modell zurückkoppelt, um die Ausgabe freizugeben. Das Modell ist so eingestellt, dass es für jedes Token nur einmal ausgeführt wird, sodass das Ergebnis wortweise gedruckt wird. Die Ausgabe stoppt automatisch, wenn die Anwendung auf einen Stopp-Token-Befehl stößt.

Wenn Sie sich beispielsweise den Token-Rechner auf der ChatGPT-Website ansehen, können Sie Ihre Token-Nutzung anhand Ihrer Fragen berechnen.

Lassen Sie uns einen Beispieltext eingeben, wie zum Beispiel:

Wie erkläre ich die Verwendung von Tokens In ChatGPT?

Laut Rechner enthält diese Zeichenfolge 46 Zeichen, die 13 Token verbrauchen. Wenn Sie es in Token-IDs aufschlüsseln, sieht es ungefähr so ​​​​aus:

[2437, 466, 314, 4727, 262, 779, 286, 16326, 287, 24101, 38, 11571, 30]

Gemäß der OpenAI-Token-Rechner:

Eine hilfreiche Faustregel ist, dass ein Token im Allgemeinen ~4 Textzeichen für allgemeinen englischen Text entspricht. Dies entspricht etwa ¾ eines Wortes (also 100 Token ~= 75 Wörter).

Kostenlos vs. Bezahlte Token

Um Ihnen einen Vorgeschmack darauf zu geben, was in der ChatGPT-Anwendung los ist, bietet OpenAI Ihnen ein kostenloses begrenztes Token-Abonnement an. Wenn Sie mit der ChatGPT-API experimentieren möchten, verwenden Sie das kostenlose Guthaben von 5 $, das drei Monate lang gültig ist. Sobald das Limit erschöpft ist (oder der Testzeitraum abgelaufen ist), können Sie nutzungsbasiert bezahlen, wodurch sich das maximale Kontingent auf 120 $ erhöht.

ChatGPT Plus: Lohnt sich das kostenpflichtige Abonnement?

Um es noch besser zu machen, können Sie sich sogar für das anmelden ChatGPT Plus-Angebot, was Sie um 20 $ pro Monat zurückwirft. Angesichts der umfangreichen Nutzung und Beliebtheit des gesamten KI-Modells sind hier die wichtigsten Funktionen des kostenpflichtigen Abonnementmodells:

  • Zugriff auf ChatGPT, auch wenn die Website aufgrund eines Zustroms von Benutzern ausfällt
  • Verbesserte Rücklaufquoten
  • Zugriff aus erster Hand auf neue Funktionen und Versionen

Wenn Sie der Meinung sind, dass sich diese Funktionen absolut lohnen und in Ihrer Gasse liegen, können Sie sich für das kostenpflichtige Abonnement anmelden und sofort davon profitieren.

ChatGPT-Token-Preisstruktur

Es stehen einige verschiedene Anwendungsmodelle zur Verfügung, die Sie je nach Ihren Anforderungen auswählen können:

Modell

Preis für 1000 Token (Eingabeaufforderung)

Preis für 1000 Token (Fertigstellung)

Ada

$0.0004

$0.0004

Babbage

$0.0005

$0.0005

Curie

$0.0020

$0.0020

DaVinci

$0.0200

$0.0200

ChatGPT

$0.0020

$0.0020

GPT-4 8k-Kontext

$0.0300

$0.0600

GPT-4 32k-Kontext

$0.0600

$0.1200

Ada ist das schnellste, während DaVinci das leistungsstärkste Modell aus dieser Liste von Modellen ist. Die Aufforderung ist die Frage, während sich die Vervollständigung mit den Antworten befasst.

Maximale Token-Limits

Bei jedem Modell können Sie die maximale Anzahl von Tokens in jeder Abfrage festlegen. Diese Methode steuert die maximale Anzahl von Token, die die Anwendung in einem einzelnen Aufruf generiert, wodurch die Ausgabe begrenzt wird. Die max_token-Funktion ist sehr nützlich, insbesondere wenn Sie die Länge Ihrer Ausgabe steuern und gleichzeitig eine übermäßige Verwendung Ihrer Token-Nutzung und Ihrer Credits vermeiden möchten. Die Standardlänge ist auf 2048 Token festgelegt, während das Maximum auf 4096 Token eingestellt werden kann.

Das Einschränken der Tokennutzung kann zu kurzen Antworten führen, die die Ausgabe einschränken und Ihr Nutzungserlebnis beeinträchtigen können.

ChatGPT3 hat eine Obergrenze von 4096; Mit der Einführung von ChatGPT4 werden die Token-Limits jedoch wie folgt erhöht:

Modell

Preis für 1000 Token (Eingabeaufforderung)

Ada

2048

Babbage

2048

Curie

2048

DaVinci

4096

ChatGPT

4096

GPT-4 8k-Kontext

8192

GPT-4 32k-Kontext

32768

Wenn Ihre Ausgabe abgeschnitten ist, müssen Sie die angegebene Höchstgrenze in Ihrem Dashboard erhöhen. Denken Sie daran, dass die Summe Ihrer Aufforderungs- und maximalen Token immer kleiner als gleich der maximalen Token-Grenze des Modells sein sollte.

Zum Beispiel innerhalb des ChatGPT-Modells die prompt_tokens + max_tokens <= 4096 Token.

Erfahren Sie, wie Sie Ihre ChatGPT-Eingabeaufforderungen steuern, um die besten Ergebnisse zu erzielen

Unabhängig davon, wie Sie die KI-gesteuerte Anwendung verwenden, müssen Sie wahrscheinlich Wege finden, um intelligent mit Ihren Fragen und Sätzen zu spielen. Abhängig von Ihren Nutzungsmustern werden Sie ChatGPT wahrscheinlich ausgiebig für jede Aufgabe verwenden.

Um die besten Ergebnisse zu erzielen, müssen Sie lernen, mit der Token-Methodik zu arbeiten, und Ihre Fähigkeiten verbessern, um sicherzustellen, dass Ihre Nutzungsbeschränkungen intakt bleiben und Ihnen gleichzeitig die bestmöglichen Antworten geben.