Was KI-Tokens sind
Tokens sind Textbausteine, die ein KI-Modell liest und zurückgibt. Sie können Wörter, Wortteile, Satzzeichen oder Formatierung sein.
Token-Rechner
Fügen Sie Ihren Prompt ein, um Zeichen, Wörter, Eingabe-Tokens, erwartete Antwort-Tokens und monatliche Nutzung zu schätzen.
Tokens sind Textbausteine, die ein KI-Modell liest und zurückgibt. Sie können Wörter, Wortteile, Satzzeichen oder Formatierung sein.
PromptMeter nutzt einfache zeichenbasierte Schätzungen. Reale Tokenzahlen variieren nach Modell, Sprache, Tokenizer, Formatierung und Nachrichtenstruktur.
Anbieter berechnen oft Eingabe- und Ausgabe-Tokens getrennt, daher erhöhen größere Prompts und längere Antworten meist die Kosten.
Ausgabe-Tokens sind das, was das Modell zurückgibt. Sie können die Gesamtkosten besonders bei langen Antworten oder wiederholten Workflows stark beeinflussen.
Rechner
Fügen Sie einen Prompt ein, wählen Sie ein Beispielpreisprofil und schätzen Sie Kosten pro Ausführung, Tag und Monat.
Eingabe-Tokens sind das, was Sie an das KI-Modell senden. Ausgabe-Tokens sind das, was das Modell zurückgibt. Anbieter berechnen sie oft getrennt.
Preise sind derzeit manuell. Beispiel: Wenn Ihr Anbieter $2 Eingabe und $10 Ausgabe pro 1M Tokens berechnet, geben Sie 2 und 10 ein.
Der Energieverbrauch ist eine grobe Schätzung und hängt von Modell, Hardware, Anbieter, Rechenzentrum, Last und Region ab.
FAQ
Ein Token ist eine kleine Texteinheit, die ein Modell verarbeitet. Es kann ein Wort, Wortteil, Satzzeichen oder Leerraum sein.
Nein. Der Rechner liefert transparente Näherungen, keine Abrechnungswerte des Anbieters.
Viele APIs berechnen generierten Text separat. Eine kurze Eingabe mit langer Antwort kann daher spürbare Kosten erzeugen.