Czym są tokeny AI
Tokeny to fragmenty tekstu czytane i zwracane przez model AI. Mogą być słowami, częściami słów, interpunkcją lub formatowaniem.
Kalkulator tokenów
Wklej prompt, aby oszacować znaki, słowa, tokeny wejściowe, oczekiwane tokeny odpowiedzi i miesięczne użycie.
Tokeny to fragmenty tekstu czytane i zwracane przez model AI. Mogą być słowami, częściami słów, interpunkcją lub formatowaniem.
PromptMeter używa prostych szacunków na podstawie znaków. Rzeczywiste liczby zależą od modelu, języka, tokenizera, formatowania i struktury wiadomości.
Dostawcy często rozliczają tokeny wejściowe i wyjściowe, więc większe prompty i dłuższe odpowiedzi zwykle zwiększają koszt.
Tokeny wyjściowe to tekst zwracany przez model. Mogą istotnie wpływać na koszt, szczególnie przy długich odpowiedziach lub powtarzalnych workflow.
Kalkulator
Wklej prompt, wybierz przykładowy profil cenowy i oszacuj koszt na uruchomienie, dzień i miesiąc.
Tokeny wejściowe to to, co wysyłasz do modelu AI. Tokeny wyjściowe to to, co model zwraca. Dostawcy API często wyceniają je osobno.
Ceny są na razie ręczne. Przykład: jeśli dostawca pobiera $2 za wejście i $10 za wyjście za 1M tokenów, wpisz 2 i 10.
Zużycie energii to przybliżenie. Rzeczywiste zużycie zależy od modelu, sprzętu, dostawcy, wydajności centrum danych, obciążenia i regionu.
FAQ
To mała jednostka tekstu przetwarzana przez model. Może oznaczać słowo, część słowa, interpunkcję lub spację.
Nie. Kalkulator daje przejrzyste przybliżenia, a nie wartości rozliczeniowe dostawcy.
Wiele API osobno rozlicza wygenerowany tekst. Długa odpowiedź może więc kosztować nawet przy krótkim promptcie.