Qué son los tokens de entrada
Los tokens de entrada son el texto que envías al modelo: prompt, instrucciones, mensaje del usuario, contexto, ejemplos y cualquier texto adjunto o copiado que entra en la solicitud.
Guía de tokens
El coste de uso de IA suele depender de dos partes de una misma solicitud: los tokens que envías al modelo y los tokens que el modelo devuelve. Entender la diferencia ayuda a estimar costes, controlar la longitud de respuesta y evitar sorpresas cuando el uso crece.
Estima costes de tokens con PromptMeter
Los tokens de entrada son el texto que envías al modelo: prompt, instrucciones, mensaje del usuario, contexto, ejemplos y cualquier texto adjunto o copiado que entra en la solicitud.
Los tokens de salida son la respuesta generada por el modelo. Las respuestas largas cuestan más, la longitud de salida suele poder controlarse y formatos como tablas o JSON pueden aumentar el tamaño.
Coste total = coste de tokens de entrada + coste de tokens de salida. Un prompt corto con una respuesta larga puede salir caro, y un prompt largo con respuesta breve también puede acumular coste con volumen.
Explicaciones largas, formato repetido, tablas generadas, salidas JSON, resúmenes de razonamiento en varios pasos y mucho volumen pueden hacer que la salida sea el principal coste.
Reduce contexto repetido, acorta ejemplos, separa instrucciones reutilizables y elimina texto copiado irrelevante antes de enviarlo al modelo.
Pide respuestas concisas, define un máximo de secciones, evita tablas innecesarias, solicita resúmenes antes del detalle completo y usa salida estructurada con cuidado.
PromptMeter ayuda a estimar tokens, coste de prompts, escenarios de ahorro y coste de API de IA antes de escalar uso. Sus estimaciones son locales y aproximadas, así que conviene verificar precios del proveedor manualmente.
Mide entrada y salida, estima volumen de requests, prueba respuestas cortas, medias y largas, y vigila workflows donde una acción del usuario dispara varias llamadas de IA.
| Escenario | Tokens de entrada | Tokens de salida | Comportamiento de coste |
|---|---|---|---|
| Respuesta corta | 800 | 200 | Menor coste de salida |
| Respuesta detallada | 800 | 1.200 | El coste de salida domina |
| Respuesta JSON | 800 | 1.800 | La salida estructurada puede crecer rápido |
| Workflow con varias llamadas | 800 x 3 | 750 x 3 | El coste se multiplica por llamadas |
FAQ
No siempre. Algunos proveedores cobran tokens de entrada y salida con precios distintos, así que conviene revisar el pricing actual manualmente.
La salida puede crecer por explicaciones largas, tablas, JSON, formato repetido o workflows que piden varias respuestas por acción de usuario.
A menudo sí. Pide respuestas concisas, fija una longitud máxima, limita secciones o solicita primero un resumen antes del detalle completo.
Sí. El conteo varía por modelo, tokenizador, idioma, formato, código, JSON y estructura del mensaje.
Empieza por el mayor coste. Reduce contexto repetido si la entrada es grande, y controla longitud de respuesta si domina la salida.