Guía de tokens

Tokens de entrada vs tokens de salida

El coste de uso de IA suele depender de dos partes de una misma solicitud: los tokens que envías al modelo y los tokens que el modelo devuelve. Entender la diferencia ayuda a estimar costes, controlar la longitud de respuesta y evitar sorpresas cuando el uso crece.

Estima costes de tokens con PromptMeter

Tokens de entrada vs tokens de salida

Qué son los tokens de entrada

Los tokens de entrada son el texto que envías al modelo: prompt, instrucciones, mensaje del usuario, contexto, ejemplos y cualquier texto adjunto o copiado que entra en la solicitud.

Qué son los tokens de salida

Los tokens de salida son la respuesta generada por el modelo. Las respuestas largas cuestan más, la longitud de salida suele poder controlarse y formatos como tablas o JSON pueden aumentar el tamaño.

Por qué ambos importan en el coste

Coste total = coste de tokens de entrada + coste de tokens de salida. Un prompt corto con una respuesta larga puede salir caro, y un prompt largo con respuesta breve también puede acumular coste con volumen.

Por qué la salida puede volverse cara

Explicaciones largas, formato repetido, tablas generadas, salidas JSON, resúmenes de razonamiento en varios pasos y mucho volumen pueden hacer que la salida sea el principal coste.

Cómo controlar tokens de entrada

Reduce contexto repetido, acorta ejemplos, separa instrucciones reutilizables y elimina texto copiado irrelevante antes de enviarlo al modelo.

Cómo controlar tokens de salida

Pide respuestas concisas, define un máximo de secciones, evita tablas innecesarias, solicita resúmenes antes del detalle completo y usa salida estructurada con cuidado.

Cómo ayuda PromptMeter

PromptMeter ayuda a estimar tokens, coste de prompts, escenarios de ahorro y coste de API de IA antes de escalar uso. Sus estimaciones son locales y aproximadas, así que conviene verificar precios del proveedor manualmente.

Planificación mensual práctica

Mide entrada y salida, estima volumen de requests, prueba respuestas cortas, medias y largas, y vigila workflows donde una acción del usuario dispara varias llamadas de IA.

Checklist práctico

  • Medir entrada y salida
  • Estimar uso mensual
  • Probar longitudes de respuesta corta, media y larga
  • Vigilar workflows con varias llamadas de IA
  • Revisar manualmente el pricing del proveedor

Respuesta corta vs respuesta larga

EscenarioTokens de entradaTokens de salidaComportamiento de coste
Respuesta corta800200Menor coste de salida
Respuesta detallada8001.200El coste de salida domina
Respuesta JSON8001.800La salida estructurada puede crecer rápido
Workflow con varias llamadas800 x 3750 x 3El coste se multiplica por llamadas

FAQ

FAQ sobre tokens de entrada y salida

¿Los tokens de entrada y salida cuestan lo mismo?

No siempre. Algunos proveedores cobran tokens de entrada y salida con precios distintos, así que conviene revisar el pricing actual manualmente.

¿Por qué los tokens de salida pueden costar más?

La salida puede crecer por explicaciones largas, tablas, JSON, formato repetido o workflows que piden varias respuestas por acción de usuario.

¿Puedo controlar los tokens de salida?

A menudo sí. Pide respuestas concisas, fija una longitud máxima, limita secciones o solicita primero un resumen antes del detalle completo.

¿El número de tokens varía según el modelo?

Sí. El conteo varía por modelo, tokenizador, idioma, formato, código, JSON y estructura del mensaje.

¿Debo optimizar primero entrada o salida?

Empieza por el mayor coste. Reduce contexto repetido si la entrada es grande, y controla longitud de respuesta si domina la salida.