En Cascade, puedes cambiar fácilmente entre distintos modelos a tu elección. Según el modelo de IA que elijas, cada uno de tus prompts de entrada consumirá una cantidad diferente de créditos de prompt. Debajo del cuadro de texto, verás un menú desplegable para seleccionar el modelo, que incluye los siguientes:

SWE-1

SWE-1 es nuestra familia de modelos de IA de vanguardia internos, creada específicamente para tareas de ingeniería de software. Según nuestras evaluaciones internas, su rendimiento se acerca al de los modelos de vanguardia de los laboratorios de referencia.
  • SWE-1: Gran capacidad de razonamiento, compatible con herramientas y optimizado para Cascade. Rendimiento comparable a Claude 3.5 a una fracción del costo.
  • SWE-1-mini: Impulsa las sugerencias pasivas en Windsurf Tab y está optimizado para la latencia en tiempo real.

Usa tu propia clave (BYOK)

Esto solo está disponible para usuarios individuales, tanto gratuitos como de pago.
Para ciertos modelos, permitimos que los usuarios aporten sus propias claves de API. En el menú desplegable de modelos, los usuarios individuales verán modelos marcados con BYOK. Ten en cuenta que esto es distinto de API Pricing. Para introducir tu clave de API, ve a esta página en la configuración de la suscripción y añade tu clave. Si no has configurado tu clave de API, aparecerá un error si intentas usar el modelo BYOK. Actualmente, solo admitimos BYOK para estos modelos:
  • Claude 4 Sonnet
  • Claude 4 Sonnet (Thinking)
  • Claude 4 Opus
  • Claude 4 Opus (Thinking)

Precios de la API

A diferencia de la tarifa plana, donde se usa un número fijo de créditos por cada solicitud del usuario, la tarificación por API cobra un número fijo de créditos por token procesado (es decir, proporcional al cómputo). El número de créditos por token procesado varía según el modelo de IA seleccionado. Tanto la tarificación por API como la tarifa plana consumen el mismo fondo de créditos. Los modelos con tarificación por API están claramente marcados en el selector de modelos. Cobramos el precio de la API del modelo más un margen del 20%. Cada crédito equivale a $0.04.
Utilizamos los mismos tokenizers que los proveedores de modelos (el de Anthropic para los modelos Claude, el de OpenAI para los modelos GPT, etc.) para garantizar un conteo de tokens y una tarificación precisos y consistentes. Consulta la demo del tokenizer de OpenAI
La tarificación por API cobra por todos los tokens procesados a partir de tus prompts, el contexto recuperado automáticamente, las llamadas a herramientas, el historial de conversación, etc. Dado que los costos de procesamiento que aplican los proveedores de modelos difieren entre tokens de entrada y salida, en caché o sin caché, el número de créditos consumidos para el mismo total de tokens puede variar según la distribución de estos tipos. Los tokens de razonamiento de los modelos “thinking” se cobran como tokens de salida. Windsurf equilibra la longitud del contexto con los costos de las lecturas de la caché de prompts resumiendo la conversación cuando se vuelve demasiado larga; el resumen resultante se cobrará como tokens de entrada sin caché. El uso fraccional de créditos se redondea hacia arriba al centésimo más cercano de un crédito. Ten en cuenta que la tarificación por API es independiente de BYOK (bring-your-own-key). Con BYOK, todo el uso pasa por tu propia clave de API, por lo que Windsurf no cobra créditos. A continuación se muestra la tarificación de los modelos disponibles mediante API en varios planes:
ModelPlanes con tarificación por APITokens de entrada (Créditos / millón de tokens)1Tokens de lectura de caché (Créditos / millón de tokens)2Tokens de salida (Créditos / millón de tokens)
Claude Sonnet 4- Pro
- Teams
- Enterprise (con contrato)
- Enterprise (autoservicio)
909450
Claude Sonnet 4 (Thinking)- Pro
- Teams
- Enterprise (con contrato)
- Enterprise (autoservicio)
909450
1 Para los modelos de Anthropic, las escrituras en la caché de prompts cuestan un 25% adicional respecto a la entrada sin caché. La mayoría de los tokens de entrada en Windsurf se escriben en la caché de prompts para pasos posteriores. Los tokens de salida se escriben en la caché de prompts sin costo adicional. Consulta la tarificación de la API de Anthropic para más detalles.
2 La caché de prompts tiene un TTL (time-to-live) limitado determinado por el proveedor del modelo (p. ej., aproximadamente 5 minutos en Anthropic). Incluso dentro del TTL, no se garantiza el acierto de la caché de prompts. Los fallos de caché se cobran como tokens de entrada.

Conversación de ejemplo

Para mostrar cómo funciona la fijación de precios de la API en la práctica, recorramos una conversación de ejemplo con Cascade usando Claude Sonnet 4 directamente.
RolMensajeTokensNotaCosto por mensaje
UsuarioRefactor @my_function20kEntrada (escritura en caché). Nota: Incluye la línea de tiempo compartida completa, el contexto del editor y el prompt del sistema.2.25 créditos
WindsurfPrimero analizaré my_function para proponer un plan de refactorización.1kTokens de salida.0.45 créditos
tool_callAnalyze my_function23kEntrada (lectura de caché) + Entrada (escritura en caché).0.42 créditos
WindsurfAquí tienes un plan para refactorizar my_function […] ¿quieres que continúe con la implementación?2kTokens de salida.0.90 créditos
UsuarioSí, continúa.46kEntrada (lectura de caché) + Entrada (escritura en caché).0.52 créditos
tool_callEdit foo.py50kEntrada (lectura de caché) + Tokens de salida.2.22 créditos
tool_callAdd bar.py56kEntrada (lectura de caché) + Tokens de salida.3.15 créditos
WindsurfHe terminado de refactorizar my_function. Aquí tienes un resumen de mis cambios: […]2kTokens de salida.0.90 créditos
Total200k10.81 créditos