En Cascade, puedes cambiar fácilmente entre distintos modelos a tu elección. Según el modelo que elijas, cada uno de tus prompts de entrada consumirá una cantidad diferente de créditos de prompt. Debajo del cuadro de texto, verás un menú desplegable para seleccionar el modelo que incluye los siguientes modelos:

SWE-1

SWE-1 es nuestra familia de modelos de IA propios y de vanguardia, creada específicamente para tareas de ingeniería de software. Según nuestras evaluaciones internas, su rendimiento se acerca al de los modelos de vanguardia de los grandes laboratorios.
  • SWE-1: Gran capacidad de razonamiento, compatible con herramientas y optimizado para Cascade. Rendimiento al nivel de Claude 3.5 a una fracción del coste.
  • SWE-1-mini: Impulsa las sugerencias pasivas en Windsurf Tab, optimizado para latencia en tiempo real.

Trae tu propia clave (BYOK)

Esto solo está disponible para usuarios individuales, tanto del plan gratuito como de pago.
Para ciertos modelos de IA, permitimos que los usuarios utilicen sus propias claves de API. En el menú desplegable de modelos, los usuarios individuales verán modelos marcados como BYOK. Ten en cuenta que esto es distinto de API Pricing. Para introducir tu clave de API, ve a esta página en la configuración de la suscripción y añade tu clave. Si no has configurado tu clave de API, aparecerá un error si intentas usar un modelo BYOK. Actualmente, solo admitimos BYOK para estos modelos:
  • Claude 4 Sonnet
  • Claude 4 Sonnet (Thinking)
  • Claude 4 Opus
  • Claude 4 Opus (Thinking)

Precios de API

A diferencia de los precios de tarifa plana, donde se usa un número fijo de créditos para cada solicitud del usuario, los precios de API cobran un número fijo de créditos por token procesado (es decir, proporcional al cómputo). El número de créditos por token procesado varía según el modelo de IA seleccionado. Tanto los precios de API como los precios de tarifa plana consumen el mismo conjunto de créditos. Los modelos con precios de API están claramente marcados en el selector de modelos. Cobramos el precio de API del modelo más un margen del 20%. Cada crédito corresponde a $0.04.
Utilizamos los mismos tokenizadores que los proveedores de modelos (el de Anthropic para los modelos Claude, el de OpenAI para los modelos GPT, etc.) para garantizar un conteo y precio de tokens preciso y consistente. Ver demo del tokenizador de OpenAI
Los precios de API cobran por todos los tokens procesados de tus solicitudes, contexto recuperado automáticamente, llamadas de herramientas, historial de conversación anterior, etc. Dado que los costos de procesamiento de tokens de los proveedores de modelos difieren entre tokens de entrada y salida, en caché o no en caché, el número de créditos consumidos para el mismo número total de tokens puede diferir según las diferentes distribuciones de estos tipos de tokens. Los tokens de razonamiento de modelos “pensantes” se cobran como tokens de salida. Windsurf equilibra la longitud del contexto con los costos para lecturas de caché de solicitudes resumiendo la conversación cuando se vuelve demasiado larga; el resumen resultante se cobraría como tokens de entrada sin caché. El uso fraccionario de créditos se redondea hacia arriba a la centésima de crédito más cercana. Ten en cuenta que los precios de API son independientes de BYOK (trae tu propia clave). Con BYOK todo el uso pasa por tu propia clave de API, por lo que Windsurf no cobra ningún crédito. Aquí están los precios para modelos que están disponibles a través de precios de API en varios planes:
ModeloPlanes con Precios de APITokens de Entrada (Créditos / Millón de Tokens)1Tokens de Lectura de Caché (Créditos / Millón de Tokens)2Tokens de Salida (Créditos / Millón de Tokens)
Claude Sonnet 4- Pro
- Teams
- Enterprise (contratado)
- Enterprise (autoservicio)
909450
Claude Sonnet 4 (Thinking)- Pro
- Teams
- Enterprise (contratado)
- Enterprise (autoservicio)
909450
1 Para modelos de Anthropic, las escrituras de caché de solicitudes cuestan un 25% extra comparado con entrada sin caché. La mayoría de tokens de entrada a Windsurf se escriben en la caché de solicitudes para pasos posteriores. Los tokens de salida se escriben en la caché de solicitudes sin costo extra. Ver los precios de API de Anthropic para más detalles.
2 La caché de solicitudes tiene un TTL (tiempo de vida) limitado determinado por el proveedor del modelo (ej. aproximadamente 5 minutos en Anthropic). Incluso dentro del TTL, no se garantiza que la caché de solicitudes tenga éxito. Las fallas de caché de solicitudes se cobran como tokens de entrada.

Conversación de ejemplo

Para mostrar cómo funciona el precio de la API en la práctica, recorramos una conversación de ejemplo con Cascade usando directamente Claude Sonnet 4.
RolMensajeTokensNotaCosto por mensaje
UsuarioRefactor @my_function20kEntrada (escritura en caché). Nota: Incluye la línea de tiempo compartida completa, el contexto del editor y el system prompt.2.25 Credits
WindsurfPrimero analizaré my_function para elaborar un plan de refactorización.1kTokens de salida.0.45 Credits
tool_callAnalyze my_function23kEntrada (lectura de caché) + entrada (escritura en caché).0.42 Credits
WindsurfAquí tienes un plan para refactorizar my_function […] ¿quieres que continúe con la implementación?2kTokens de salida.0.90 Credits
UsuarioSí, continúa.46kEntrada (lectura de caché) + entrada (escritura en caché).0.52 Credits
tool_callEdit foo.py50kEntrada (lectura de caché) + tokens de salida.2.22 Credits
tool_callAdd bar.py56kEntrada (lectura de caché) + tokens de salida.3.15 Credits
WindsurfHe terminado de refactorizar my_function. Aquí tienes un resumen de mis cambios: […]2kTokens de salida.0.90 Credits
Total200k10.81 Credits