In Cascade können Sie problemlos zwischen verschiedenen AI-Modellen Ihrer Wahl wechseln. Je nach ausgewähltem AI-Modell verbraucht jeder Ihrer Eingabeprompts eine unterschiedliche Anzahl an prompt credits. Unter dem Texteingabefeld sehen Sie ein Dropdown-Menü zur Modellauswahl mit den folgenden Modellen:

SWE-1

SWE-1 ist unsere hauseigene Familie von Frontier-AI-Modellen, die speziell für Aufgaben im Software Engineering entwickelt wurde. Basierend auf unseren internen Evaluierungen erreicht sie eine Leistung, die der von Frontier-Modellen aus den Foundation Labs nahekommt.
  • SWE-1: Hohe Argumentationsfähigkeit, toolfähig und für Cascade optimiert. Leistung auf Claude‑3.5‑Niveau zu einem Bruchteil der Kosten.
  • SWE-1-mini: Liefert passive Vorschläge in Windsurf Tab, optimiert auf niedrige Echtzeitlatenz.

Bring your own key (BYOK)

Dies ist nur für kostenlose und kostenpflichtige Einzelnutzer verfügbar.
Für bestimmte AI-Modelle erlauben wir Nutzern, ihre eigenen API-Schlüssel zu verwenden. Im Modell-Dropdown sehen Einzelnutzer Modelle, die mit BYOK gekennzeichnet sind. Beachte, dass sich dies von der API-Preisgestaltung unterscheidet. Um deinen API-Schlüssel hinzuzufügen, gehe in den Abonnement-Einstellungen auf diese Seite und füge deinen Schlüssel hinzu. Wenn du deinen API-Schlüssel nicht konfiguriert hast, wird beim Versuch, ein BYOK-Modell zu verwenden, ein Fehler ausgegeben. Derzeit unterstützen wir BYOK nur für diese Modelle:
  • Claude 4 Sonnet
  • Claude 4 Sonnet (Thinking)
  • Claude 4 Opus
  • Claude 4 Opus (Thinking)

API-Preise

Im Gegensatz zu Pauschalpreisen, bei denen eine feste Anzahl von Credits für jede Benutzeranfrage verwendet wird, berechnet die API-Preisgestaltung eine feste Anzahl von Credits pro verarbeitetem Token (d. h. proportional zur Rechenleistung). Die Anzahl der Credits pro verarbeitetem Token variiert je nach ausgewähltem AI-Modell. Sowohl API-Preise als auch Pauschalpreise verbrauchen denselben Credit-Pool. AI-Modelle mit API-Preisen sind im Modell-Selektor deutlich gekennzeichnet. Wir berechnen den API-Preis des AI-Modells plus eine Marge von 20 %. Jeder Credit entspricht 0,04 $.
Wir verwenden dieselben Tokenizer wie die AI-Modell-Anbieter (Anthropics für Claude-Modelle, OpenAIs für GPT-Modelle usw.), um eine genaue und konsistente Token-Zählung und Preisgestaltung zu gewährleisten. Siehe OpenAIs Tokenizer-Demo
API-Preise berechnen alle verarbeiteten Token aus Ihren Anfragen, automatisch abgerufenen Kontext, Tool-Aufrufen, vergangener Gesprächshistorie usw. Da sich die Token-Verarbeitungskosten der AI-Modell-Anbieter zwischen Input- und Output-Token, gecachten oder nicht-gecachten Token unterscheiden, kann die Anzahl der verbrauchten Credits für dieselbe Gesamtanzahl von Token je nach unterschiedlicher Verteilung dieser Token-Typen variieren. Reasoning-Token von „denkenden” AI-Modellen werden als Output-Token berechnet. Windsurf balanciert die Kontextlänge mit den Kosten für Prompt-Cache-Lesevorgänge aus, indem das Gespräch zusammengefasst wird, wenn es zu lang wird; die resultierende Zusammenfassung würde als nicht-gecachte Input-Token berechnet. Anteilige Credit-Nutzung wird auf das nächste Hundertstel eines Credits aufgerundet. Beachten Sie, dass API-Preise getrennt von BYOK (Bring-Your-Own-Key) sind. Mit BYOK läuft die gesamte Nutzung über Ihren eigenen API-Schlüssel, sodass Windsurf keine Credits berechnet. Hier sind die Preise für AI-Modelle, die über API-Preise in verschiedenen Plänen verfügbar sind:
AI-ModellPläne mit API-PreisenInput-Token (Credits / Million Token)1Cache-Read-Token (Credits / Million Token)2Output-Token (Credits / Million Token)
Claude Sonnet 4- Pro
- Teams
- Enterprise (vertraglich)
- Enterprise (Self-Service)
909450
Claude Sonnet 4 (Thinking)- Pro
- Teams
- Enterprise (vertraglich)
- Enterprise (Self-Service)
909450
1 Für Anthropic-Modelle kosten Prompt-Cache-Schreibvorgänge 25 % extra im Vergleich zu nicht-gecachten Eingaben. Die meisten Input-Token in Windsurf werden für nachfolgende Schritte in den Prompt-Cache geschrieben. Output-Token werden ohne zusätzliche Kosten in den Prompt-Cache geschrieben. Siehe Anthropics API-Preise für Details.
2 Der Prompt-Cache hat eine begrenzte TTL (Time-to-Live), die vom AI-Modell-Anbieter bestimmt wird (z. B. etwa 5 Minuten bei Anthropic). Selbst innerhalb der TTL ist ein Prompt-Cache-Treffer nicht garantiert. Prompt-Cache-Fehlschläge werden als Input-Token berechnet.

Beispielkonversation

Um zu zeigen, wie die API-Preisgestaltung in der Praxis funktioniert, gehen wir eine Beispielkonversation mit Cascade durch, bei der Claude Sonnet 4 direkt verwendet wird.
RolleNachrichtTokensHinweisKosten pro Nachricht
UserRefactor @my_function20kEingabe (Cache-Schreibvorgang). Hinweis: inkl. vollständiger gemeinsamer Timeline, Editor-Kontext & System-Prompt.2,25 Credits
WindsurfIch analysiere zunächst my_function, um einen Plan für das Refactoring zu erstellen.1kAusgabe-Tokens.0,45 Credits
tool_callAnalyze my_function23kEingabe (Cache-Lesevorgang) + Eingabe (Cache-Schreibvorgang).0,42 Credits
WindsurfHier ist ein Plan für das Refactoring von my_function […] Möchten Sie, dass ich mit der Implementierung fortfahre?2kAusgabe-Tokens.0,90 Credits
UserJa, bitte fortfahren.46kEingabe (Cache-Lesevorgang) + Eingabe (Cache-Schreibvorgang).0,52 Credits
tool_callEdit foo.py50kEingabe (Cache-Lesevorgang) + Ausgabe-Tokens.2,22 Credits
tool_callAdd bar.py56kEingabe (Cache-Lesevorgang) + Ausgabe-Tokens.3,15 Credits
WindsurfIch habe das Refactoring von my_function abgeschlossen. Hier ist eine Zusammenfassung meiner Änderungen: […]2kAusgabe-Tokens.0,90 Credits
Gesamt200k10,81 Credits