In Cascade kannst du problemlos zwischen verschiedenen AI-Modellen deiner Wahl wechseln. Je nach ausgewähltem AI-Modell verbraucht jede deiner Eingaben eine unterschiedliche Anzahl an prompt credits. Unter dem Texteingabefeld findest du ein Dropdown-Menü zur Modellauswahl mit den folgenden Modellen:

SWE-1

SWE-1 ist unsere Familie hauseigener Frontier-AI-Modelle, die speziell für Aufgaben in der Softwareentwicklung entwickelt wurden. Basierend auf unseren internen Evaluierungen erreicht sie eine Leistung, die der von Frontier-Modellen führender Foundation-Labs nahekommt.
  • SWE-1: Hohe Denk- und Schlussfolgerungsfähigkeit, toolfähig und für Cascade optimiert. Leistung auf Claude‑3.5‑Niveau zu einem Bruchteil der Kosten.
  • SWE-1-mini: Liefert passive Vorschläge in Windsurf Tab, optimiert auf minimale Latenz in Echtzeit.

Bring your own key (BYOK)

Dies ist nur für kostenlose und kostenpflichtige Einzelnutzer verfügbar.
Für bestimmte AI-Modelle erlauben wir Nutzern, ihre eigenen API-Schlüssel zu verwenden. Im Modell-Dropdown sehen Einzelnutzer Modelle, die mit BYOK gekennzeichnet sind. Beachten Sie, dass dies sich von der API-Preisgestaltung unterscheidet. Um Ihren API-Schlüssel hinzuzufügen, öffnen Sie in den Abonnement-Einstellungen diese Seite und fügen Sie Ihren Schlüssel ein. Wenn Sie keinen API-Schlüssel hinterlegt haben, tritt beim Versuch, ein BYOK-Modell zu verwenden, ein Fehler auf. Derzeit unterstützen wir BYOK nur für diese Modelle:
  • Claude 4 Sonnet
  • Claude 4 Sonnet (Thinking)
  • Claude 4 Opus
  • Claude 4 Opus (Thinking)

API-Preise

Im Gegensatz zur Pauschalpreisgestaltung, bei der für jede Nutzereingabe eine feste Anzahl von Credits verwendet wird, berechnet die API-Preisgestaltung eine fixe Anzahl von Credits pro verarbeitetem Token (also proportional zum Rechenaufwand). Die Anzahl der Credits pro verarbeitetem Token variiert je nach ausgewähltem AI-Modell. Sowohl die API- als auch die Pauschalpreisgestaltung nutzen denselben Credit-Pool. Modelle mit API-Preisgestaltung sind im Modellwähler klar gekennzeichnet. Wir berechnen den API-Preis des Modells zuzüglich einer Marge von 20 %. Ein Credit entspricht $0,04.
Wir verwenden dieselben Tokenizer wie die Modellanbieter (Anthropic’s für Claude-Modelle, OpenAI’s für GPT-Modelle, usw) um eine präzise und konsistente Tokenzählung und Preisgestaltung sicherzustellen. Siehe OpenAI’s Tokenizer-Demo und Anthropic’s Tokenizer-Informationen
API-Preisgestaltung berechnet alle Tokens, die aus deinen Prompts, automatisch abgerufenem Kontext, Tool-Aufrufen, vergangener Unterhaltungshistorie usw. verarbeitet werden. Da die Tokenverarbeitungs-kosten der Modellanbieter zwischen Eingabe- und Ausgabe-Tokens sowie zwischen gecachten und nicht gecachten Tokens variieren, kann die Anzahl der verbrauchten Credits bei gleicher Gesamtzahl an Tokens je nach Verteilung dieser Tokentypen unterschiedlich sein. Reasoning-Tokens von „denkenden“ Modellen werden als Ausgabe-Tokens berechnet. Windsurf balanciert die Kontextlänge mit den Kosten für Prompt-Cache-Lesevorgänge, indem die Unterhaltung zusammengefasst wird, wenn sie zu lang wird; die resultierende Zusammenfassung würde als nicht gecachte Eingabe-Tokens berechnet. Bruchteile der Credit-Nutzung werden auf das nächste Hundertstel eines Credits aufgerundet. Beachte, dass die API-Preisgestaltung getrennt von BYOK (bring-your-own-key) ist. Mit BYOK läuft die gesamte Nutzung über deinen eigenen API-Schlüssel, sodass Windsurf keine Credits berechnet. Hier sind die Preise für Modelle, die in verschiedenen Plänen über die API-Preisgestaltung verfügbar sind:
ModelPläne mit API-PreisgestaltungEingabe-Tokens (Credits / Million Tokens)1Cache-Lese-Tokens (Credits / Million Tokens)2Ausgabe-Tokens (Credits / Million Tokens)
Claude Sonnet 4- Pro
- Teams
- Enterprise (vertraglich)
- Enterprise (self-serve)
909450
Claude Sonnet 4 (Thinking)- Pro
- Teams
- Enterprise (vertraglich)
- Enterprise (self-serve)
909450
1 Bei Anthropic-Modellen kosten Prompt-Cache-Schreibvorgänge 25 % mehr als nicht gecachte Eingaben. Die meisten Eingabe-Tokens in Windsurf werden für nachfolgende Schritte in den Prompt-Cache geschrieben. Ausgabe-Tokens werden ohne zusätzliche Kosten in den Prompt-Cache geschrieben. Siehe Anthropic’s API-Preise für Details.
2 Der Prompt-Cache hat eine begrenzte TTL (time-to-live) bestimmt durch den Modellanbieter (z. B. ungefähr 5 Minuten bei Anthropic). Selbst innerhalb der TTL ist ein Cache-Treffer nicht garantiert. Prompt-Cache-Misses werden als Eingabe-Tokens berechnet.

Beispielgespräch

Um zu zeigen, wie die API-Preisgestaltung in der Praxis funktioniert, gehen wir ein Beispielgespräch mit Cascade durch, das Claude Sonnet 4 direkt nutzt.
RolleNachrichtTokensHinweisKosten pro Nachricht
UserRefactor @my_function20kEingabe (Cache-Schreiben). Hinweis: Enthält die vollständige gemeinsame Timeline, den Editor-Kontext und den System-Prompt.2.25 Credits
WindsurfIch analysiere zunächst my_function, um einen Plan für das Refactoring zu erstellen.1kAusgabe-Tokens.0.45 Credits
tool_callAnalyze my_function23kEingabe (Cache-Lesen) + Eingabe (Cache-Schreiben).0.42 Credits
WindsurfHier ist ein Plan, my_function zu refaktorisieren […] Möchtest du, dass ich mit der Umsetzung fortfahre?2kAusgabe-Tokens.0.90 Credits
UserJa, bitte fortfahren.46kEingabe (Cache-Lesen) + Eingabe (Cache-Schreiben).0.52 Credits
tool_callEdit foo.py50kEingabe (Cache-Lesen) + Ausgabe-Tokens.2.22 Credits
tool_callAdd bar.py56kEingabe (Cache-Lesen) + Ausgabe-Tokens.3.15 Credits
WindsurfIch bin mit dem Refactoring von my_function fertig. Hier ist eine Zusammenfassung meiner Änderungen: […]2kAusgabe-Tokens.0.90 Credits
Gesamt200k10.81 Credits