Salt la conținutul principal
În Cascade, poți comuta cu ușurință între diferite modele, după preferință. În funcție de modelul selectat, fiecare prompt de intrare va consuma un număr diferit de credite de prompt. Sub câmpul de introducere a textului, vei vedea un meniu derulant pentru selectarea modelului, care conține următoarele modele:

SWE-1

SWE-1 este familia noastră de modele IA de ultimă generație, dezvoltate intern, concepute special pentru sarcini de inginerie software. Pe baza evaluărilor noastre interne, oferă performanțe apropiate de cele ale modelelor de ultimă generație din laboratoarele de bază.
  • SWE-1: Raționament avansat, capabil de utilizarea instrumentelor și optimizat pentru Cascade. Performanță la nivelul Claude 3.5, la o fracțiune din cost.
  • SWE-1-mini: Alimentează sugestiile pasive din Windsurf Tab, optimizat pentru latență în timp real.

Adu-ți propria cheie (BYOK)

Acest lucru este disponibil doar pentru utilizatorii individuali, atât pe plan gratuit, cât și plătit.
Pentru anumite modele IA, permitem utilizatorilor să își folosească propriile chei API. În meniul derulant de modele, utilizatorii individuali vor vedea modele marcate cu BYOK. Reține că acest lucru este diferit de API Pricing. Pentru a introduce cheia API, accesează această pagină din setările abonamentului și adaugă cheia. Dacă nu ți-ai configurat cheia API, vei primi o eroare dacă încerci să utilizezi un model BYOK. În prezent, acceptăm BYOK doar pentru aceste modele:
  • Claude 4 Sonnet
  • Claude 4 Sonnet (Thinking)
  • Claude 4 Opus
  • Claude 4 Opus (Thinking)

Prețuri API

Spre deosebire de prețurile cu tarif fix, unde se utilizează un număr fix de credite pentru fiecare prompt al utilizatorului, prețurile API percep un număr fix de credite per token procesat (adică proporțional cu resursele de calcul). Numărul de credite per token procesat variază în funcție de modelul selectat. Atât prețurile API, cât și cele cu tarif fix consumă același fond de credite. Modelele cu prețuri API sunt marcate clar în selectorul de modele. Percepem prețul API al modelului plus o marjă de 20%. Fiecare credit corespunde sumei de 0,04 USD.
Folosim aceiași tokenizatori ca furnizorii de modele (Anthropic pentru modelele Claude, OpenAI pentru modelele GPT etc.) pentru a asigura o numărare și o tarifare a tokenilor corecte și consecvente. Vezi demonstrația de tokenizare a OpenAI
Prețurile API taxează toți tokenii procesați din prompturile tale, contextul preluat automat, apelurile de instrumente, istoricul conversației etc. Deoarece costurile de procesare ale furnizorilor diferă între tokenii de intrare și ieșire, în cache sau în afara cache-ului, numărul de credite consumate pentru același număr total de tokeni poate varia în funcție de distribuția acestor tipuri. Tokenii de raționament din modelele „thinking” sunt taxați ca tokeni de ieșire. Windsurf echilibrează lungimea contextului cu costurile citirilor din cache-ul de prompt prin rezumarea conversației când devine prea lungă; rezumatul rezultat va fi taxat ca tokeni de intrare fără cache. Utilizarea fracționată a creditelor este rotunjită în sus la cea mai apropiată sutime de credit. Reține că prețurile API sunt separate de BYOK (bring-your-own-key). Cu BYOK, toată utilizarea trece prin propria ta cheie API, astfel încât Windsurf nu consumă niciun credit. Iată prețurile pentru modelele disponibile prin API în diverse planuri:
ModelPlanuri cu prețuri APITokeni de intrare (Credite / Milion de tokeni)1Tokeni citiți din cache (Credite / Milion de tokeni)2Tokeni de ieșire (Credite / Milion de tokeni)
Claude Sonnet 4- Pro
- Teams
- Enterprise (contractat)
- Enterprise (self-serve)
909450
Claude Sonnet 4 (Thinking)- Pro
- Teams
- Enterprise (contractat)
- Enterprise (self-serve)
909450
1 Pentru modelele Anthropic, scrierile în cache-ul de prompt costă cu 25% mai mult față de intrarea fără cache. Majoritatea tokenilor de intrare în Windsurf sunt scriși în cache-ul de prompt pentru pașii următori. Tokenii de ieșire sunt scriși în cache-ul de prompt fără cost suplimentar. Vezi prețurile API ale Anthropic pentru detalii.
2 Cache-ul de prompt are un TTL (time-to-live) limitat, determinat de furnizorul modelului (de ex., aproximativ 5 minute la Anthropic). Chiar și în interiorul TTL-ului, lovirea cache-ului nu este garantată. Ratări ale cache-ului sunt taxate ca tokeni de intrare.

Exemplu de conversație

Pentru a arăta cum funcționează în practică prețurile API, haideți să parcurgem un exemplu de conversație cu Cascade folosind direct Claude Sonnet 4.
RolMesajTokeniNotăCost per mesaj
UserRefactor @my_function20kInput (cache write). Notă: include întreaga cronologie partajată, contextul editorului și system prompt.2,25 credite
WindsurfMai întâi voi analiza my_function pentru a elabora un plan de refactorizare.1kTokeni de ieșire.0,45 credite
tool_callAnalyze my_function23kInput (cache read) + Input (cache write).0,42 credite
WindsurfIată un plan de refactorizare pentru my_function […] doriți să continui cu implementarea?2kTokeni de ieșire.0,90 credite
UserDa, continuă.46kInput (cache read) + Input (cache write).0,52 credite
tool_callEdit foo.py50kInput (cache read) + Tokeni de ieșire.2,22 credite
tool_callAdd bar.py56kInput (cache read) + Tokeni de ieșire.3,15 credite
WindsurfAm terminat refactorizarea lui my_function. Iată un rezumat al modificărilor mele: […]2kTokeni de ieșire.0,90 credite
Total200k10,81 credite
I