În Cascade, poți comuta cu ușurință între diferite modele AI, la alegere.
În funcție de modelul AI selectat, fiecare dintre prompturile tale va consuma un număr diferit de credite pentru prompturi.
Sub câmpul de introducere a textului vei vedea un meniu derulant pentru selectarea modelului, care conține următoarele modele:
SWE-1 este familia noastră de modele de ultimă generație dezvoltate intern, create special pentru sarcini de inginerie software.
Pe baza evaluărilor noastre interne, are performanțe apropiate de cele ale modelelor de top din laboratoarele de cercetare.
- SWE-1: Raționament avansat, capabil de utilizarea instrumentelor și optimizat pentru Cascade. Performanță la nivelul Claude 3.5 la o fracțiune din cost.
- SWE-1-mini: Generează sugestii pasive în Windsurf Tab, optimizat pentru latență în timp real.
Aduceți-vă propria cheie (BYOK)
Disponibil doar pentru utilizatorii individuali, atât pe plan gratuit, cât și plătit.
Pentru anumite modele, permitem utilizatorilor să-și folosească propriile chei API. În meniul derulant al modelelor, utilizatorii individuali vor vedea modele marcate cu BYOK
.
Rețineți că acest lucru este diferit de API Pricing.
Pentru a introduce cheia API, accesați această pagină din setările abonamentului și adăugați cheia.
Dacă nu v-ați configurat cheia API, veți primi o eroare dacă încercați să utilizați un model BYOK.
În prezent, acceptăm BYOK doar pentru aceste modele:
Claude 4 Sonnet
Claude 4 Sonnet (Thinking)
Claude 4 Opus
Claude 4 Opus (Thinking)
Spre deosebire de prețurile cu tarif fix, unde se folosește un număr fix de credite pentru fiecare prompt al utilizatorului, prețurile API taxează un număr fix de credite per token procesat (adică proporțional cu resursele de calcul). Numărul de credite per token procesat variază în funcție de modelul AI ales.
Atât prețurile API, cât și cele cu tarif fix consumă același fond de credite. Modelele cu prețuri API sunt clar marcate în selectorul de model.
Percepem prețul API al modelului plus o marjă de 20%. Fiecare credit corespunde sumei de $0.04.
Folosim aceiași tokenizatori ca furnizorii de modele (Anthropic pentru modelele Claude, OpenAI pentru modelele GPT etc.) pentru a asigura o numărare și o tarifare a tokenilor corecte și consecvente. Vezi
demonstrația tokenizer-ului OpenAI
Prețurile API taxează toți tokenii procesați din prompturile tale, contextul preluat automat, apelurile de instrumente, istoricul conversației etc. Deoarece costurile de procesare percepute de furnizorii de modele diferă între tokenii de intrare și cei de ieșire, cache-uiți sau necache-uiți, numărul de credite consumate pentru același volum total de tokeni poate varia în funcție de distribuția acestor tipuri. Tokenii de raționare din modelele „thinking” sunt taxați ca tokeni de ieșire. Windsurf echilibrează lungimea contextului cu costurile citirilor din cache-ul promptului prin rezumarea conversației când devine prea lungă; rezumatul rezultat va fi taxat ca tokeni de intrare necache-uiți. Utilizarea fracționară a creditelor se rotunjește în sus la cea mai apropiată sutime de credit.
Reține că prețurile API sunt separate de BYOK (bring-your-own-key). Cu BYOK, toată utilizarea trece prin propria ta cheie API, astfel încât Windsurf nu consumă credite.
Iată prețurile pentru modelele disponibile prin prețuri API în diverse planuri:
Model | Planuri cu prețuri API | Tokeni de intrare (Credite / milion de tokeni)1 | Tokeni citiți din cache (Credite / milion de tokeni)2 | Tokeni de ieșire (Credite / milion de tokeni) |
---|
Claude Sonnet 4 | - Pro - Teams - Enterprise (contractat) - Enterprise (self-serve) | 90 | 9 | 450 |
Claude Sonnet 4 (Thinking) | - Pro - Teams - Enterprise (contractat) - Enterprise (self-serve) | 90 | 9 | 450 |
1 Pentru modelele Anthropic, scrierile în cache-ul promptului costă cu 25% mai mult față de intrarea necache-uită. Majoritatea tokenilor de intrare în Windsurf sunt scriși în cache-ul promptului pentru pașii următori. Tokenii de ieșire sunt scriși în cache-ul promptului fără cost suplimentar. Vezi prețurile API ale Anthropic pentru detalii.
2 Cache-ul promptului are un TTL (time-to-live) limitat, determinat de furnizorul modelului (de ex., aproximativ 5 minute la Anthropic). Chiar și în interiorul TTL-ului, cache-ul promptului nu este garantat să aibă hit. Ratări ale cache-ului (cache misses) sunt taxate ca tokeni de intrare.
Pentru a arăta cum funcționează în practică prețurile API, să parcurgem un exemplu de conversație cu Cascade folosind direct Claude Sonnet 4.
Rol | Mesaj | Tokeni | Notă | Cost per mesaj |
---|
Utilizator | Refactor @my_function | 20k | Intrare (scriere în cache). Notă: include cronologia partajată completă, contextul editorului și promptul de sistem. | 2.25 Credite |
Windsurf | Mai întâi voi analiza my_function pentru a veni cu un plan de refactorizare. | 1k | Tokeni de ieșire. | 0.45 Credite |
tool_call | Analyze my_function | 23k | Intrare (citire din cache) + intrare (scriere în cache). | 0.42 Credite |
Windsurf | Iată un plan de refactorizare pentru my_function […] doriți să continui cu implementarea? | 2k | Tokeni de ieșire. | 0.90 Credite |
Utilizator | Da, continuă. | 46k | Intrare (citire din cache) + intrare (scriere în cache). | 0.52 Credite |
tool_call | Edit foo.py | 50k | Intrare (citire din cache) + tokeni de ieșire. | 2.22 Credite |
tool_call | Add bar.py | 56k | Intrare (citire din cache) + tokeni de ieșire. | 3.15 Credite |
Windsurf | Am terminat refactorizarea lui my_function. Iată un rezumat al modificărilor efectuate: […] | 2k | Tokeni de ieșire. | 0.90 Credite |
Total | | 200k | | 10.81 Credite |