Die Kontext-Engine von Windsurf baut ein tiefes Verständnis Ihrer Codebase, vergangener Aktionen und Ihrer nächsten Absicht auf. Historisch konzentrierten sich Code-Generierungsansätze darauf, große Sprachmodelle (LLMs) für eine Codebase feinzujustieren, was sich nur schwer auf die Bedürfnisse einzelner Nutzer skalieren lässt. Ein neuerer und verbreiteter Ansatz nutzt Retrieval-Augmented Generation (RAG), der auf Techniken setzt, um hochrelevante, kontextreiche Prompts zu erstellen, um präzise Antworten von einem LLM zu erhalten. Wir haben einen optimierten RAG-Ansatz für den Codebase-Kontext implementiert, der qualitativ hochwertigere Vorschläge und weniger Halluzinationen liefert.Documentation Index
Fetch the complete documentation index at: https://docs.windsurf.com/llms.txt
Use this file to discover all available pages before exploring further.
Windsurf bietet vollständige Feinabstimmung für Enterprise-Kunden, und die beste Lösung
kombiniert Feinabstimmung mit RAG.
Standardkontext
- Die aktuelle Datei und andere in deiner IDE geöffneten Dateien, die oft sehr relevant für den Code sind, den du gerade schreibst.
- Der gesamte lokale Codebestand wird anschließend indexiert (einschließlich nicht geöffneter Dateien), und relevante Codeausschnitte werden von der Retrieval-Engine von Windsurf herangezogen, während du Code schreibst, Fragen stellst oder Commands ausführst.
- Für Pro-Nutzer bieten wir längere Kontextfenster, höhere Indexierungslimits sowie größere Limits für benutzerdefinierten Kontext und angeheftete Kontextelemente.
- Für Teams- und Enterprise-Nutzer kann Windsurf auch Remote-Repositories indexieren. Dies ist nützlich für Unternehmen, deren Entwicklungsorganisation mit mehreren Repositories arbeitet.