Zum Hauptinhalt springen
Die Kontext-Engine von Windsurf baut ein tiefes Verständnis Ihrer Codebase, vergangener Aktionen und Ihrer nächsten Absicht auf. Historisch konzentrierten sich Code-Generierungsansätze darauf, große Sprachmodelle (LLMs) für eine Codebase feinzujustieren, was sich nur schwer auf die Bedürfnisse einzelner Nutzer skalieren lässt. Ein neuerer und verbreiteter Ansatz nutzt Retrieval-Augmented Generation (RAG), der auf Techniken setzt, um hochrelevante, kontextreiche Prompts zu erstellen, um präzise Antworten von einem LLM zu erhalten. Wir haben einen optimierten RAG-Ansatz für den Codebase-Kontext implementiert, der qualitativ hochwertigere Vorschläge und weniger Halluzinationen liefert.
Windsurf bietet vollständige Feinabstimmung für Enterprise-Kunden, und die beste Lösung kombiniert Feinabstimmung mit RAG.

Standardkontext

Windsurf berücksichtigt standardmäßig mehrere relevante Kontextquellen.
  • Die aktuelle Datei und andere in deiner IDE geöffneten Dateien, die oft sehr relevant für den Code sind, den du gerade schreibst.
  • Der gesamte lokale Codebestand wird anschließend indexiert (einschließlich nicht geöffneter Dateien), und relevante Codeausschnitte werden von der Retrieval-Engine von Windsurf herangezogen, während du Code schreibst, Fragen stellst oder Commands ausführst.
  • Für Pro-Nutzer bieten wir längere Kontextfenster, höhere Indexierungslimits sowie größere Limits für benutzerdefinierten Kontext und angeheftete Kontextelemente.
  • Für Teams- und Enterprise-Nutzer kann Windsurf auch Remote-Repositories indexieren. Dies ist nützlich für Unternehmen, deren Entwicklungsorganisation mit mehreren Repositories arbeitet.

Chat-spezifische Kontextfunktionen

Bei der Unterhaltung mit Windsurf Chat haben Sie verschiedene Möglichkeiten, den Kontext Ihrer Codebasis zu nutzen, etwa über @-Mentions oder eigene Richtlinien. Weitere Informationen finden Sie auf der Chat-Seite.

Häufig gestellte Fragen (FAQ)

Indiziert Windsurf meine Codebasis?

Ja, Windsurf indiziert Ihre Codebasis. Außerdem nutzt es LLMs, um Retrieval-Augmented Generation (RAG) auf Ihrer Codebasis mithilfe unserer eigenen M-Query-Techniken durchzuführen. Leistung und Funktionsumfang der Indizierung variieren je nach Workflow und Ihrem Windsurf‑Plan. Weitere Informationen finden Sie auf unserer Seite zur Kontextkenntnis.