Codegenerierung
Boilerplate-Code
Boilerplate-Code
Hinweise: Windsurf eignet sich gut für diesen Anwendungsfall. Zu den Funktionen von Windsurf gehören Einzeilen‑ und Mehrzeilen‑Vorschläge sowie Fill‑in‑the‑Middle‑(FIM)‑Vervollständigungen.Best Practices: Die Verwendung von Next Completion (
⌥ + ]
), Context Pinning, @‑Mentions und Custom Context liefert die besten Ergebnisse.Front-End-Entwicklungsaufgaben
Front-End-Entwicklungsaufgaben
Hinweise: Windsurf eignet sich gut für diesen Anwendungsfall. Zu den Funktionen von Windsurf gehören Einzeilen‑ und Mehrzeilen‑Vorschläge sowie Fill‑in‑the‑Middle‑(FIM)‑Vervollständigungen.Best Practices: Die Verwendung von Next Completion (
⌥ + ]
), Context Pinning, @‑Mentions und Custom Context liefert die besten Ergebnisse.Back-End-Entwicklungsaufgaben
Back-End-Entwicklungsaufgaben
Hinweise: Windsurf eignet sich gut für diesen Anwendungsfall. Zu den Funktionen von Windsurf gehören Einzeilen‑ und Mehrzeilen‑Vorschläge sowie Fill‑in‑the‑Middle‑(FIM)‑Vervollständigungen.Best Practices: Die Verwendung von Next Completion (
⌥ + ]
), Context Pinning, @‑Mentions und Custom Context liefert die besten Ergebnisse.Generierung von Unit-Tests
Unit-Tests generieren und redundante Testfälle automatisch entfernen
Unit-Tests generieren und redundante Testfälle automatisch entfernen
Leitfaden: Die grundlegende Nutzung von Windsurf zur Generierung von Unit-Tests sollte zuverlässig 60–70 % der Unit-Tests abdecken. Die Abdeckung von Edge Cases ist nur so gut wie die Prompts, mit denen das KI‑Modell gesteuert wird.Best Practices: Verwenden Sie @‑Erwähnungen. Prompt-Engineering‑Best Practices. Beispiele:Schreiben Sie einen Unit-Test für
@function-name
, der alle Edge Cases für X und Y testet (z. B. E‑Mail‑Domain).Verwenden Sie @testing-utility-class
, um einen Unit-Test für @function-name
zu schreiben.Beispieldaten für die Testausführung generieren
Beispieldaten für die Testausführung generieren
Leitfaden: Geeignet für einfache, schnell zu lösende Anwendungsfälle. Bei sehr spezifischen API‑Spezifikationen oder internen Bibliotheken kennt Windsurf die Feinheiten möglicherweise nicht gut genug, um die Qualität der generierten Beispieldaten sicherzustellen.Best Practices: Beschreiben Sie die erwartete Schnittstelle sehr präzise. Berücksichtigen Sie die Komplexität der Aufgabe (und ob ein einzelner LLM‑Aufruf ausreicht).
Interne Codekommentierung
Inline-Kommentare und Codebeschreibungen generieren
Inline-Kommentare und Codebeschreibungen generieren
Leitfaden: Windsurf eignet sich gut für diesen Anwendungsfall. Verwenden Sie Windsurf Command oder Windsurf Chat, um Inline-Kommentare und Codebeschreibungen zu generieren.Best Practices: Nutzen Sie @‑Mentions und Code Lenses so häufig wie möglich, um sicherzustellen, dass der Scope des LLM-Aufrufs korrekt ist.
Verbesserungen und Klarstellungen vorschlagen
Verbesserungen und Klarstellungen vorschlagen
Leitfaden: In der Regel sind die Refactor-Schaltfläche bzw. Windsurf Command die besten Wege, um Verbesserungen anzustoßen. Windsurf Chat ist der beste Ort, um Erklärungen oder Klarstellungen zu erhalten. Das ist etwas vage formuliert, aber Windsurf kann beides gut.Windsurf Chat ist der beste Ort, um nach Erklärungen oder Klarstellungen zu fragen.Das ist etwas vage, aber Windsurf sollte beides gut können.Best Practices: Verwenden Sie die Dropdown-Prompts (auch bekannt als Refactor-Schaltfläche von Windsurf) – wir haben maßgeschneiderte Prompts, die besser darauf ausgelegt sind, die Antwort zu liefern, die Sie erwarten.
Funktionsheader automatisieren (C/C++/C#)
Funktionsheader automatisieren (C/C++/C#)
Leitfaden: Der beste Weg ist, die Header-Datei anzulegen, den Chat zu öffnen, die Funktion in der .cpp-Datei per @ zu erwähnen und sie bitten, den Funktionsprototyp zu schreiben. Wiederholen Sie dies iterativ für jede Funktion in der .cpp-Datei. So vermeiden Sie am besten Halluzinationen auf dem Weg.Best Practices: Vermeiden Sie es grundsätzlich, eine gesamte Header-Datei mit einem einzigen LLM-Aufruf erstellen zu lassen. Eine feinere Zerlegung der Aufgabe erhöht die Qualität des generierten Codes deutlich.
API-Dokumentation und -Integration
Dokumentation parallel zur API-Erstellung verfassen und richtigen Kontext bereitstellen
Dokumentation parallel zur API-Erstellung verfassen und richtigen Kontext bereitstellen
Leitfaden: Ähnlich wie bei der Testabdeckung kann Windsurf Teile der API-Spezifikation, die in vielen Bibliotheken gängig sind, zuverlässig vervollständigen. Bei Komponenten, die speziell für Ihren internen Anwendungsfall entwickelt wurden, könnte Windsurf jedoch Schwierigkeiten haben, die erwartete Qualität zu erreichen.Bewährte Praktiken: Führen Sie das KI‑Modell von Windsurf – analog zur Testabdeckung – so konkret wie möglich durch die Denkweise, was die API tut; dadurch kann es bessere Ergänzungen vornehmen.
Repo mit natürlicher Sprache nach APIs durchsuchen und Code für Integrationen generieren
Repo mit natürlicher Sprache nach APIs durchsuchen und Code für Integrationen generieren
Leitfaden: Die Kontextlänge von Windsurf für einen einzelnen LLM‑Aufruf beträgt 16.000 Token. Je nach Umfang Ihrer Suche reicht die Repository-weite Suchfunktion von Windsurf daher möglicherweise nicht aus. Repository‑weite, mehrstufige Aufgaben mit mehreren Änderungen werden in kommenden Windsurf‑Produkten unterstützt.Dies ist grundsätzlich ein mehrstufiges Problem, das Einzelaufrufe von LLMs (d. h. die aktuelle Funktionalität aller KI‑Code‑Assistenten) nicht gut lösen können. Außerdem muss die Ergebnisgenauigkeit deutlich höher sein als bei anderen Anwendungsfällen, da Integrationen besonders fragil sind.Bewährte Praktiken: Windsurf ist derzeit nicht gut darauf ausgelegt, dieses Problem vollständig zu lösen. Wenn Sie die Grenzen der bestehenden Funktionalität von Windsurf testen möchten, erstellen Sie einen Schritt‑für‑Schritt‑Plan und geben Sie Windsurf jeden Schritt einzeln mit hoher Detailtiefe vor, um die KI gezielt zu steuern.
Code-Refactoring
Codevereinfachung und Modularisierung
Codevereinfachung und Modularisierung
Leitfaden: Stelle mithilfe von Windsurf Code Lenses oder @‑Mentions sicher, dass das Scoping korrekt ist und der gesamte erforderliche Kontext an das LLM übergeben wird.Die Kontextlänge für einen einzelnen LLM‑Aufruf ist begrenzt. Je nach Umfang deines Refactorings kann diese Begrenzung problematisch sein (wie generell bei jedem Single‑Shot‑LLM‑Paradigma). Repositoryweite Aufgaben mit mehreren Schritten und Bearbeitungen werden in Windsurfs Cascade unterstützt.Best Practices: Zerlege den Prompt so weit wie möglich. Je einfacher und kürzer der Befehl zum Refactoring, desto besser.
Restrukturierung von Code zur Verbesserung der Lesbarkeit/Wartbarkeit
Restrukturierung von Code zur Verbesserung der Lesbarkeit/Wartbarkeit
Leitfaden: Stelle mithilfe von Windsurf Code Lenses oder @‑Mentions sicher, dass das Scoping korrekt ist und der gesamte erforderliche Kontext an das LLM übergeben wird.Windsurfs Kontextlänge für einen einzelnen LLM‑Aufruf beträgt 16.000 Token. Je nach Umfang deines Refactorings kann diese Begrenzung problematisch sein (wie generell bei jedem Single‑Shot‑LLM‑Paradigma). Repositoryweite Aufgaben mit mehreren Schritten und Bearbeitungen werden in kommenden Windsurf‑Produkten unterstützt.Best Practices: Zerlege den Prompt so weit wie möglich. Je einfacher und kürzer der Befehl zum Refactoring, desto besser.