Wenn Sie dies lesen, kennen Sie vermutlich bereits einige Anwendungsfälle und Einschränkungen von LLMs. Je besser der Prompt und der Kontext sind, den Sie dem AI-Modell liefern, desto besser fällt das Ergebnis aus. Auch in Windsurf gibt es Best Practices, um wirkungsvollere Prompts zu formulieren, damit Sie das Beste aus dem Tool herausholen und die bestmögliche Codequalität erhalten, um Ihre Workflows zu beschleunigen.
Für komplexere Aufgaben, bei denen Sie möglicherweise bestimmte Codeblöcke @-Mention müssen, verwenden Sie Chat statt Command.

Komponenten eines hochwertigen Prompts

  • Klares Ziel bzw. Ergebnis
    • Was soll das AI-Modell erzeugen?
    • Bitten Sie das AI-Modell um einen Plan? Um neuen Code? Geht es um ein Refactoring?
  • Alle relevanten Kontexte zur Ausführung der Aufgabe(n)
    • Haben Sie @-Mentions korrekt verwendet, damit der richtige Kontext einbezogen wird?
    • Gibt es kundenspezifischen Kontext, der für Windsurf unklar sein könnte?
  • Erforderliche Vorgaben
    • Gibt es bestimmte Frameworks, Bibliotheken oder Sprachen, die verwendet werden müssen?
    • Gibt es Anforderungen an Speicher- oder Zeitkomplexität?
    • Gibt es Sicherheitsaspekte, die zu berücksichtigen sind?

Beispiele

Beispiel #1:
  • Schlecht: Schreibe Unit-Tests für alle Testfälle für ein Order-Book-Objekt.
  • Gut: Verwende @class:unit-testing-module, um Unit-Tests für @func:src-order-book-add zu schreiben, die auf ausgelöste Ausnahmen testen, wenn der Stop-Loss über- oder unterschritten wird
Beispiel #2:
  • Schlecht: Refaktoriere rawDataTransform.
  • Gut: Refaktoriere @func:rawDataTransform, indem du die while-Schleife in eine for-Schleife umwandelst und dieselbe Datenstruktur wie @func:otherDataTransformer als Ausgabe verwendest
Beispiel #3:
  • Schlecht: Erstelle einen neuen Button für das Kontaktformular.
  • Gut: Erstelle eine neue Button-Komponente für @class:ContactForm unter Verwendung des Styleguides in @repo:frontend-components, mit der Beschriftung „Continue“