Wenn Sie dies lesen, kennen Sie vermutlich bereits einige Anwendungsfälle und Einschränkungen von LLMs. Je besser der Prompt und der Kontext sind, den Sie dem AI-Modell liefern, desto besser fällt das Ergebnis aus. Auch in Windsurf gibt es Best Practices, um wirkungsvollere Prompts zu formulieren, damit Sie das Beste aus dem Tool herausholen und die bestmögliche Codequalität erhalten, um Ihre Workflows zu beschleunigen.Documentation Index
Fetch the complete documentation index at: https://docs.windsurf.com/llms.txt
Use this file to discover all available pages before exploring further.
Komponenten eines hochwertigen Prompts
- Klares Ziel bzw. Ergebnis
- Was soll das AI-Modell erzeugen?
- Bitten Sie das AI-Modell um einen Plan? Um neuen Code? Geht es um ein Refactoring?
- Alle relevanten Kontexte zur Ausführung der Aufgabe(n)
- Haben Sie @-Mentions korrekt verwendet, damit der richtige Kontext einbezogen wird?
- Gibt es kundenspezifischen Kontext, der für Windsurf unklar sein könnte?
- Erforderliche Vorgaben
- Gibt es bestimmte Frameworks, Bibliotheken oder Sprachen, die verwendet werden müssen?
- Gibt es Anforderungen an Speicher- oder Zeitkomplexität?
- Gibt es Sicherheitsaspekte, die zu berücksichtigen sind?
Beispiele
- Schlecht: Schreibe Unit-Tests für alle Testfälle für ein Order-Book-Objekt.
-
Gut: Schreibe mit
@class:unit-testing-moduleUnit-Tests für@func:src-order-book-add, die überprüfen, welche Ausnahmen ausgelöst werden, wenn der Wert über oder unter dem Stop-Loss liegt.
- Schlecht: Refaktoriere rawDataTransform.
-
Gut: Refaktoriere
@func:rawDataTransform, indem du die while-Schleife in eine for-Schleife umwandelst und dieselbe Datenstruktur ausgibst wie@func:otherDataTransformer.
- Schlecht: Erstelle einen neuen Button für das Kontaktformular.
-
Gut: Erstelle eine neue Button-Komponente für
@class:ContactFormmithilfe des Styleguides in@repo:frontend-components, mit dem Text „Weiter“.