Passer au contenu principal
Fast Context est un sous-agent spécialisé de Windsurf qui récupère du code pertinent depuis votre base de code jusqu’à 20× plus rapidement que les recherches agentiques classiques. Il permet à Cascade de comprendre rapidement de vastes bases de code tout en conservant l’intelligence des modèles d’IA de pointe.

Utilisation de Fast Context

Lorsque Cascade reçoit une requête nécessitant une recherche de code, Fast Context se déclenche automatiquement. Vous pouvez aussi le forcer à s’activer avec Cmd+Enter (Mac) ou Ctrl+Enter (Windows/Linux) lors de l’envoi de votre requête. Vous saurez que Fast Context est en cours d’exécution lorsque :
  • Cascade identifie rapidement les fichiers pertinents dans l’ensemble de votre codebase
  • Les requêtes sur de grandes bases de code s’exécutent plus rapidement qu’auparavant
  • Cascade passe moins de temps à lire du code non pertinent

Fonctionnement

Fast Context utilise SWE-grep et SWE-grep-mini, des modèles personnalisés entraînés spécifiquement pour une récupération rapide de code. Ces modèles allient la vitesse de la recherche par embeddings traditionnelle à l’intelligence d’une exploration agentique. Lorsque vous soumettez à Cascade une requête nécessitant de parcourir votre codebase, Fast Context s’active automatiquement pour :
  1. Identifier les fichiers et sections de code pertinents à l’aide d’appels d’outils parallèles
  2. Exécuter plusieurs recherches simultanément
  3. Renvoyer des résultats ciblés en quelques secondes plutôt qu’en minutes
Cette approche évite la pollution du contexte et atténue le compromis traditionnel entre vitesse et précision. En déléguant la recherche à un sous-agent spécialisé, Cascade préserve son budget de contexte et réserve son intelligence à la tâche à accomplir.

Modèles SWE-grep

Fast Context est alimenté par la famille de modèles SWE-grep :
  • SWE-grep : variante hautement performante, optimisée pour les tâches de recherche complexes
  • SWE-grep-mini : variante ultra-rapide, dépassant 2 800 tokens par seconde
Les deux modèles sont entraînés par apprentissage par renforcement pour exceller dans l’appel parallèle d’outils et la navigation efficace d’un codebase. Ils exécutent jusqu’à 8 appels d’outils en parallèle par itération, sur un maximum de 4 itérations, ce qui leur permet d’explorer simultanément différentes parties de votre codebase. Les modèles utilisent un ensemble restreint d’outils multiplateformes (grep, read, glob) afin d’assurer des performances cohérentes sur différents systèmes d’exploitation et environnements de développement.