Pular para o conteúdo principal
Fast Context é um subagente especializado do Windsurf que recupera trechos de código relevantes do seu repositório até 20x mais rápido do que a busca agentica tradicional. Ele potencializa a capacidade do Cascade de compreender rapidamente grandes bases de código, mantendo a inteligência dos modelos de ponta.

Usando o Fast Context

Quando o Cascade recebe uma consulta que exige pesquisa de código, o Fast Context é acionado automaticamente. Você também pode forçar sua ativação usando Cmd+Enter (Mac) ou Ctrl+Enter (Windows/Linux) ao enviar a consulta. Você perceberá que o Fast Context está em funcionamento quando:
  • O Cascade identifica rapidamente arquivos relevantes em todo o seu código
  • Consultas em bases de código grandes são concluídas mais rapidamente do que antes
  • O Cascade passa menos tempo lendo código irrelevante

Como Funciona

O Fast Context usa SWE-grep e SWE-grep-mini, modelos personalizados treinados especificamente para recuperação rápida de código. Esses modelos combinam a velocidade da busca tradicional por embeddings com a inteligência da exploração por agentes. Quando você faz uma consulta ao Cascade que exige pesquisar no seu código, o Fast Context é ativado automaticamente para:
  1. Identificar arquivos e trechos de código relevantes usando chamadas de ferramentas em paralelo
  2. Executar várias buscas simultaneamente
  3. Retornar resultados direcionados em segundos, em vez de minutos
Essa abordagem evita a poluição de contexto e busca mitigar o trade-off tradicional entre velocidade e precisão. Ao delegar a recuperação a um subagente especializado, o Cascade conserva seu orçamento de contexto e sua inteligência para a tarefa em questão.

Modelos SWE-grep

O Fast Context é impulsionado pela família de modelos SWE-grep:
  • SWE-grep: Variante de alta inteligência, otimizada para tarefas complexas de busca/recuperação
  • SWE-grep-mini: Variante ultrarrápida, processando mais de 2.800 tokens por segundo
Ambos os modelos são treinados com aprendizado por reforço para se destacarem em chamadas paralelas de ferramentas e navegação eficiente pelo codebase. Eles executam até 8 chamadas de ferramenta em paralelo por interação, em no máximo 4 interações, permitindo explorar diferentes partes do seu codebase simultaneamente. Os modelos usam um conjunto restrito de ferramentas compatíveis entre plataformas (grep, read, glob) para garantir desempenho consistente em diferentes sistemas operacionais e ambientes de desenvolvimento.