Google lança ReasoningBank, agentes inteligentes extraem estratégias de raciocínio a partir de experiências de sucesso e fracasso

robot
Geração do resumo em andamento

Notícia do Coinjie Wang, de acordo com o monitoramento Beating, o Google Research lançou a estrutura de memória de agentes inteligentes ReasoningBank, permitindo que agentes impulsionados por grandes modelos aprendam continuamente após a implantação. A abordagem central é extrair experiências de sucesso e fracasso de tarefas passadas e armazená-las como estratégias de raciocínio universais na memória, para que na próxima tarefa semelhante seja feita uma busca antes da execução. O artigo relacionado foi publicado na ICLR, e o código já está open source no GitHub. Anteriormente, duas principais soluções apresentavam deficiências: Synapse registra o trajeto completo de ações, com granularidade muito fina para transferência; Agent Workflow Memory extrai apenas fluxos de trabalho de casos de sucesso. O ReasoningBank fez duas mudanças: mudou o objeto de armazenamento de “sequência de ações” para “padrão de raciocínio”, com cada memória contendo três campos estruturados de título, descrição e conteúdo; além disso, trajetórias de fracasso também foram incorporadas ao aprendizado. O modelo chama outro grande modelo para autoavaliação do trajeto de execução, e experiências de fracasso são divididas em regras de prevenção de erros, como passar de “ver o botão Load More e clicar” para “verificar o identificador da página atual para evitar rolagem infinita, antes de clicar em carregar mais”. O artigo também propõe o Memory-aware Test-time Scaling (MaTTS), que aumenta o poder de cálculo durante o raciocínio para tentar várias vezes, armazenando o processo de exploração na memória. A expansão paralela permite que o agente execute múltiplos trajetos diferentes para a mesma tarefa, refinando estratégias mais robustas por auto-comparação; a expansão sequencial refina repetidamente dentro de um trajeto, registrando os raciocínios intermediários na memória. Nos benchmarks WebArena de tarefas de navegador e SWE-Bench-Verified de tarefas de código, usando o Gemini 2.5 Flash para o agente ReAct, o ReasoningBank, em comparação com a linha de base sem memória, aumentou a taxa de sucesso em 8,3% no WebArena e 4,6% no SWE-Bench-Verified, com uma redução média de cerca de 3 passos por tarefa; ao combinar a expansão paralela MaTTS (k=5), a taxa de sucesso no WebArena aumentou mais 3 pontos percentuais, e o número de passos diminuiu mais 0,4.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar