De acordo com Beating, um estudo recente sobre memória de agentes, de Dylan Zhang, estudante de doutoramento na Universidade de Illinois, concluiu que a sumarização repetida das experiências do modelo pode degradar o desempenho em vez de melhorá-lo. Em tarefas ARC-AGI, o GPT-5.4 obteve 100% de precisão em 19 problemas sem memória, mas após múltiplas rondas de compressão de memória com base em trajectórias de solução correctas, a precisão caiu para 54%. De forma semelhante, em tarefas de compras WebShop, o método de memória AWM obteve 0,64 com 8 trajectórias de especialistas, mas desceu para 0,20 com 128 trajectórias, voltando ao nível de referência. A investigação sugere que o problema tem origem na sobre-sumarização: cada etapa de abstracção faz perder detalhes específicos e funde regras específicas da tarefa em orientações genéricas, degradando assim o desempenho do modelo.
Related News
Google: grandes modelos de linguagem estão a ser usados para ataques reais, a IA pode contornar mecanismos de segurança de autenticação em duas etapas
O Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: os hackers procuram contornar a 2FA para exploração em larga escala
Stanford apresenta Agent Island: modelos de IA traem-se e excluem-se em pares no jogo de estratégia estilo Survivor