Acabei de ver que o Mem0 está a gerar bastante atenção com uma nova investigação sobre algoritmos de armazenamento de longo prazo. Os números são impressionantes: o algoritmo supera a OpenAI em 26 por cento na precisão, reduz a latência de inferência em 91 por cento e poupa 90 por cento de tokens. Isto não é apenas conversa de marketing, mas foi testado no benchmark LOCOMO.



O que faz o Mem0 realmente diferente? O sistema funciona em duas fases: primeiro, extrai informações importantes de conversas e dados históricos, depois, esses factos são refinados através de uma base de dados vetorial. O resultado é um arquivo de armazenamento consistente e conciso, que ajuda os agentes de IA a não esquecerem quando as interações se tornam mais longas. Existe também uma versão avançada com uma base de dados de grafos para relações mais complexas.

O que é prático nisso: toda a consulta de armazenamento e geração de resposta ocorre no Mem0 em 0,71 segundos. Métodos tradicionais levam quase 10 segundos. Isto faz uma grande diferença, especialmente considerando a importância da velocidade para a experiência do utilizador.

A investigação foi aceite na Conferência Europeia de Inteligência Artificial e o código está disponível no GitHub. Interessante ver como o Mem0 aborda o problema da memória de IA. Isto pode ser relevante para muitas aplicações onde a perda de contexto é um problema real.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar