Resultados de la búsqueda para "MOE"
2026-03-26
01:51

Meituan lanza LongCat-Next de código abierto: comprensión visual, generación y reconocimiento de voz unificados con 3B de parámetros

LongCat-Next, lanzado por el equipo Meituan Longcat, es un modelo multimodal basado en arquitectura MoE que integra cinco capacidades: comprensión de texto, comprensión visual, generación de imágenes y audio. Su diseño central DiNA logra el procesamiento unificado de tareas mediante tokens discretos, mientras que el enfoque visual dNaViT optimiza el rendimiento en generación de imágenes. En comparación con modelos similares, LongCat-Next muestra un desempeño superior en todos los puntos de referencia, demostrando sus ventajas en los campos de comprensión y generación multimodal.
Más
06:36

Cursor publica informe técnico de Composer2: El entorno de RL simula completamente escenarios de usuarios reales, mejora de puntuación del modelo base del 70%

Cursor publicó el informe técnico de Composer 2, que presenta el plan de entrenamiento completo de su arquitectura Kimi K2.5 MoE, incluido el entrenamiento en dos fases y el benchmark propio CursorBench. Tras el entrenamiento, el rendimiento de Composer 2 mejoró notablemente y superó a otros modelos de vanguardia en términos de coste de inferencia.
Más
06:27

Cursor publica informe técnico de Composer 2, puntuación del modelo base aumenta 70%

Cursor publicó el 25 de marzo un informe técnico sobre Composer 2, revelando el esquema de entrenamiento del modelo Kimi K2.5, que adopta una arquitectura MoE con parámetros que alcanzan 1.04 billones. El entrenamiento se divide en dos etapas, utilizando simulación de escenarios reales para aprendizaje por refuerzo, logrando finalmente una puntuación de 61.3 en el punto de referencia CursorBench, una mejora del 70%, con costos de inferencia inferiores a los de otras API de modelos grandes.
Más
02:27

Meituan publica el modelo de prueba de teoremas con 560B parámetros de código abierto, con una tasa de éxito del 97.1% en 72 inferencias, estableciendo un nuevo récord SOTA en código abierto.

El equipo LongCat de Meituan lanzó LongCat-Flash-Prover el 21 de marzo, un modelo MoE con 560 mil millones de parámetros enfocado en pruebas formales de teoremas en Lean4. El modelo se divide en tres capacidades: formalización automática, generación de esquemas y generación de pruebas completas, combinando herramientas de razonamiento con el compilador Lean4 para verificación en tiempo real. El entrenamiento utiliza Hybrid-Experts Iteration Framework y el algoritmo HisPO para prevenir fraude de recompensas. Los benchmarks demuestran que el modelo establece nuevos récords en modelos de pesos de código abierto en formalización automática y pruebas de teoremas.
Más
06:55

Mistral AI lanza Leanstral: el primer Agente de código abierto Lean 4, capaz de generar automáticamente pruebas formales

Mistral AI lanzó Leanstral, un agente de código de código abierto diseñado específicamente para verificación formal en Lean 4, capaz de generar código y pruebas que se pueden verificar automáticamente. El modelo utiliza una arquitectura MoE sparse, superando el rendimiento de otros modelos líderes, y ofrece descargas gratuitas y llamadas a API.
Más