
El responsable del equipo del modelo a gran escala de Xiaomi, Luo Fuli, concedió una entrevista en profundidad en la plataforma Bilibili el 24 de abril (número de vídeo: BV1iVoVBgERD). La duración de la entrevista fue de 3,5 horas, y es la primera vez que expone de manera sistemática sus puntos de vista técnicos públicamente en calidad de responsable técnico. Luo Fuli afirmó que la competencia de la pista de los grandes modelos ha pasado de la era de Chat a la era de Agent, y señaló que la “autoevolución” será el evento clave para la AGI en el próximo año.

( Fuente: Bilibili )
Según lo expresado por Luo Fuli en la entrevista de Bilibili, señaló que el foco de la competencia de los grandes modelos en 2026 ya no se centrará en la calidad general del diálogo, sino en la capacidad de ejecución autónoma continua en tareas complejas. En la entrevista, dijo que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y mantener una ejecución estable durante 2 a 3 días, sin necesidad de ajustes por parte de humanos. En la entrevista también destacó que el avance de la capacidad de “autoevolución” indica que los sistemas de IA empiezan a contar con capacidad de autocorrección, y mencionó explícitamente las rutas tecnológicas de Anthropic y variables tecnológicas como Claude Opus 4.6, así como el impacto de estas en todo el ecosistema de IA.
Según lo revelado por Luo Fuli en la entrevista, Xiaomi ya ha realizado importantes ajustes en su estrategia de asignación de potencia de cómputo. Explicó que la combinación de potencia de cómputo que suele utilizar la industria es Pre-train:Post-train:Inference = 3:5:1, mientras que la estrategia actual de Xiaomi ya se ha ajustado a 3:1:1, comprimiendo de forma significativa la proporción de entrenamiento posterior y aumentando de forma simultánea la inversión de recursos en la etapa de inferencia.
En la entrevista, explicó que esta transformación se debe a la madurez de la estrategia Agent RL Scaling, por lo que el post-entrenamiento ya no necesita acumular grandes cantidades de potencia de cómputo, y que el aumento de recursos en el lado de la inferencia refleja la demanda de capacidades de respuesta inmediata en escenarios donde los Agents se llevan a la práctica.
En cuanto al problema del desfase generacional (desfase de Pre-train) en los grandes modelos nacionales, Luo Fuli dijo en la entrevista que esta brecha se ha reducido desde los 3 años del pasado hasta unos pocos meses, y que el foco de la estrategia actual se está moviendo hacia Agent RL Scaling. El recorrido profesional de Luo Fuli incluye el Instituto DAMO de Alibaba, la cuantitativa de Huanfang y DeepSeek (desarrollador principal de DeepSeek-V2); en noviembre de 2025 se incorporó a Xiaomi.
De acuerdo con el anuncio de la serie MiMo-V2 publicado por Xiaomi oficialmente el 19 de marzo de 2026, en esta ocasión se lanzan tres modelos de una sola vez:
MiMo-V2-Pro:parámetros totales (billones); habilita parámetros 42B, arquitectura de atención híbrida, compatibilidad con contexto de un millón, tasa de finalización de tareas 81%
MiMo-V2-Omni:escenarios de Agent de modalidad completa
MiMo-V2-TTS:escenarios de síntesis de voz
Según el anuncio, MiMo-V2-Flash, que ya se ha liberado como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto, con una velocidad de inferencia de 3 veces la de DeepSeek-V3.2.
Según las declaraciones de Luo Fuli en su entrevista del 24 de abril de 2026 en Bilibili (BV1iVoVBgERD), en la entrevista señaló que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y ejecutar de manera estable durante 2 a 3 días sin necesidad de intervención humana, y calificó la “autoevolución” como el evento más crucial para el desarrollo de la AGI durante el próximo año.
Según lo revelado por Luo Fuli en la entrevista, la combinación de potencia de cómputo de Xiaomi se ha ajustado de Pre-train:Post-train:Inference = 3:5:1, que se usa de forma habitual en la industria, a 3:1:1, comprimiendo de forma significativa la proporción de post-entrenamiento; explicó que este ajuste se debe a que, tras la madurez de la estrategia Agent RL Scaling, mejora la eficiencia del post-entrenamiento, y también a la demanda de capacidades de respuesta inmediata por parte de los escenarios donde se implementan Agents en el lado de inferencia.
Según el anuncio oficial de Xiaomi publicado el 19 de marzo de 2026, MiMo-V2-Flash, que ya está como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto; la velocidad de inferencia es 3 veces la de DeepSeek-V3.2, y la tasa de finalización de tareas del modelo insignia MiMo-V2-Pro es del 81%.
Related News
xAI Grok Voice se hace cargo de la línea de atención al cliente de Starlink, 70% de las llamadas se resuelven automáticamente en el acto
El gran vendedor en corto Burry apuesta a la baja a los semiconductores, que caerán un 30%, y cambia a comprar acciones de software tras una caída profunda
El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA
El gobierno de Emiratos Árabes Unidos anuncia la introducción de agentes de IA, y lo antes posible se completará la automatización del 50% de las operaciones para 2028
Cursor revela las razones del entrenamiento de XAI: el poder de cómputo quedó bloqueado, SpaceX mantiene otra opción de compra de 60 mil millones de dólares