
Руководитель команды по большим моделям Xiaomi Луо Фули 24 апреля на платформе Bilibili провела углублённое интервью (номер видео: BV1iVoVBgERD); длительность интервью — 3,5 часа. Это её первое публичное систематическое изложение технических взглядов в качестве технического руководителя. Луо Фули сказала, что конкуренция в направлении больших моделей уже перешла из эпохи Chat в эпоху Agent, и указала, что «самоэволюция» станет ключевым событием для AGI в ближайший год.

(Источник: Bilibili)
Согласно тому, что Луо Фули заявила в своём интервью на Bilibili, она отметила, что в 2026 году акцент конкуренции больших моделей сместится с качества универсального диалога на способность к непрерывному автономному выполнению сложных задач. В ходе интервью она сказала, что сейчас топовые модели уже могут автономно оптимизироваться для конкретных задач и стабильно выполнять их в течение 2–3 дней, не требуя вмешательства человека для настройки. В интервью она подчеркнула, что прорыв в способности «самоэволюции» означает, что AI-системы начинают обладать возможностью самокоррекции, и назвала технологические траектории Anthropic, а также такие технические переменные, как Claude Opus 4.6, которые влияют на всю экосистему AI.
Согласно раскрытию Луо Фули в интервью, Xiaomi уже провела существенные изменения в стратегии распределения вычислительных ресурсов. Она пояснила, что обычно в отрасли соотношение вычислительных ресурсов составляет Pre-train:Post-train:Inference = 3:5:1, тогда как текущая стратегия Xiaomi была скорректирована до 3:1:1 — существенно сжата доля вычислений на дообучение при одновременном повышении вложений ресурсов на этапе вывода.
В интервью она объяснила, что этот сдвиг обусловлен зрелостью стратегии Agent RL Scaling: послеобучение больше не требует наращивания больших объёмов вычислительной мощности, а увеличение ресурсов на стороне вывода отражает потребность прикладных сценариев Agent в возможностях оперативного реагирования.
Что касается проблемы отставания отечественных больших моделей по Pre-train, в интервью Луо Фули заявила, что этот разрыв сократился с прежних 3 лет до нескольких месяцев, а текущий фокус стратегии движется в сторону Agent RL Scaling. Её карьерный путь включает Институт Дамo в Alibaba, Fangfang Quant и DeepSeek (ведущий разработчик DeepSeek-V2); в ноябре 2025 года она присоединилась к Xiaomi.
Согласно объявлению серии MiMo-V2, опубликованному официально Xiaomi 19 марта 2026 года, на этот раз за один выпуск представлены три модели:
MiMo-V2-Pro:число параметров — 兆总參數, включаемые параметры — 42B, архитектура гибридного внимания, поддержка контекста в миллионы, уровень выполнения задач — 81%
MiMo-V2-Omni:сценарии Agent во всех модальностях
MiMo-V2-TTS:сценарии синтеза речи
Согласно объявлению, открытая версия MiMo-V2-Flash заняла второе место в мировом рейтинге открытых моделей, а скорость вывода достигла 3-кратного показателя DeepSeek-V3.2.
Согласно заявлению Луо Фули в интервью на Bilibili от 24 апреля 2026 года (BV1iVoVBgERD), в интервью она отметила, что сейчас топовые модели уже могут автономно оптимизироваться в рамках конкретных задач и стабильно выполнять их в течение 2–3 дней без вмешательства человека, а «самоэволюцию» охарактеризовала как самое ключевое событие для развития AGI в ближайший год.
Согласно раскрытию Луо Фули в интервью, соотношение вычислительных ресурсов Xiaomi было изменено с обычно принятого в отрасли Pre-train:Post-train:Inference = 3:5:1 на 3:1:1, — существенно сжата доля вычислений на дообучение; она объяснила, что эта корректировка связана с повышением эффективности послеобучения после зрелости стратегии Agent RL Scaling, а также с потребностью в возможностях оперативного реагирования на стороне вывода со стороны сценариев внедрения Agent.
Согласно официальному объявлению Xiaomi от 19 марта 2026 года, открытая версия MiMo-V2-Flash заняла второе место в мировом рейтинге открытых моделей; скорость вывода в 3 раза выше, чем у DeepSeek-V3.2, а уровень выполнения задач у флагманской версии MiMo-V2-Pro составляет 81%.
Связанные статьи
Gate проведет Space-раундстол по AI Trading 28 апреля: изучаем ИИ как драйвер следующего цикла Web3
Ant Group запускает Ling-2.6-1T: модель с триллионом параметров, оптимизированная для экономичного по токенам выполнения задач
API Nansen теперь поддерживает протокол Tempo MPP, позволяя агентам ИИ платить за один вызов
Грег Брокман из OpenAI: ИИ смещается от чата к автономному выполнению задач
Крупный запуск CEX: Smart Money Signal Suite с данными 1 000+ трейдеров
B.AI обновляет инфраструктуру и запускает крупные функции Skills