Responsável pelo grande modelo de IA da Xiaomi: a competição em IA está mudando para a era dos Agentes; a autoevolução é o evento-chave para a AGI

AI自進化

A responsável da equipe de Modelos de Grande Escala da Xiaomi, Luo Fuli, concedeu uma entrevista aprofundada na plataforma Bilibili em 24 de abril (ID do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, e foi a primeira vez que ela apresentou de forma sistemática suas opiniões técnicas publicamente como responsável técnica. Luo Fuli disse que a competição em caminhos de modelos de grande escala já passou da era do Chat para a era dos Agents e apontou que “autoevolução” será o principal evento para a AGI no próximo ano.

Da era do Chat para a era dos Agents: julgamentos técnicos centrais

小米大模型團隊負責人羅福莉訪談

(Fonte: Bilibili)

Com base no que Luo Fuli disse na entrevista do Bilibili, ela apontou que, em 2026, o foco da competição por modelos de grande escala mudará de qualidade geral de diálogo para capacidade de execução autônoma contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de ponta já conseguem fazer otimização autônoma em tarefas específicas e continuar executando de forma estável por 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela enfatizou que a突破 da capacidade de “autoevolução” significa que os sistemas de IA começam a ter capacidade de auto-correção, e citou o caminho técnico da Anthropic e variáveis técnicas como o Claude Opus 4.6, bem como o impacto dessas variáveis em todo o ecossistema de IA.

Ajuste da alocação de poder computacional da Xiaomi e avaliação da defasagem do Pre-train

De acordo com o que Luo Fuli revelou na entrevista, a Xiaomi já fez ajustes importantes em sua estratégia de alocação de poder computacional. Ela explicou que a alocação de poder computacional normalmente usada na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi já foi ajustada para 3:1:1, comprimindo significativamente a proporção de pós-treinamento e, ao mesmo tempo, elevando o investimento de recursos na fase de inferência.

Na entrevista, ela explicou que essa mudança se deve ao amadurecimento da estratégia Agent RL Scaling: com isso, o pós-treinamento não precisa mais empilhar grandes quantidades de poder computacional, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidade de resposta imediata nos cenários em que o Agent vai para o mundo real.

Quanto ao problema da defasagem de gerações do Pre-train em modelos de grande escala na China continental, Luo Fuli disse na entrevista que essa diferença já foi reduzida de 3 anos no passado para alguns meses, e que o foco atual da estratégia está se movendo em direção ao Agent RL Scaling. A trajetória profissional de Luo Fuli inclui o Instituto DAMO da Alibaba, a empresa de quantificação Huanfang e a DeepSeek (desenvolvedores centrais do DeepSeek-V2). Em novembro de 2025, ela se juntou à Xiaomi.

Especificações técnicas da série MiMo-V2 e ranking de open source

De acordo com o comunicado da Xiaomi de 19 de março de 2026 sobre a série MiMo-V2, desta vez foram lançados três modelos de uma só vez:

MiMo-V2-Pro:parâmetros totais, com parâmetros habilitados em 42B, arquitetura de atenção híbrida, suporte a contexto de milhão, taxa de conclusão de tarefas 81%

MiMo-V2-Omni:cenários de Agent multimodal

MiMo-V2-TTS:cenários de síntese de voz

Conforme o comunicado, o MiMo-V2-Flash, que já foi open source, ficou em segundo lugar no ranking global de modelos open source, com a velocidade de inferência atingindo 3 vezes a do DeepSeek-V3.2.

Perguntas frequentes

Como Luo Fuli define “autoevolução” e por que ela acredita que é o evento mais crucial para a AGI?

De acordo com o que Luo Fuli declarou na entrevista de 24 de abril de 2026 na Bilibili (BV1iVoVBgERD), ela apontou na entrevista que, atualmente, os modelos de ponta já conseguem fazer otimização autônoma em tarefas específicas e executar de forma estável por 2 a 3 dias sem precisar de intervenção humana, e classificou a “autoevolução” como o evento mais crucial para o desenvolvimento de AGI no próximo ano.

Que ajustes específicos a Xiaomi fez na alocação de poder computacional e qual é a lógica por trás disso?

Com base no que Luo Fuli revelou na entrevista, a proporção de alocação de poder computacional da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1 usada tradicionalmente pela indústria para 3:1:1, comprimindo significativamente a proporção de pós-treinamento; ela explicou que esse ajuste decorre do aumento da eficiência do pós-treinamento após o amadurecimento da estratégia Agent RL Scaling, e da necessidade de capacidade de resposta imediata do lado de inferência nos cenários em que o Agent é implementado.

Qual é o ranking de open source e o desempenho de velocidade do MiMo-V2-Flash?

De acordo com o comunicado oficial da Xiaomi divulgado em 19 de março de 2026, o MiMo-V2-Flash, que já foi open source, ficou em segundo lugar no ranking global de modelos open source; a velocidade de inferência é 3 vezes a do DeepSeek-V3.2, e a taxa de conclusão de tarefas da versão topo de linha MiMo-V2-Pro é de 81%.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Gate vai sediar um Roundtable em Space de AI Trading em 28 de abril: Explorando a IA como a próxima força motriz do ciclo de Web3

Mensagem de Notícias da Gate, 27 de abril — A Gate vai sediar uma discussão ao vivo em formato de Space sobre AI Trading em 28 de abril às 8 p.m., reunindo especialistas do setor para explorar se a integração profunda da IA nos fluxos de trabalho de negociação marca o verdadeiro ponto de partida do próximo ciclo de Web3. A discussão vai examinar A

GateNews27m atrás

Ant Group Lança Ling-2.6-1T: Modelo com Trilhão de Parâmetros Otimizado para Execução Eficiente em Tokens

Mensagem do Gate News, 27 de abril — O Ant Group, inclusãoAI, lançou o Ling-2.6-1T, um novo modelo de instrução carro-chefe da série Ling com um trilhão de parâmetros. Diferente dos modelos de raciocínio de longas cadeias, o Ling-2.6-1T emprega um mecanismo de "Fast-Thinking" projetado para a execução precisa de tarefas com o mínimo de tokens

GateNews54m atrás

A API da Nansen agora oferece suporte ao Protocolo MPP da Tempo, permitindo que agentes de IA paguem por chamada

Mensagem da Gate News, 27 de abril — A API da Nansen agora suporta o Protocolo de Pagamentos por Máquina (MPP), um padrão para pagamentos autônomos máquina-a-máquina respaldados pela Tempo e pela Stripe. A integração permite que agentes de IA paguem diretamente a partir das suas carteiras em uma base de chamada por chamada. O recurso funciona em conjunto com

GateNews1h atrás

Greg Brockman da OpenAI: IA mudando de conversa para execução autônoma de tarefas

Mensagem do Gate News, 27 de abril — Greg Brockman, presidente e cofundador da OpenAI, diz que a próxima onda de inteligência artificial vai tirar os usuários de conversas com bots de IA e levá-los a atribuir tarefas no mundo real. Essa mudança exige que as empresas repensem fluxos de trabalho operacionais e estabeleçam novos protocolos para segurança, gerenciamento e custos para se

GateNews2h atrás

Principal CEX Lança Smart Money Signal Suite com 1.000+ Dados de Traders

Mensagem de Gate News, 27 de abril — Uma grande exchange centralizada lançou um "Smart Money Signal Suite" que integra participações em tempo real, taxas de acerto e dados de lucro/prejuízo de mais de 1.000 traders populares. O kit, acessível por meio do Agent Trade Kit da plataforma, encapsula sinais de traders como

GateNews2h atrás

B.AI Atualiza a Infraestrutura, Lança Principais Recursos de Skills

Mensagem do Gate News, 27 de abril — A B.AI anunciou vários avanços de produtos e do ecossistema nesta semana. A página de pouso do BAIclaw recebeu uma reformulação completa de visual e de interação, com suporte multilíngue do site expandido para 10 idiomas, fortalecendo sua usabilidade global. Na frente da infraestrutura

GateNews2h atrás
Comentário
0/400
Sem comentários