A NVIDIA (輝達) e a MediaTek (聯發科) estão desenvolvendo uma parceria profunda: as duas gigantes vão trabalhar juntas para construir uma arquitetura central de computação eficiente. A plataforma de computação NVIDIA DRIVE AGX vai transformar a inteligência artificial de um simples receptor de comandos em um agente de IA com capacidade de inferência, integrando o chip do cockpit Dimensity AX da MediaTek. Ao combinar computação de borda e recursos da nuvem, o veículo poderá oferecer uma experiência de agente de IA personalizado, com baixa latência e alta privacidade.
Arquitetura híbrida de agentes de IA veiculares para lidar com demandas de computação complexas
Agentes de IA veiculares adotam uma arquitetura híbrida (Hybrid Architecture) para atender às necessidades de diferentes tipos de tarefas. Na ponta de borda, o NVIDIA DRIVE AGX executa operações focadas em tarefas locais extremamente sensíveis a latência (tempo de resposta inferior a 500 milissegundos) e que envolvem privacidade, como controle por voz, reconhecimento de imagem e análise de dados de telemetria do veículo. Mesmo quando o sinal de rede estiver instável ou interrompido, a parte local ainda consegue rodar modelos de linguagem e modelos de linguagem com visão (VLM) com parâmetros acima de 7B, garantindo que as funções básicas continuem operando. Em contrapartida, o ambiente na nuvem atua como uma “fábrica de IA”, encarregada de tarefas de alta computação, como buscas na web e planejamento de rotas e itinerários complexos, mantendo o treinamento, o ajuste fino e a validação do modelo em seguida. Por fim, os resultados otimizados são implantados de volta no carro, alcançando um equilíbrio dinâmico de desempenho.
Como a orquestração de agentes otimiza a experiência do usuário?
Para garantir que o usuário tenha uma experiência perfeita na transição entre borda e nuvem, o sistema introduz um mecanismo de orquestração de agentes (Agent Orchestration). Quando o motorista apresenta uma necessidade complexa, o sistema identifica automaticamente a intenção com base no contexto atual e encaminha a tarefa para a colaboração correta de agentes locais ou de nuvem. Por exemplo, ao discutir um itinerário, o sistema mobiliza os agentes de navegação locais e de busca na nuvem para trabalharem juntos. O ponto-chave está na tecnologia de compartilhamento de contexto (Context Sharing): o sistema sincroniza informações de contexto relevante entre diferentes plataformas, evitando que o usuário precise repetir comandos e garantindo que as informações da nuvem sejam refletidas corretamente no sistema local. Essa lógica de interação transparente (UX Transparency) consegue acompanhar o status de tarefas assíncronas, assegurando que o sistema mantenha um serviço estável e coerente mesmo durante mudanças ou interrupções de rede, reduzindo a interferência com o motorista.
Qual é o impacto da pilha de software no desempenho para implantação entre plataformas?
A NVIDIA, com o auxílio do NeMo e do TensorRT, oferece uma arquitetura de software unificada, reduzindo efetivamente o grande “abismo” técnico entre o desenvolvimento e a implantação prática. Os desenvolvedores podem usar o TensorRT-LLM no ambiente de nuvem para realizar inferência em larga escala, com migração sem atrito para a implantação do modelo no edge veicular via TensorRT Edge-LLM. Essa cadeia de ferramentas com consistência não apenas garante o desempenho e a confiabilidade do modelo em diferentes ambientes, como também cria um “ciclo de feedback híbrido edge X nuvem”: com a acumulação de dados reais de uso do veículo, os agentes conseguem evoluir continuamente, tornando a compreensão e a resposta cada vez mais precisas. Além disso, fabricantes de automóveis podem atualizar mais flexivelmente as funções embarcadas, dando aos veículos a capacidade de se auto-otimizarem com o tempo de uso, prolongando significativamente o ciclo de vida técnico dos sistemas automotivos.
NVIDIA e MediaTek juntos para realizar o carro do futuro com IA nativa
A arquitetura central de computação em que a NVIDIA e a MediaTek colaboram combina o chip (SoC) do cockpit da série MediaTek Dimensity AX com a plataforma NVIDIA DRIVE AGX, seja com Orin ou Thor. Nesse arranjo, a Dimensity AX fica responsável por processar cargas de trabalho de jogos avançados no carro, multimídia e sistemas tradicionais de entretenimento de informações (IVI); já a NVIDIA DRIVE AGX se concentra em processar computação de IA, oferecendo suporte a aplicações multimodais e a funções de direção autônoma.
A arquitetura de chips na parceria entre NVIDIA e MediaTek tem como foco combinar a série MediaTek Dimensity AX SoC (sistema em chip) do cockpit com a plataforma NVIDIA DRIVE AGX, para construir uma arquitetura de Central Car Computer.
A seguir estão os principais detalhes dessa arquitetura de colaboração:
Os componentes centrais emparelham o cockpit MediaTek Dimensity AX C-X1 (ou C) SoC com a DRIVE AGX da NVIDIA (como Orin ou Thor).
A MediaTek Dimensity AX fica encarregada de processar cargas de trabalho de jogos avançados no carro, multimídia e sistemas tradicionais de entretenimento de informações (IVI).
A NVIDIA DRIVE AGX descarrega as cargas de trabalho de IA, suporta a maioria dos modelos de IA, viabilizando aplicações multimodais ricas e recursos de direção autônoma.
A plataforma Dimensity da MediaTek e a DRIVE AGX da NVIDIA compartilham o ambiente de software DriveOS.
As duas se conectam via PCIE, usando a API DriveOS NvStreams para permitir compartilhamento contínuo de dados de alta largura de banda, como vídeo e áudio 2.
A colaboração entre a NVIDIA e a MediaTek oferece aos fabricantes de automóveis uma opção altamente escalável: os fabricantes conseguem manter a experiência atual do cockpit enquanto atualizam para o futuro “carro com IA nativa”.
Este artigo NVIDIA e MediaTek, duas gigantes juntas para criar o assistente de IA do futuro carro com IA nativa apareceu primeiro em CadeiaNews ABMedia.
Related News
As demonstrações financeiras da Arm superaram as expectativas; o CEO alertou sobre a fraqueza do mercado de celulares e lançou o “AGI CPU” para ampliar sua participação no mercado de IA
A Anthropic se junta à SpaceX em poder de computação: conquista Colossus 1 inteira, com 220 mil GPUs, e o Claude remove limites
A OpenAI divulga o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, AMD e a Microsoft para criar a infraestrutura do Stargate
Falta de capacidade de mineração de eletrólise para energia residencial? A Nvidia faz parceria com a startup de medidores inteligentes Span, e um mini data center de IA para colocar na fachada da sua casa
Desmascarando a bolha da IA! CEO da BlackRock: a escassez de poder de computação vai dar origem a um “mercado de futuros de computação”