A Google busca ampliar o ecossistema de chips de IA com a Marvell à medida que a competição com a Nvidia se intensifica

A Alphabet Inc.'s Google, supostamente, está em conversas com a Marvell Technology para desenvolver dois novos chips projetados para melhorar a forma como modelos de inteligência artificial são executados.
Resumo

  • O Google está em conversas com a Marvell para desenvolver dois chips focados em IA, incluindo uma unidade de processamento de memória e um TPU de próxima geração, para melhorar a eficiência dos modelos.
  • O impulso faz parte do esforço do Google para posicionar seus TPUs como uma alternativa às GPUs da Nvidia, enquanto expande parcerias com a Intel e a Broadcom.
  • A medida chega junto com o lançamento do Gemma 4, enquanto o Google alinha seus modelos de IA e sua pilha de hardware diante de uma concorrência cada vez mais acirrada em computação de IA.

De acordo com uma reportagem do The Information, citando pessoas familiarizadas com o assunto, um dos chips propostos poderia ser uma unidade de processamento de memória construída para funcionar em conjunto com as unidades de processamento tensorial do Google, ou TPUs. O segundo chip é esperado como um novo TPU, adaptado especificamente para executar cargas de trabalho de IA com mais eficiência.

A medida faz parte do esforço do Google para posicionar seus chips desenvolvidos internamente como uma alternativa às GPUs da Nvidia. A adoção de TPU tem contribuído para o crescimento da receita do Google Cloud, à medida que a empresa busca mostrar retornos com seus gastos em infraestrutura de IA.

A reportagem acrescentou que o Google planeja concluir o design do chip voltado à memória até o próximo ano antes de avançar para testes de produção. Ao mesmo tempo, ele expandiu parcerias com fabricantes de chips como a Intel e a Broadcom para apoiar a crescente demanda por infraestrutura de IA.

Concorrência crescente em hardware de IA

À medida que o Google intensifica o desenvolvimento de seus aceleradores de IA, ele pode começar a desafiar a liderança de longa data da Nvidia em computação de alto desempenho.

A NVIDIA, por exemplo, está avançando sua própria linha de chips de inferência de IA, incluindo designs que incorporam tecnologia da Groq. A entrada de mais um grande concorrente pode intensificar a corrida em hardware de IA e remodelar a forma como as empresas obtêm poder computacional para modelos.

Os investidores provavelmente vão buscar mais clareza quando o Google divulgar seus resultados do primeiro trimestre em 29 de abril. O comunicado de resultados deve trazer sinais sobre desempenho na nuvem, tendências em publicidade e o quanto a empresa pretende investir em IA e semicondutores nos próximos trimestres.

Avanços em modelos de IA apoiam avanço de hardware

As discussões mais recentes do chip do Google chegam enquanto ele continua expandindo suas capacidades de modelo de IA. No início deste mês, a empresa apresentou o Gemma 4, uma nova família de modelos abertos construída para raciocínio avançado e fluxos de trabalho no estilo de agentes.

O Gemma 4 está disponível em quatro tamanhos e foi projetado para lidar com lógica de múltiplos passos e resolução estruturada de problemas com mais eficiência. Ele também entregou resultados aprimorados em benchmarks ligados a matemática e tarefas de seguir instruções.

Os modelos incluem recursos como chamada nativa de funções, saídas JSON estruturadas e instruções em nível de sistema, permitindo que desenvolvedores criem sistemas autônomos que possam se conectar a APIs e ferramentas externas. Eles também conseguem gerar código offline, transformando máquinas locais em assistentes de codificação por IA capazes.

Juntos, as atualizações do modelo e os planos de desenvolvimento de chips mostram como o Google está alinhando seu software e sua pilha de hardware enquanto a concorrência no setor de IA continua a se intensificar.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

O meme de “monitorar a situação” (MTS) do Vale do Silício vira uma máquina de notícias 24/7 entregue pela a16z

A16z está apoiando "Monitoring the Situation," um livestream do X 24/7 nascido da cultura de memes da Polymarket, enquanto VCs de tecnologia constroem seu próprio complexo de indústria de notícias. Resumo Andreessen Horowitz ajudou a lançar "Monitoring the Situation" (MTS), um programa de livestream 24/7 no X, apostando em mar de predição cripto

Cryptonews3h atrás

Google lança o Deep Research Max: suporta MCP e pode acessar dados privados de empresas

De acordo com o anúncio oficial do blog do Google DeepMind, o Google lançou, em 21 de abril de 2026, os novos agentes de pesquisa autônoma de próxima geração Deep Research e Deep Research Max, construídos sobre o Gemini 3.1 Pro, após a versão preview disponibilizada em dezembro de 2025 via Interactions API. As duas opções de agentes agora estão abertas ao público em formato public preview dentro dos planos pagos da Gemini API, e usuários de startups e empresas do Google Cloud irão se conectar em breve. As duas variantes têm posicionamentos diferentes: interativo vs profundo em modo assíncrono O Google categorizou os dois agentes por cenário de uso: Deep Research

ChainNewsAbmedia5h atrás

Usuários Ativos Mensais do OpenAI Codex atingem 4 milhões em menos de duas semanas

O OpenAI Codex atingiu 4 milhões de MAUs, anunciado por Sottiaux e Altman; o salto veio em menos de duas semanas a partir de 3 milhões, e os limites de taxa foram redefinidos em todas as categorias para comemorar. O OpenAI Codex chegou a 4 milhões de usuários ativos mensais em menos de duas semanas desde alcançar 3 milhões, de acordo com declarações de executivos da OpenAI. Para marcar a conquista, os limites de taxa em todas as categorias foram redefinidos.

GateNews7h atrás

Duas startups de IA sul-africanas selecionadas para o Google for Startups Accelerator Africa, turma 10

Duas startups sul-africanas, Loop e Vambo AI, entram no 10º ciclo do Google Accelerator Africa da Google com base em 2.600 inscrições; o Loop aprimora mobilidade/pagamentos, enquanto o Vambo AI habilita IA multilíngue; o programa acontece de abr a jun de 2026 com mentores e workshops de IA. Resumo: Duas startups sul-africanas, Loop e Vambo AI, foram selecionadas para o 10º ciclo do programa Google for Startups Accelerator Africa, escolhido entre cerca de 2.600 inscrições e um dos 15 participantes africanos. O Loop digitaliza mobilidade e pagamentos, enquanto a Vambo AI fornece infraestrutura de IA multilíngue para tradução, fala e IA generativa em idiomas africanos. O programa de 2026 acontece de 13 de abril a 19 de junho e oferece mentoria e workshops práticos focados em IA/ML. Desde 2018, o acelerador apoiou 106 startups de 17 países africanos, ajudando-as a levantar mais de $263 milhões e a criar mais de 2.800 empregos.

GateNews8h atrás

Lista Forbes AI 50 destaca 20 novas empresas; OpenAI e Anthropic capturam 80% do financiamento total

Mensagem do Gate News, 21 de abril — a Forbes lançou sua lista de 2026 da 8ª edição do AI 50, com 20 empresas recém-incluídas. A OpenAI e a Anthropic continuam a liderar o ranking, atraindo investimentos substanciais de importantes capitalistas de risco do Vale do Silício e de grandes empresas de tecnologia. O financiamento combinado de todas as empresas da lista atingiu $305,6 bilhões, com a OpenAI e a Anthropic respondendo por $242,6 bilhões — aproximadamente 80% do total.

GateNews8h atrás

Zi variável Revela o Modelo de IA Incorporada WALL-B; Robôs para Entrar em Lares Reais em 35 Dias

Mensagem do Gate News, 21 de abril — Zibianliang (自变量), uma empresa chinesa de robótica, realizou uma coletiva de imprensa em 21 de abril para revelar seu próximo modelo base de IA incorporada de nova geração, WALL-B. A empresa anunciou que robôs alimentados por WALL-B entrarão em lares reais em 35 dias. De acordo com o fundador da Zibianliang co

GateNews9h atrás
Comentário
0/400
Sem comentários