O Google procura dimensionar o ecossistema de chips de IA com a Marvell à medida que a concorrência com a Nvidia se intensifica

Alphabet Inc.'s Google, segundo informações, está em negociações com a Marvell Technology para desenvolver dois novos chips concebidos para melhorar a forma como os modelos de inteligência artificial são executados.
Resumo

  • A Google está em negociações com a Marvell para desenvolver dois chips focados em IA, incluindo uma unidade de processamento de memória e um TPU de próxima geração, para melhorar a eficiência dos modelos.
  • O impulso faz parte do esforço da Google para posicionar os seus TPUs como uma alternativa às GPUs da Nvidia, enquanto expande parcerias com a Intel e a Broadcom.
  • A medida surge em paralelo com o lançamento do Gemma 4, à medida que a Google alinha os seus modelos de IA e a sua pilha de hardware num contexto de concorrência cada vez mais intensa na computação de IA.

De acordo com um relatório do The Information, citando pessoas familiarizadas com o assunto, um dos chips propostos poderia ser uma unidade de processamento de memória construída para funcionar em conjunto com as unidades de processamento tensorial da Google, ou TPUs. O segundo chip deverá ser um novo TPU adaptado especificamente para executar cargas de trabalho de IA com mais eficiência.

A medida faz parte do esforço da Google para posicionar os seus chips internos como alternativa às GPUs da Nvidia. A adopção de TPUs tem contribuído para o crescimento da receita do Google Cloud, à medida que a empresa procura demonstrar retornos sobre os seus gastos com infra-estrutura de IA.

O relatório acrescentou que a Google planeia concluir o desenho do chip com foco em memória até ao próximo ano antes de avançar para testes de produção. Ao mesmo tempo, alargou parcerias com fabricantes de chips como a Intel e a Broadcom para apoiar a procura crescente por infra-estrutura de IA.

Concorrência crescente em hardware de IA

À medida que a Google intensifica o desenvolvimento dos seus aceleradores de IA, poderá começar a desafiar a vantagem de longa data da Nvidia na computação de alto desempenho.

A NVIDIA, por exemplo, está a avançar com a sua própria gama de chips de inferência de IA, incluindo designs que incorporam tecnologia da Groq. A entrada de mais um grande concorrente poderá intensificar a corrida no hardware de IA e remodelar a forma como as empresas adquirem capacidade de computação para os modelos.

Os investidores provavelmente vão procurar mais clareza quando a Google apresentar os resultados do primeiro trimestre a 29 de Abril. O comunicado de resultados deverá fornecer sinais sobre o desempenho na cloud, as tendências na publicidade e a forma como a empresa planeia investir de forma mais ou menos agressiva em IA e semicondutores nos próximos trimestres.

Avanços dos modelos de IA suportam avanço do hardware

As mais recentes conversas da Google sobre chips chegam enquanto a empresa continua a expandir as suas capacidades de modelos de IA. No início deste mês, a empresa apresentou o Gemma 4, uma nova família de modelos aberta construída para raciocínio avançado e fluxos de trabalho baseados em agentes.

O Gemma 4 está disponível em quatro tamanhos e foi concebido para lidar de forma mais eficaz com lógica multi-etapa e resolução de problemas estruturada. Também entregou resultados melhorados em benchmarks ligados a tarefas de matemática e de seguimento de instruções.

Os modelos incluem funcionalidades como chamada de funções nativa, saídas JSON estruturadas e instruções a nível de sistema, permitindo que os programadores construam sistemas autónomos que podem ligar-se a APIs e ferramentas externas. Também podem gerar código offline, transformando máquinas locais em assistentes de programação de IA capazes.

Em conjunto, as actualizações dos modelos e os planos de desenvolvimento de chips mostram como a Google está a alinhar a sua pilha de software e hardware à medida que a concorrência no sector da IA continua a intensificar-se.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Meta Platforms prevê uma redução de 10% do quadro de pessoal a 20 de maio, afectando aproximadamente 8.000 posições

Mensagem do Gate News, 24 de abril — A Meta Platforms planeia reduzir o seu quadro de pessoal em aproximadamente 10%, afectando cerca de 8.000 postos de trabalho, a 20 de maio. Os despedimentos têm como objectivo melhorar a eficiência operacional, ao mesmo tempo que aumentam o investimento em inteligência artificial. A reestruturação planeada reflecte

GateNews58m atrás

O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos

O Gabinete de Política Tecnológica da Casa Branca (OSTP), o assessor presidencial Michael J. Kratsios, emitiu, a 23 de abril, um comunicado oficial, afirmando que a administração Trump tem informação, indicando que entidades estrangeiras (principalmente na China) estão a visar deliberadamente grandes empresas de IA dos EUA, através da extração sistemática de capacidades dos modelos de IA dos EUA por meio de “dezenas de milhares de contas de agentes” e sistemas de tecnologia de jailbreaking, e divulgando em simultâneo quatro medidas de resposta.

MarketWhisper1h atrás

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper1h atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews1h atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper2h atrás
Comentar
0/400
Nenhum comentário