Alphabet Inc.'s Google, segundo informações, está em negociações com a Marvell Technology para desenvolver dois novos chips concebidos para melhorar a forma como os modelos de inteligência artificial são executados.
Resumo
De acordo com um relatório do The Information, citando pessoas familiarizadas com o assunto, um dos chips propostos poderia ser uma unidade de processamento de memória construída para funcionar em conjunto com as unidades de processamento tensorial da Google, ou TPUs. O segundo chip deverá ser um novo TPU adaptado especificamente para executar cargas de trabalho de IA com mais eficiência.
A medida faz parte do esforço da Google para posicionar os seus chips internos como alternativa às GPUs da Nvidia. A adopção de TPUs tem contribuído para o crescimento da receita do Google Cloud, à medida que a empresa procura demonstrar retornos sobre os seus gastos com infra-estrutura de IA.
O relatório acrescentou que a Google planeia concluir o desenho do chip com foco em memória até ao próximo ano antes de avançar para testes de produção. Ao mesmo tempo, alargou parcerias com fabricantes de chips como a Intel e a Broadcom para apoiar a procura crescente por infra-estrutura de IA.
À medida que a Google intensifica o desenvolvimento dos seus aceleradores de IA, poderá começar a desafiar a vantagem de longa data da Nvidia na computação de alto desempenho.
A NVIDIA, por exemplo, está a avançar com a sua própria gama de chips de inferência de IA, incluindo designs que incorporam tecnologia da Groq. A entrada de mais um grande concorrente poderá intensificar a corrida no hardware de IA e remodelar a forma como as empresas adquirem capacidade de computação para os modelos.
Os investidores provavelmente vão procurar mais clareza quando a Google apresentar os resultados do primeiro trimestre a 29 de Abril. O comunicado de resultados deverá fornecer sinais sobre o desempenho na cloud, as tendências na publicidade e a forma como a empresa planeia investir de forma mais ou menos agressiva em IA e semicondutores nos próximos trimestres.
As mais recentes conversas da Google sobre chips chegam enquanto a empresa continua a expandir as suas capacidades de modelos de IA. No início deste mês, a empresa apresentou o Gemma 4, uma nova família de modelos aberta construída para raciocínio avançado e fluxos de trabalho baseados em agentes.
O Gemma 4 está disponível em quatro tamanhos e foi concebido para lidar de forma mais eficaz com lógica multi-etapa e resolução de problemas estruturada. Também entregou resultados melhorados em benchmarks ligados a tarefas de matemática e de seguimento de instruções.
Os modelos incluem funcionalidades como chamada de funções nativa, saídas JSON estruturadas e instruções a nível de sistema, permitindo que os programadores construam sistemas autónomos que podem ligar-se a APIs e ferramentas externas. Também podem gerar código offline, transformando máquinas locais em assistentes de programação de IA capazes.
Em conjunto, as actualizações dos modelos e os planos de desenvolvimento de chips mostram como a Google está a alinhar a sua pilha de software e hardware à medida que a concorrência no sector da IA continua a intensificar-se.
Related Articles
A Meta Platforms prevê uma redução de 10% do quadro de pessoal a 20 de maio, afectando aproximadamente 8.000 posições
O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos
A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4
Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China
A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior