A OpenAI faz parceria com a MediaTek e a Qualcomm para desenvolver um processador de smartphone com IA; a Foxconn Connector deverá iniciar a produção em 2028

Mensagem do Gate News, 27 de abril — A OpenAI está a colaborar com a MediaTek e a Qualcomm para desenvolver processadores para smartphones, de acordo com a análise da cadeia de abastecimento do analista da Tianfeng International Securities, Ming-Chi Kuo. A Foxconn Connector (Luxshare Precision) será o parceiro exclusivo de conceção do sistema e de fabrico, prevendo-se que a produção em massa comece em 2028. Espera-se que as especificações e os fornecedores sejam finalizados até ao final de 2026 ou no primeiro trimestre de 2027.

Kuo explicou que a principal razão da OpenAI para entrar no mercado de smartphones é que controlar simultaneamente o sistema operativo e o hardware é essencial para fornecer serviços abrangentes de agentes de IA. Os smartphones são os únicos dispositivos capazes de aceder em tempo real à informação contextual completa dos utilizadores, o que é fundamental para o raciocínio dos agentes de IA. Em vez de utilizarem várias aplicações, os utilizadores irão concretizar tarefas e satisfazer necessidades através dos seus telemóveis — uma mudança fundamental na forma como os smartphones são definidos.

Em termos comerciais, a OpenAI poderá agrupar serviços de subscrição com hardware e colaborar com programadores para construir um ecossistema de aplicações de agentes de IA. A conceção do processador dará prioridade à eficiência energética, à gestão da hierarquia de memória e à execução local de modelos mais pequenos, enquanto as tarefas complexas serão delegadas a IA baseada na nuvem. Kuo citou o chip TPU Zebrafish da MediaTek, desenvolvido para a Google, como ponto de referência, salientando que um único chip Zebrafish gera receitas aproximadamente equivalentes a 30 a 40 processadores de smartphone para agentes de IA. Com as remessas globais de smartphones premium a atingirem cerca de 300 a 400 milhões de unidades por ano, os ciclos de substituição de dispositivos poderão tornar-se um novo motor de crescimento tanto para a MediaTek como para a Qualcomm. Para a Luxshare Precision, este projeto oferece a oportunidade de garantir uma vantagem de primeira-mover na produção de smartphones da próxima geração, uma área em que tem lutado para ultrapassar a posição da Foxconn na cadeia de abastecimento da Apple.

A iniciativa representa uma mudança significativa na forma como as capacidades de IA são integradas no hardware de consumo, com implicações para a indústria de smartphones mais alargada e para o emergente ecossistema de agentes de IA.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das chamadas são arquivadas automaticamente

De acordo com o comunicado oficial publicado pela xAI a 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0 e já o colocou em funcionamento na linha telefónica de apoio ao cliente +1 (888) GO STARLINK. Com base nos dados de testes divulgados no anúncio, 70% das chamadas são encerradas automaticamente por IA, sem necessidade de intervenção humana.

MarketWhisper8m atrás

GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7

Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados; já o Codex ignorou o layout, mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos 77.8%, ainda não lançado da Anthropic. Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6, mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira, mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua." O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por milhão de tokens, mas conclui as mesmas tarefas usando menos tokens, pelo que o custo real não é necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.

GateNews12m atrás

Executivo da Google DeepMind: Cada Empresa de Produtos de IA Deve Criar Benchmarks Personalizados

Mensagem do Gate News, 27 de abril — Logan Kilpatrick, gestor sénior de produto na Google DeepMind e responsável de produto para o Google AI Studio, declarou no X que todas as empresas que criam produtos baseados em IA devem estabelecer os seus próprios benchmarks personalizados para medir o desempenho dos modelos de IA. Ele descreveu isto como um método para

GateNews1h atrás

A MediaTek garante uma grande encomenda da Google para a 8.ª geração de TPU! A fermentação impulsionada por ASIC beneficia três ações conceptuais

A MediaTek já entrou na cadeia de fornecimento de chips de treino TPU de 8.ª geração da Google, assumindo a conceção do I/O Die, e adoptando o processo N3P da TSMC e o empacotamento CoWoS-S, o que evidencia que já atingiu um nível de conceção de AI ASIC de gama alta. Prevê-se que a receita de ASIC ultrapasse 1 mil milhões de dólares este ano, e que o volume de envio de TPU chegue, até 2027, a ter esperanças de atingir dezenas de milhões de unidades; cadeias de fornecimento de Taiwan como King Yuan Electronics, Chroma e Hiwin também beneficiarão, à medida que o mercado se vai gradualmente orientando para a divisão de trabalho e para o futuro de chiplets e de integração heterogénea.

ChainNewsAbmedia1h atrás

A RE:AI da Singtel faz parceria com a Mistral AI para desenvolver infraestruturas de IA em Singapura

Mensagem da Gate News, 27 de abril — O Grupo Singtel anunciou que a RE:AI, a sua unidade de infraestruturas digitais sediada em Singapura, fez parceria com a Mistral AI para apoiar capacidades de IA para indústrias em Singapura. A parceria irá focar-se no desenvolvimento conjunto de infraestruturas e soluções de IA para os serviços financeiros

GateNews1h atrás

O YZi Labs de He Yi investe numa empresa chinesa de modelos de linguagem de IA de grande escala

Mensagem do Gate News, 27 de abril — He Yi, juntamente com o family office YZi Labs da família de Changpeng Zhao, investiu numa empresa chinesa de modelos de linguagem de grandes modelos de inteligência artificial, revelou durante um encontro privado com KOL na Hong Kong Web3 Carnival. O nome específico da empresa em que investiram não foi divulgado.

GateNews2h atrás
Comentar
0/400
Nenhum comentário