
De acordo com uma reportagem de 27 de abril da The Motley Fool, o arquivo S-1 da empresa de chips de IA Cerebras Systems mostra que suas obrigações restantes de desempenho (RPO) totalizam US$ 24,6 bilhões, e que a receita de 2025 do ano inteiro foi de US$ 510 milhões; a reportagem aponta que a empresa tem como objetivo uma avaliação de aproximadamente US$ 35 bilhões para seu IPO, o que corresponde a uma relação preço/receita (P/S) de cerca de 70x.
De acordo com o arquivo S-1 apresentado pela Cerebras, a arquitetura do motor em nível de wafer (Wafer-Scale Engine, WSE) da Cerebras usa um wafer de silício inteiro; o tamanho do chip é de cerca de 30 vezes o empacotamento do Nvidia Blackwell B200, e a quantidade de transistores em cada chip é 19 vezes a do Nvidia Blackwell B200. De acordo com as declarações técnicas da empresa, os chips em nível de wafer da Cerebras são 15 vezes mais rápidos em termos de velocidade de inferência do que soluções atuais líderes de GPU.
De acordo com o arquivo S-1 da Cerebras, a OpenAI assinou com a Cerebras um acordo no valor de US$ 20 bilhões, concordando em comprar 750 megawatts (MW) de capacidade de inferência de IA entre 2026 e 2028, com opção de adicionar mais 1,25 gigawatts (GW) de capacidade até o final de 2030. Além disso, a Amazon assinou um acordo para introduzir o sistema CS-3 da Cerebras no Amazon Web Services (AWS), para funções de inferência a serem integradas aos chips Amazon Trainium3.
Após a conclusão dessas duas transações, o total das obrigações restantes de desempenho da Cerebras atingirá US$ 24,6 bilhões, e a receita do ano inteiro de 2025 será de US$ 510 milhões.
De acordo com a reportagem da The Motley Fool, o arquivo S-1 da Cerebras não divulgou uma avaliação oficial; entretanto, segundo a reportagem, a avaliação-alvo é de aproximadamente US$ 35 bilhões, o que corresponde a uma relação preço/receita (P/S) de cerca de 70x. Como comparação, a relação preço/receita (P/S) da Nvidia no mesmo período foi de 23x, e o múltiplo preço/lucro (P/L) esperado para os lucros de 2026 é de 13x.
De acordo com o arquivo S-1, a fabricação dos chips em nível de wafer da Cerebras depende completamente da TSMC (Taiwan Semiconductor Manufacturing Company). Atualmente, ela usa processo de 5 nanômetros, e a TSMC está atualizando o processo correspondente para 3 nanômetros; o arquivo S-1 confirma que, no momento, nenhuma outra foundry consegue fabricar os chips em nível de wafer da Cerebras. Como a taxa de rendimento de processo para chips em nível de wafer é menor do que a de chips de tamanho menor, ampliar a escala de produção apresenta desafios tanto em custos quanto em tecnologia.
De acordo com o arquivo S-1 apresentado pela Cerebras, o tamanho do chip WSE da Cerebras é de aproximadamente 30 vezes o do Nvidia Blackwell B200, e a quantidade de transistores é 19 vezes a do primeiro; a Cerebras afirma que sua velocidade de inferência é 15 vezes maior do que as soluções atuais de GPU.
De acordo com o arquivo S-1 da Cerebras, a OpenAI já assinou um acordo de US$ 20 bilhões, concordando em comprar 750 megawatts de capacidade de inferência de IA entre 2026 e 2028, com opção de adicionar mais 1,25 gigawatts de capacidade até o final de 2030.
De acordo com a reportagem de 27 de abril da The Motley Fool, a Cerebras tem como objetivo uma avaliação de aproximadamente US$ 35 bilhões (o arquivo S-1 não divulga uma avaliação oficial); a receita de 2025 do ano inteiro foi de US$ 510 milhões, e as obrigações restantes de desempenho totalizam US$ 24,6 bilhões.
Related News
JPMorgan lidera venda de títulos no valor de US$ 4,54B para data centers de IA da Nvidia
O pai do AlphaGo arrecada US$ 1,1 bilhão na rodada semente: a maior da história da Europa, com avaliação de US$ 5,1 bilhões
Ações de setores de comunicação óptica POET violam obrigações de confidencialidade e têm o pedido cancelado pela Celestial, com queda de 44% no preço das ações
Acko planeja $250M IPO até junho de 2026 com avaliação de $2B
O agente da Cursor AI deu problema! Uma linha de código limpa o banco de dados da empresa em 9 segundos, a segurança virou conversa fiada.