Aumentar a produção com IA ou reduzir custos? Não houve dez vezes mais receitas, apesar de uma eficiência 100 vezes maior, mas ninguém em Silicon Valley se atreve a parar.

孟醒,sócio da Wuyuan Capital, publicou recentemente um relatório de visita a Silicon Valley e avançou um juízo que até o fez mudar o hábito de tomar notas: Silicon Valley está a entrar numa fase em que até quem anda a “criar ondas” acaba por ser arrastado pela onda. A velocidade de iteração da IA já passou de “por mês” para “por semana”; até os próprios de Silicon Valley já não conseguem acompanhar o que criam.

Quando a IA amplifica em cinco vezes a produtividade de uma equipa, pode reduzir em oito décimos a mão de obra para manter a produção original, ou manter o número de pessoas para fazer cinco vezes mais. A observação de Meng Xing em Silicon Valley é, nesta viagem, uma espécie de rascunho da resposta dada no terreno: quando uma eficiência de 100 vezes não se traduz em receitas 100 vezes maiores, quando o orçamento de tokens se aproxima dos custos com mão de obra, quando a máquina a vapor ainda não consegue correr mais do que o carro de tracção animal mas ninguém tem coragem de parar, Silicon Valley está agora a escolher “primeiro acelerar a velocidade, depois logo se vê”. Mas este caminho acabará por levar à “capacidade de expansão” ou à “compressão de custos”; por agora não há consenso.

O YC passou de indicadores de liderança a indicadores de atraso

Em Março deste ano, Meng Xing sentou-se na plateia do YC W26 batch Demo Day e, quando ouviu a apresentação da quinta empresa, largou imediatamente o caderno. A razão foi que, nesta edição, entre mais de cem empresas, cerca de 80% estão a fazer agentes verticais, por exemplo: ajudar advogados a organizar documentos, ajudar o apoio ao cliente a distribuir tickets, ajudar a RH a filtrar currículos.

Se fosse em Outubro do ano passado a ver estes temas, ele teria achado “bastante com ideias”. Mas depois que o Claude Code saiu das ferramentas para programadores e se tornou uma interface quase utilizável por toda a gente, e depois que o Opus 4.6 baixou o limiar do “vibe coding” até ao chão, antes de estes agentes verticais criarem barreiras reais ao negócio, um engenheiro comum consegue copiá-los com facilidade num único fim de semana.

O sistema de batches do YC — desde a candidatura, triagem, entrada na incubadora, lapidação até à apresentação — foi concebido para um mundo mais lento. Com a velocidade de iteração da IA atual, 5 meses são suficientes para ocorrerem várias mudanças de paradigmas. Meng Xing descreveu que o YC está a passar gradualmente de indicadores de liderança para indicadores de atraso.

A Meta programa usando o produto do adversário, toda a empresa

O maior choque da viagem de Meng Xing a Silicon Valley foi que, em toda a Meta, toda a empresa está a usar o Claude Code. Uma empresa avaliada em milhares de milhões de dólares — fazendo com que dezenas de milhares de engenheiros usem a API de um concorrente para aceder ao seu próprio código — era totalmente inimaginável há meio ano.

A Meta já tinha lançado internamente uma ferramenta chamada myclaw para tentar resolver problemas de segurança do código, mas “não é bom, ninguém usa”. No fim, a empresa afrouxou diretamente as políticas: desde que não envolvesse dados de clientes, os colaboradores podiam usar livremente o Claude Code, e começou a convocar reuniões internas e formações sobre “como se tornar uma organização native de IA”.

Por razões de segurança, o Google proíbe em princípio que os seus colaboradores usem ferramentas de concorrentes; mas a DeepMind é uma exceção, e alguns dos vários grupos responsáveis pelo Gemini e pelas aplicações internas estão a usar o Claude Code. A ferramenta interna de codificação do Google, Antigravity, diz-se que atualmente cerca de 50% do novo código é escrito por IA, mas isso ainda não impede a preferência da DeepMind.

Uma parte fundamental é que a Anthropic fez uma implementação privatizada para eles, e que a inferência e o treino da Anthropic já correm em grande proporção na base de TPU da Google Cloud, existindo uma base de confiança entre as duas partes; outras grandes empresas não têm esta relação, e é realmente como se a segurança do código fosse posta temporariamente de lado — primeiro subir a velocidade.

Os tokens gastos pelos engenheiros custam mais do que o próprio engenheiro

Entre várias novas empresas AI-native que Meng Xing visitou em Palo Alto, o orçamento de tokens anual de um engenheiro é de cerca de duzentos mil dólares, número que já se aproxima do salário anual de um engenheiro. À primeira vista, parece que a empresa usa IA para dispensar pessoas e poupar dinheiro; na prática, o custo total provavelmente nem sequer desceu — apenas trocou o custo das pessoas pelo custo dos tokens.

A Meta levou isto ao extremo: criou internamente um ranking de consumo de tokens — quem usa mais sobe no ranking; no fim, pode ser alvo de despedimento. Os colaboradores “competem” por isso, gerando um título não oficial chamado “token legend”. Mas no mesmo período, a Meta fez sucessivamente duas rondas de despedimentos, somando mais de dez mil pessoas. Não há contradição nenhuma em “todo mundo a correr atrás dos tokens” e ao mesmo tempo a fazer despedimentos em massa — são duas faces da mesma coisa.

Meng Xing viu in loco uma empresa em C rodada; o responsável técnico abriu o Slack e mostrou-lhe — tudo eram agentes em execução. Por trás, há mais de uma dúzia de agentes Cursor em paralelo, e depois abre-se uma janela do Claude Code para fazer a orquestração. A ansiedade mais popular entre o círculo dos engenheiros é: antes de dormir, não saber o que é que aqueles meus agentes vão fazer — e sentir-se muito inquieto.

Eficiência 100x, sem que isso se converta em receitas 100x

Muitos CTOs contam empolgados a Meng Xing: “antes, 60 pessoas faziam o que agora 2 pessoas com o Claude Code conseguem resolver numa semana”, a chamada “engenharia a cem vezes” e “dez vezes mais eficiência”.

Mas depois que Meng Xing se acalmou, perguntou uma questão: então, se a eficiência subiu 100 vezes, a receita da empresa cresceu 100 vezes? A expansão das linhas de produto cresceu 100 vezes? Ele não obteve resposta positiva. O facto é que, quando um aumento de eficiência de 100 vezes cai nas receitas, muitas vezes aparece apenas como 50% ou 1 vez. Onde está a diferença? Neste momento, ninguém consegue explicar com clareza.

“Com tantos tokens, a empresa devia ter-se transformado geneticamente noutra empresa. Mas em que se transformaria, eu também não sei.” Assim lho disse um fundador. Até a própria Anthropic tem cenários em que não consegue acompanhar. Meng Xing perguntou a um amigo da Anthropic “qual é o cenário mais doloroso em que vocês usam agentes”, e a resposta foi o oncall com resposta imediata.

Quando a resposta de API fica mais lenta, quando nós de inferência falham, ou quando a saída de feedback do utilizador fica anormal, o engenheiro oncall precisa de localizar rapidamente se o problema é um bug no código, a alocação de capacidade de computação ou o problema do próprio modelo. A Anthropic é a empresa mais forte do mundo em coding agents; este cenário está a uma distância tão perto quanto possível das suas capacidades centrais, e ainda assim, os seus agentes oncall internos continuam a não ser fáceis de usar.

A máquina a vapor ainda não corre mais depressa do que o carro, mas ninguém se atreve a parar

Meng Xing descreveu o estado atual assim: a máquina a vapor já foi inventada, mas às vezes corre ainda mais devagar do que o carro. A chave é que todos sabem que a máquina a vapor acabará por correr mais rápido, por isso a segurança do código já não se importa, o orçamento de tokens explodiu, e os rankings entraram numa espiral competitiva. Quanto a quando a máquina a vapor vai realmente ultrapassar o carro, ninguém sabe — mas ninguém se atreve a parar e esperar por esse dia, porque o custo de parar pode ser maior do que queimar tokens por engano.

E o consumo de tokens provavelmente não cresce de forma linear. Meng Xing citou dados do instituto de investigação METR: um indicador que mede até que ponto as tarefas podem ser concluídas por agentes de IA com uma taxa de sucesso de 50% (calculado pelo tempo que demora um especialista humano a concluir). Em Março de 2025, o Claude 3.7 Sonnet ainda era de 50 minutos; no fim de 2025, o Claude Opus 4.6 já alcançou 14,5 horas.

Nos últimos dois anos, o ciclo de duplicação deste indicador passou de 7 meses para 4 meses. Assim que a fiabilidade dos agentes der outro salto, o consumo de tokens deixa de ser um problema de adicionar 50% por ano e passa a ser algo que sobe um nível de grandeza de uma só vez, numa noite. Meng Xing também mencionou uma previsão que circula no mesmo grupo de amigos: até ao fim deste ano, muitas empresas (incluindo grandes empresas de tecnologia) na prática só precisarão de 20% das pessoas.

( Responder a uma pergunta: quando a IA te faz ganhar cinco vezes em eficiência, queres reduzir 80% dos custos, ou fazer cinco vezes mais? )

O autor, em Abril deste ano, já tinha perguntado num artigo: quando a IA amplia a produtividade de uma equipa cinco vezes, tu podes reduzir oito décimos da mão de obra para manter a produção original, ou manter o número de pessoas para fazer cinco vezes mais. Aaron Levie propôs no podcast da a16z que o número de agentes de uma futura empresa pode ser de 100 a 1.000 vezes o dos empregados; e Huang Renxun afirmou com franqueza que, se o mundo não tiver novas ideias criativas, os ganhos de produtividade trazidos pela IA acabariam por se converter em desemprego. O problema não está na IA, mas sim em saber se os decisores têm imaginação.

A observação de Meng Xing em Silicon Valley equivale, no terreno, a um rascunho da resposta: quando uma eficiência de 100 vezes não se traduz em receitas 100 vezes maiores, quando o orçamento de tokens se aproxima dos custos de mão de obra, quando a máquina a vapor ainda não corre mais depressa do que o carro mas ninguém se atreve a parar, Silicon Valley escolhe “primeiro acelerar a velocidade, depois logo se vê”. Mas este caminho acabará por levar à “capacidade de expansão” ou à “compressão de custos”; por agora não há consenso.

No fim do artigo, Meng Xing deixa uma perspetiva mais equilibrada: ele viu, nestas meias semanas, tantos “incapazes de acompanhar” que isso realmente gera ansiedade; mas se a IA conseguir mesmo, em poucos anos, transformar cancro em doença crónica e acelerar a ciência dos materiais em vinte anos, então este “não conseguir acompanhar” pode ser o maior arranque de velocidade alguma vez visto na história do desenvolvimento humano.

Para decisores empresariais, o verdadeiro problema nunca foi se a IA vai substituir as pessoas, mas sim: depois de a produtividade ser ampliada cinco, dez, cem vezes, vais escolher usá-la para despedir mais pessoas ou para fazer mais coisas. Esta escolha está a acontecer, em simultâneo, nas salas de reuniões de Silicon Valley e de empresas em todo o mundo.

Este artigo 用 AI 提升產出還是降低成本?百倍效率沒換來百倍營收,但矽谷沒人敢喊停 最早出現於 鏈新聞 ABMedia。

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário