Mensagem de Gate News, 29 de abril — Os modelos da OpenAI a correr no Amazon Web Services’ Bedrock irão gradualmente migrar para o Trainium, o chip de IA personalizado da Amazon, de acordo com comentários recentes do CEO da OpenAI Sam Altman e de executivos da AWS. Atualmente, os modelos operam num ambiente misto usando tanto GPUs como Trainium, com uma quota crescente a migrar para o Trainium ao longo do tempo. Altman afirmou que a empresa está a “olhar em frente a mover modelos para o Trainium.”
Um executivo da AWS, Garman, reconheceu que o nome do Trainium pode ter sido enganador, uma vez que o chip foi concebido tanto para treino como para inferência, prevendo-se que a inferência seja o caso de uso principal no futuro. No entanto, Garman salientou que a marcação do chip é em grande medida irrelevante para a maioria dos clientes, ao notar que os utilizadores interagem com a OpenAI através da sua interface de API em vez de diretamente com o hardware subjacente. Quando questionado sobre uma futura integração de modelos que não sejam da OpenAI em Bedrock Managed Agents, Garman recusou-se a fornecer detalhes, afirmando apenas que a AWS está atualmente focada na sua parceria com a OpenAI.
A colaboração sublinha a estratégia da AWS de aproveitar o seu silício personalizado para apoiar grandes cargas de trabalho de IA na sua plataforma cloud.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Cognition estabelece Singapura como sede da APAC, com foco na expansão regional
Mensagem da Gate News, 29 de abril — Cognition, a startup de programação com IA por detrás da Devin, anunciou a 29 de abril que irá estabelecer Singapura como a sua sede para a região Ásia-Pacífico para supervisionar a expansão regional por toda a Sudeste Asiático, Austrália, Índia e Coreia do Sul.
Richard Spence irá liderar as operações na APAC
GateNews24m atrás
A Google assinou um acordo secreto de IA com o Pentágono, carta aberta dos funcionários contra
De acordo com a The Information, a 28 de abril, a Google já assinou um acordo para fornecer ao Pentágono dos EUA modelos de inteligência artificial (IA) destinados a trabalhos confidenciais. O The New York Times cita fontes com conhecimento do assunto, afirmando que o acordo permite ao Departamento de Defesa dos EUA utilizar a IA da Google para fins governamentais legais, com uma natureza semelhante à dos acordos de implantação de IA confidencial que o Pentágono assinou no mês passado com a OpenAI e a xAI.
MarketWhisper44m atrás
Relatório de investigação da a16z Crypto: A taxa de exploração de vulnerabilidades DeFi por agentes de IA atinge 70%
De acordo com o relatório de investigação publicado pela a16z Crypto a 29 de abril, sob condições em que os agentes de IA estão equipados com conhecimento estruturado de domínios, a taxa de sucesso na reconstituição de uma vulnerabilidade de manipulação do preço do Ethereum atinge 70%; num ambiente de sandbox sem qualquer conhecimento de domínio, a taxa de sucesso é apenas de 10%. O relatório também regista casos em que os agentes de IA contornaram independentemente as restrições do sandbox para aceder a informação futura de transações, bem como padrões sistemáticos de falha do agente ao criar planos de ataques lucrativos em múltiplas etapas.
MarketWhisper1h atrás
Altman: A precificação por tokens está a tornar-se obsoleta à medida que o GPT-5.5 muda o foco para a conclusão de tarefas em vez da contagem de tokens
Mensagem de Gate News, 29 de abril — O CEO da OpenAI, Sam Altman, disse numa entrevista a Ben Thompson na Stratechery que a fixação de preços baseada em tokens não é um modelo viável a longo prazo para serviços de IA. Usando o GPT-5.5 como exemplo, Altman observou que, embora o preço por token seja significativamente mais alto do que o do GPT-5.4, o modelo usa muito menos tokens para concluir a mesma tarefa, o que significa que os clientes não se importam com a contagem de tokens — só se importam com se a tarefa é concluída e com o custo total.
GateNews2h atrás
Modelo Ling-2.6-flash da Ant Group disponibilizado em código aberto: 104B Parâmetros Com 7,4B Activos, Atinge Múltiplos Benchmarks SOTA
Mensagem de Gate News, 29 de Abril — Os pesos do modelo Ling-2.6-flash da Ant Group foram agora disponibilizados em código aberto, tendo anteriormente estado apenas disponíveis via API. O modelo apresenta 104 mil milhões de parâmetros totais com 7,4 mil milhões activados por inferência, uma janela de contexto de 256K e licenciamento MIT. Estão disponíveis versões com precisão BF16, FP8 e INT4
GateNews2h atrás
Sam Altman publica capturas de ecrã do Codex em modo duplo, com a separação oficial entre as funções de escritório e de programação
Declaração e captura de ecrã publicadas pelo CEO da OpenAI, Sam Altman, a 29 de abril na plataforma X: o Codex está a lançar uma nova interface de orientação. Quando os utilizadores entram pela primeira vez, têm de escolher entre dois modos, nomeadamente Excelmogging e Codemaxxing. Os utilizadores ativos semanais do Codex já ultrapassam os 4 milhões, e os casos de uso já se estenderam desde a geração de código até a utilizações não técnicas.
MarketWhisper2h atrás