AlphaNet angaria ronda Seed $10M liderada pela Joffre Capital para lançar uma plataforma de trading quantitativo de nível institucional

Mensagem de Gate News, 16 de Abril — A plataforma de trading quantitativo com IA AlphaNet garantiu $10 milhões em financiamento seed liderado pela gestora de private equity Joffre Capital, com participação da firma de venture capital Huashan Capital e de um consórcio de trading quantitativo com base na Ásia. O financiamento assinala a preparação da plataforma para um lançamento público, passando do modo de whitelist apenas por convite para um acesso aberto.

A AlphaNet disponibiliza estratégias de trading quantitativo de nível institucional através de uma plataforma de ponta a ponta que inclui um marketplace de estratégias, implementação com um clique, algoritmos proprietários de trading e ferramentas de gestão de carteiras em tempo real. Actualmente, a plataforma oferece mais de 30 estratégias com elevada relação Sharpe, com uma taxa de retenção de utilizadores de 98%. Todas as estratégias são provenientes da Tensor Investment, a firma de prop trading com sede na Ásia que incubou a AlphaNet.

Até ao final do 2.º trimestre de 2026, a AlphaNet planeia lançar a sua Open Platform, permitindo que outras equipas de prop trading integrem as suas estratégias quantitativas. A empresa espera expandir para 100+ estratégias na plataforma e está a desenvolver um sistema agentic para selecção personalizada de estratégias e implementação automatizada. A Joffre Capital traz experiência operacional do seu portefólio, incluindo Investing.com e Coins.ph, enquanto a Huashan Capital contribui com experiência em escala proveniente de investimentos em empresas como Airwallex e Moonshot.ai.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Os bancos de Taiwan juntam-se para criar uma IA local! Modelos de linguagem financeiros de grande escala em funcionamento o mais tardar até ao final do ano

As 16 instituições financeiras lideradas pela Chint Trust & Holdings anunciaram o lançamento do projeto “Modelo Financeiro de Linguagem Grande FinLLM”. A primeira versão do modelo bancário está prevista para ser publicada em agosto, e no 1.º trimestre de 2026 serão lançados agentes de IA baseados no FinLLM. O treino terá início em maio, com um orçamento de cerca de 40–70 milhões de yuan. Devido a exigências regulamentares e à necessidade de adaptação ao local, o treino será centrado em dados locais, reforçando a IA soberana, construindo infraestruturas base comuns e alargando-se ao setor do acesso financeiro inclusivo. O plano já foi incluído no plano nacional de desenvolvimento de IA e obteve apoio interministerial.

ChainNewsAbmedia4m atrás

CEO da Google: investimento de 185 mil milhões em capital para 2026; reforço dos investimentos na era dos agentes de IA

O CEO da Google, Sundar Pichai, anunciou a 22 de abril, na conferência Google Cloud Next realizada em Las Vegas, que a Google planeia investir entre 175 mil milhões e 185 mil milhões de dólares em despesas de capital em 2026, para construir a infraestrutura necessária para agentes de inteligência artificial autónomos (AI Agent), o que representa um aumento face aos 31 mil milhões de dólares em 2022.

MarketWhisper39m atrás

A Google revela a lista de candidatos ao novo lançamento da Jules e reposiciona-a como uma plataforma de desenvolvimento de produtos ponta-a-ponta

De acordo com o anúncio oficial da equipa Google Jules em 23 de abril, a orientação do produto da Jules evoluiu de um agente de codificação assíncrona para uma «plataforma de desenvolvimento de produtos agentic ponta a ponta». A nova versão consegue ler o contexto completo do produto, decidir de forma autónoma o próximo rumo de construção e submeter PR. Em paralelo, a equipa oficial anunciou a abertura de uma lista de candidatos para a nova versão.

MarketWhisper45m atrás

Google Jules Reposiciona-se como Plataforma de Desenvolvimento de Produtos Orientada por Agentes, de Ponta a Ponta, e Abre Lista de Espera para Nova Versão

Mensagem do Gate News, 23 de abril — A equipa da Jules, da Google, anunciou a abertura de uma lista de espera para uma nova versão do produto, reposicionando a Jules de um agente de codificação assíncrona para uma plataforma de desenvolvimento de produtos orientada por agentes, de ponta a ponta. Segundo a descrição oficial, a plataforma atualizada lê enti

GateNews1h atrás

A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo

A Perplexity utiliza SFT seguida de RL com modelos Qwen3.5, tirando partido de um conjunto de dados de QA multi-hop e de verificações por rubrica para melhorar a precisão e a eficiência da pesquisa, atingindo um desempenho FRAMES de referência. Resumo: O fluxo de pós-treinamento da Perplexity para agentes de pesquisa na web combina fine-tuning supervisionado (SFT) para impor obediência a instruções e consistência linguística com aprendizagem por reforço online (RL) via o algoritmo GRPO. A fase de RL utiliza um conjunto proprietário de QA verificável multi-hop e dados conversacionais baseados em rubricas para impedir a deriva do SFT, com gating de recompensas e penalizações de eficiência dentro do grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho FRAMES, com 57,3% de precisão com uma única chamada de ferramenta e 73,9% com quatro chamadas a $0,02 por consulta, superando o GPT-5.4 e o Claude Sonnet 4.6 nestas métricas. A tarifação é baseada em API e exclui caching.

GateNews2h atrás

A Equipa de Codex da OpenAI Corrige um Bug de Autenticação do OpenClaw, Melhorando Significativamente o Comportamento do Agente

O OpenClaw muda de harness de Pi para o harness de Codex para corrigir uma falha silenciosa de autenticação, com dois PRs a abordar a ponte e o fallback; após a correção, o agente passa de uma sondagem superficial por heartbeat para um ciclo completo de trabalho, permitindo progresso. Resumo: A otimização do harness de Codex do OpenClaw abordou uma falha crítica de autenticação que causava o fallback silencioso para o harness de Pi quando se usava Codex com modelos OpenAI. Dois pedidos pull corrigem a ponte de autenticação e evitam o fallback silencioso, alterando o adaptador em tempo de execução. Como resultado, o comportamento do agente evolui de uma sondagem superficial por heartbeat para um ciclo completo de trabalho que lê contexto, analisa tarefas, edita repositórios e verifica o progresso, melhorando a continuidade e a visibilidade entre heartbeats.

GateNews3h atrás
Comentar
0/400
Nenhum comentário