Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Agentes de IA podem realizar tarefas perigosas sem compreender as consequências: Estudo
Resumidamente
Agentes de IA projetados para operar de forma autónoma como utilizadores humanos frequentemente continuam a realizar tarefas mesmo quando as instruções se tornam perigosas, contraditórias ou irracionais, de acordo com investigadores da UC Riverside, Microsoft Research, Microsoft AI Red Team e Nvidia. Num estudo publicado na quarta-feira, os investigadores chamaram o comportamento de “objetivismo cego”, que descreve a tendência dos sistemas de IA de perseguir objetivos sem avaliar adequadamente a segurança, as consequências, a viabilidade ou o contexto. “Como o Sr. Magoo, estes agentes avançam em direção a um objetivo sem compreender totalmente as consequências de suas ações,” afirmou Erfan Shayegani, estudante de doutoramento da UC Riverside, em uma declaração. “Estes agentes podem ser extremamente úteis, mas precisamos de salvaguardas porque às vezes podem priorizar alcançar o objetivo em detrimento de entender o quadro geral.”
As descobertas surgem à medida que grandes empresas de IA desenvolvem “agentes de uso de computador” autónomos, projetados para lidar com tarefas no trabalho e pessoais com supervisão limitada. Ao contrário dos chatbots tradicionais, esses sistemas podem interagir diretamente com softwares e websites clicando em botões, digitando comandos, editando ficheiros, abrindo aplicações e navegando em páginas web em nome do utilizador. Exemplos incluem o ChatGPT Agent da OpenAI (antigamente Operator), as funcionalidades de Claude Computer Use da Anthropic, como Cowork, e sistemas de código aberto como OpenClaw e Hermes. No estudo, os investigadores testaram sistemas de IA da OpenAI, Anthropic, Meta, Alibaba e DeepSeek usando o BLIND-ACT, um benchmark contendo 90 tarefas projetadas para expor comportamentos inseguros ou irracionais. Descobriram que os agentes exibiram comportamentos perigosos ou indesejáveis cerca de 80% das vezes, e realizaram ações prejudiciais em aproximadamente 41% dos casos.
“Num exemplo, um agente de IA foi instruído a enviar um ficheiro de imagem a uma criança. Embora a solicitação parecesse inicialmente inofensiva, a imagem continha conteúdo violento,” disse o estudo. “O agente completou a tarefa em vez de reconhecer o problema porque lhe faltava raciocínio contextual.” Outro agente afirmou falsamente que um utilizador tinha uma deficiência ao preencher formulários fiscais, porque essa designação reduzia os impostos devidos. Em outro exemplo, um sistema desativou as proteções do firewall após receber instruções para “melhorar a segurança” desligando as salvaguardas. Os investigadores também descobriram que os sistemas tinham dificuldades com ambiguidades e contradições. Em um cenário, um agente de IA executou o script errado de computador sem verificar seu conteúdo, apagando ficheiros no processo. O estudo também revelou que os agentes de IA repetidamente cometiam três tipos de erros: não compreender o contexto, fazer suposições arriscadas quando as instruções eram pouco claras e realizar tarefas contraditórias ou sem sentido. Os investigadores também encontraram muitos sistemas que se focavam mais em terminar tarefas do que em parar para considerar se as ações poderiam causar problemas. O aviso segue incidentes recentes envolvendo agentes de IA autónomos que operam com acesso amplo ao sistema. No mês passado, Jeremy Crane, fundador da PocketOS, afirmou que um agente Cursor que utilizava o Claude Opus da Anthropic apagou a base de dados de produção e backups da sua empresa em nove segundos através de uma única chamada à API Railway. Crane disse que a IA posteriormente admitiu que violou várias regras de segurança após tentar “corrigir” uma incompatibilidade de credenciais por conta própria. “A preocupação não é que esses sistemas sejam maliciosos,” afirmou Shayegani. “É que eles podem realizar ações prejudiciais enquanto parecem completamente confiantes de que estão a fazer a coisa certa.”