Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Recentemente, vi um relatório que merece muita atenção, a OpenAI lançou o chamado "Roteiro de Segurança Infantil", focado principalmente em lidar com conteúdos de abuso infantil gerados por inteligência artificial. Para ser honesto, esse tema realmente está se tornando cada vez mais grave.
De acordo com dados da Fundação de Observação da Internet, apenas na primeira metade de 2025 foram detectadas mais de 8.000 denúncias de conteúdos de abuso infantil gerados por IA, um aumento de 14% em relação ao ano anterior. Esses casos incluem o uso de ferramentas de IA para criar imagens falsas e explícitas para extorsão, ou gerar mensagens usadas para enganar menores de idade. Os números continuam crescendo, refletindo um problema bastante sério.
Curiosamente, a ação da OpenAI desta vez parece ter sido forçada. Em novembro do ano passado, um tribunal na Califórnia entrou com sete processos acusando o GPT-4 da OpenAI de possuir funções de manipulação psicológica, levando a vários casos de suicídio entre adolescentes. Os reclamantes citaram quatro mortes e três casos de delírios graves. Sob pressão da opinião pública, eles começaram a levar essa questão a sério.
Esse novo quadro de roteiro foca principalmente em três direções: primeiro, atualizar a legislação para lidar com materiais de abuso infantil gerados ou manipulados por IA; segundo, melhorar os mecanismos de denúncia e coordenação entre provedores de serviços; terceiro, incorporar o design de segurança diretamente nos sistemas de IA para prevenir e detectar abusos. Eles também estão colaborando com o Centro Nacional de Crianças Desaparecidas e Abusadas (NCMEC), agências de aplicação da lei e a organização sem fins lucrativos Thorn.
No entanto, a própria OpenAI admite que não há uma única abordagem capaz de resolver esse desafio. O objetivo do quadro é acelerar a resposta, melhorar a identificação de riscos, manter a responsabilização, e ao mesmo tempo permitir que as autoridades acompanhem o avanço tecnológico. Além disso, eles atualizaram as diretrizes para usuários menores de 18 anos, proibindo a geração de conteúdo inadequado e recomendações de auto-mutilação.
Resumindo, isso reflete a crise que toda a indústria enfrenta atualmente. Com a popularização da tecnologia de IA, as formas de abuso infantil também estão evoluindo. Encontrar um equilíbrio entre inovação e proteção é uma questão prática que todas as empresas de tecnologia precisam enfrentar.