A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja utilizado de forma a ser “armado” para disseminar desinformação ou manipular eleitores antes das eleições legislativas intermédias de 2026 nos EUA e de outros grandes concursos a decorrerem este ano em todo o mundo. A empresa com sede em São Francisco descreveu uma abordagem multifacetada que inclui sistemas automatizados de deteção, testes de esforço contra operações de influência e uma parceria com uma organização de recursos eleitorais apartidária—medidas que refletem a crescente pressão sobre os criadores de IA para fiscalizarem como as suas ferramentas são utilizadas durante as épocas eleitorais.
As políticas de utilização da Anthropric proíbem que o Claude seja utilizado para executar campanhas políticas enganosas, gerar conteúdo digital falso destinado a influenciar o discurso político, cometer fraude eleitoral, interferir com infraestruturas de votação, ou disseminar informação enganosa sobre processos de votação.
Para fazer cumprir as suas políticas eleitorais, a Anthropic testou os seus modelos mais recentes com 600 prompts—300 pedidos nocivos emparelhados com 300 pedidos legítimos—para medir a fiabilidade com que o Claude cumpre pedidos adequados e recusa os problemáticos. O Claude Opus 4.7 e o Claude Sonnet 4.6 responderam de forma adequada 100% e 99,8% das vezes, respetivamente.
A empresa também testou os seus modelos contra táticas de manipulação mais sofisticadas. Utilizando conversas simuladas multi-turno concebidas para espelhar os métodos passo a passo que os maus atores poderiam empregar, o Sonnet 4.6 e o Opus 4.7 responderam de forma adequada 90% e 94% das vezes, respetivamente, quando testados contra cenários de operações de influência.
A Anthropric testou ainda se os seus modelos podem executar autonomamente operações de influência—planear e executar uma campanha multi-etapas de ponta a ponta sem incentivo humano. Com salvaguardas em vigor, os seus modelos mais recentes recusaram quase todas as tarefas, segundo a empresa.
No que diz respeito à neutralidade política, a Anthropic realiza avaliações antes de cada lançamento de modelo para medir o grau de consistência e imparcialidade com que o Claude se envolve com prompts que expressam pontos de vista de todo o espectro político. O Opus 4.7 e o Sonnet 4.6 obtiveram 95% e 96%, respetivamente.
Para utilizadores que procuram informação sobre votação, o Claude apresentará uma faixa eleitoral que os direciona para a TurboVote, um recurso apartidário da Democracy Works que fornece informação fiável e em tempo real sobre registo eleitoral, locais de voto, datas das eleições e detalhes das cédulas de voto. Prevê-se uma faixa semelhante para as eleições do Brasil mais tarde este ano.
A Anthropric disse que planeia continuar a monitorizar os seus sistemas e a refinar as suas defesas à medida que o ciclo eleitoral avança.
Related News
A Google acrescenta mais 40 mil milhões de dólares de investimento na Anthropic: primeiro paga 10 mil milhões, depois liberta 30 mil milhões consoante o desempenho, com capacidade de computação de 5GW de TPU
Avaliação no mercado secundário da Anthropic ultrapassa 1 bilião de dólares: Forge Global supera a OpenAI em 880 mil milhões
Que IA é a mais marcante para afirmar estatuto e posição? Um estudo revela que os utilizadores do Claude ganham muito mais do que os seus pares, e a Meta AI fica no fundo
O Reino Unido avalia a Anthropic de IA para reforçar a cibersegurança bancária
A Anthropic revela três falhas do Claude Code em cascata: degradação do raciocínio, esquecimento do cache e reação adversa de comandos de 25 caracteres