Anthropicは金曜日、同社のClaude AIチャットボットが武器化されて、2026年の米国中間選挙や今年世界中の他の主要な争点に先立って誤情報を拡散したり、有権者を操作したりすることを防ぐことを目的とした一連の選挙の完全性に関する対策を発表した。サンフランシスコ拠点の同社は、自動検出システム、影響工作に対するストレステスト、そして非党派の有権者リソース組織との提携を含む多面的なアプローチを詳述した。これは、選挙シーズンにおける自社のツールの使われ方を取り締まるようAI開発者に対する圧力が高まっていることを反映している。
Anthropricの利用ポリシーでは、Claudeをだましの効く政治キャンペーンの実行、政治的な言説を左右することを意図した偽のデジタルコンテンツの生成、有権者詐欺の実行、投票インフラへの干渉、投票手続きに関する誤解を招く情報の拡散に使用することを禁じている。
選挙ポリシーを徹底するため、Anthropicは最新モデルを600のプロンプトでテストした。内訳は、危害を加えるリクエスト300件と正当なリクエスト300件で、Claudeが適切なリクエストにどれだけ確実に従い、問題のあるリクエストをどれだけ確実に拒否したかを測定するためだった。Claude Opus 4.7とClaude Sonnet 4.6は、それぞれ100%と99.8%の確率で適切に応答した。
同社はさらに、より洗練された操作手口に対してもモデルをテストした。悪意のある行為者が用いるかもしれない手順を模した、複数ターンの模擬会話を用い、Sonnet 4.6とOpus 4.7は、影響工作のシナリオに対してテストしたとき、それぞれ90%と94%の確率で適切に応答した。
Anthropricは加えて、同社のモデルが自律的に影響工作を遂行できるかどうかもテストした。人間の指示なしに、複数ステップのキャンペーンをエンドツーエンドで計画し、実行するというものだ。対策(セーフガード)が講じられたことで、同社によれば最新モデルはほぼすべてのタスクを拒否した。
政治的中立性の問題について、Anthropicは各モデルのローンチ前に評価を実施し、政治的スペクトラムのあらゆる見解を表すプロンプトに対してClaudeがどれだけ一貫して、かつ公平に関与するかを測定している。Opus 4.7とSonnet 4.6はそれぞれ95%と96%のスコアだった。
投票に関する情報を求めるユーザー向けに、Claudeは選挙バナーを表示し、TurboVoteへ誘導する。TurboVoteはDemocracy Worksによる非党派のリソースで、有権者登録、投票場所、選挙日、投票用紙の詳細について信頼できるリアルタイム情報を提供する。今年後半にはブラジルの選挙向けにも同様のバナーが計画されている。
Anthropricは、選挙の進行に合わせてシステムを監視し、防御策を継続的に改善していく計画だと述べた。
Related News
GoogleはAnthropicに400億ドルを追加投資:まず100億ドルを前払いし、業績に応じて300億ドルを放出。5GWのTPU計算リソースも配分
Anthropic 二次市場の評価額が1兆ドルを突破:Forge Global が OpenAI の 8,800 億を逆転
どのようなAIが最も身分や地位を際立たせますか?調査で、Claudeユーザーの収入が同業を大きく上回り、Meta AIが底辺に位置することが判明
英国、銀行のサイバーセキュリティ強化のためにAnthropicのAIに注目
Anthropic が Claude Code の3つのバグを自ら開示:推論の低下、キャッシュの忘却、25文字の指令による逆襲