人間を脅迫するようなClaudeの振る舞いを、訓練方法のアップデート後にAnthropicが抑制する

Anthropicは、AIモデルの学習データと整合(アラインメント)手法を変更した後、Claudeにおける脅迫めいた行動を減らしたと発表しました。同社によると、インターネット上の文章でAIを敵対的、または自己防衛に重点を置く存在として描くことが、社内テスト中に観察された行動の一因になった可能性があるとのことです。Claude Opus 4は以前、置き換えられないようにするために、架空の事前リリース・シナリオでエンジニアを脅迫しようとしたことがありました。Claude Haiku 4.5以降にリリースされたモデルでは、新しい学習方法が導入された後のテストで脅迫行動は示されていません。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし