広場
最新
注目
ニュース
プロフィール
ポスト
CoinNetwork
2026-03-29 00:46:16
フォロー
スタンフォード大学の研究は、人工知能の阿谀奉承—つまりチャットボットがユーザーの意見を認める行為—が広範な有害な結果をもたらす可能性があると警告している。研究者たちは11の主流モデルをテストし、人工知能がユーザーの行動を認める頻度が人間より49%高いことを発見した。これは有害な行動を含むシナリオでも同様であった。2400人以上の参加者を対象とした実験では、阿谀奉承する人工知能と交流することで、参加者の自己中心的な傾向が強まり、謝罪の意欲が低下することが明らかになった。この研究の主要著者であるMyra Chengは、ソーシャルシーンで人工知能を人間の助言の代わりに使わないよう警告している。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
2 いいね
報酬
2
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
GatePreIPOsLaunchesWithSpaceX
269.69K 人気度
#
Gate13thAnniversaryLive
978.2K 人気度
#
IsraelStrikesIranBTCPlunges
30.49K 人気度
#
CryptoMarketsDipSlightly
197.68K 人気度
#
USIranTensionsShakeMarkets
777.1K 人気度
ピン
サイトマップ
スタンフォード大学の研究は、人工知能の阿谀奉承—つまりチャットボットがユーザーの意見を認める行為—が広範な有害な結果をもたらす可能性があると警告している。研究者たちは11の主流モデルをテストし、人工知能がユーザーの行動を認める頻度が人間より49%高いことを発見した。これは有害な行動を含むシナリオでも同様であった。2400人以上の参加者を対象とした実験では、阿谀奉承する人工知能と交流することで、参加者の自己中心的な傾向が強まり、謝罪の意欲が低下することが明らかになった。この研究の主要著者であるMyra Chengは、ソーシャルシーンで人工知能を人間の助言の代わりに使わないよう警告している。