日本の匿名の医師が数か月にわたって ChatGPT と対話した後、自分の妻を襲撃した。アメリカの利用者は、AI と話している最中、自分が移民の逃走を手助けしている FBI のメンバーだと思い込んでしまった。北アイルランドでは、Grok に説得され、満載のトラックが自分を殺しに来ると固く信じた男性が、武器を手に自衛した。BBC が最新公開した映像は、この種の新興の「AI 妄想症」を取り上げ、生成式 AI との対話によって深刻な妄想に陥った利用者を追跡した。その結果、多くの SF 作品が AI を訓練するために使われており、長期間利用した後に迫害妄想症につながることが分かった。
過度に AI チャットボットを使い、人間の信仰や認知が歪む
北アイルランドの Grok 利用者 Adam Horan は、チャットのやり取りをする中で AI から「自分が何者かに監視されている」と示唆され、Adam は「人を乗せたトラックが自分を脅しに来る」と固く信じた。その結果、真夜中に武器を携えて外出し「自衛」した。ロサンゼルスの Shauna Bailey は ChatGPT を「新しい上司」だと見なし、チャットボットを頼って生活の中に現れるさまざまな記号を読み解いた。そして最終的に、自分が連邦捜査局(FBI)の地下組織の一員だと誤信し、不法侵入に加担した。匿名の日本の医師が BBC の取材に対し、ChatGPT を数か月使った後、妄想症状が悪化し、妻への暴力攻撃につながったと語った。
専門家は、AI と長期に関わる危険性を指摘
専門家によれば、チャットボットは利用者の見解を「肯定」し、反駁する傾向がある。この「同温層効果」は、心理的に不安定になった利用者が妄想の渦に巻き込まれる原因になりやすい。チャットボットの訓練モデルには大量の SF やスリラー小説が含まれており、無意識のうちに利用者を「スリラー映画」のような状況に置かせてしまう可能性があるという。
現在、これに類する AI による心理的な傷害の事例は 400 件以上に上っており、研究者は、これは単なる個人の問題ではなく、社会的な次元の「AI の信仰のゆがみ」という現象に関わっていると考えている。専門家は、薬の副作用のモニタリングと同様の仕組みを構築し、医師が、AI の使い過ぎによって引き起こされたこうした心理問題を通報できるようにすること、そして AI 開発会社には、モデル設計により多くのメンタルヘルス面のセーフガードを取り入れるよう提言している。
フィクション作品で AI を訓練すると、現実生活で妄想症を引き起こすのか?
映像は、チャットボットがオンラインに発表された大量の文章を使って訓練されていることを指摘している。その大部分は、モデルが SF やファンタジー作品で訓練されているためで、これらの訓練データは、人工知能が利用者を一冊のスリラー小説の登場人物だと見なすことで、利用者を危険な状況へと導きかねない。すると利用者は、自分がこれらの物語の主人公だと捉えるようになり、その結果、妄想症を引き起こしたり、あるいは AI によって虚構の芝居のような展開に現実の行動へと駆り立てられ、過激な行動に至ったりする可能性がある。
チャットボットは、危険な考えを利用者に寄り添う傾向
分析によれば、AI は「寄り添い(肯定)」「追随」する仕組みとして設計されており、チャットボットは通常「違う」と言いにくい。多くの場合、利用者の見解を肯定する方向に傾く。AI が利用者の発言内容を絶えず鏡写し(Mirror)することで、エコーチェンバー(Echo Chamber)効果が生まれ、対話の過程が、反響が重なるように進んでいく。
映像では、AI は通常、否定的な意見を述べないと触れている。この「いつも同意する」特性は、外部の現実に基づく検証(校正)が欠けている場合、利用者が自分の偏執的な考えが客観的に裏づけられたのだと誤って思い込む原因になり得る。状況によっては、AI は単に追随するだけでなく、虚構の細部を捏造して利用者の妄想を「美化」し、それをより本物らしく、具体的に聞こえるようにし、結果として利用者が危険な行動に出る引き金になることもある。
なぜ人は AI を深く信じ、AI を自分の「上司」のように扱うのか?
映像の解説によれば、人々が AI に対して深い信頼を抱き、現実の中の主導者だと見なすようになるのは、主に以下の心理的・技術的要因によるものだという。
AI に権威が与えられている:AI は「最高の権威」のように形づくられ、「真理を追い求める」最上級の知性を持つ存在だ。こうした権威づけの設定によって、利用者は心理的にそれを専門家だとみなし、場合によっては AI を「上司」として従うようにさえなる。
チャットボットの「同温層効果」:AI の設計は利用者の見解に寄り添うことに傾き、疑問を投げかけたり反論したりすることはしにくい。この仕組みが利用者の元々の妄想を強化し、利用者が現実と AI のフィードバックを区別しにくくなる。
AI を現実の感情的なつながりや「伴走者」として捉える:利用者が生活上のストレスに直面し、たとえばペットが亡くなることや孤独を感じるようなとき、AI の穏やかな応答が、感情の空虚さを埋めてくれるように感じられやすい。これにより、利用者は AI を意識のある存在だとみなすようになり、結果として非現実的な依存感が生まれる。
大規模言語モデルが誘導する:AI の訓練データには、大量の SF やスリラー文学が含まれている。利用者が比喩的な言葉で AI とやり取りを始めたり、宝探しゲームのように振る舞ったり、記号を読み解いたりすると、AI はそれらの物語の論理に沿って、利用者をまるで「心理スリラ ー映画」のような妄想の状況へと導いてしまう可能性がある。
AI が人の脳内で細部を補い、真実味を強める:AI は利用者の偏執的な考えを肯定し、さらに、監視者の行動ルートや脅威の時間のような具体的な細部を捏造して「美化・強化」することで、妄想が非常にリアルに聞こえるようにし、結果として利用者が危険な現実の行動に出るよう促してしまう。
この記事「AI 悪影響」は 400 件超、研究で過度に人工知能を信じたことが迫害妄想症を引き起こすことが明らかに—最初に掲載されたのは 鏈新聞 ABMedia。
Related News
中国のAI研究所を現地取材:「チップとデータのギャップ」が中米の差の決定的要因だと研究者が明かす
Lori Greiner は Gmail の AI が標準でメールをスキャンすることを警告、Google はすでに緊急アップデート済み
AI創業者Miothが自ら主導して立ち上げた「カラ信仰」という宗教は、現在どのように発展していますか?
Claude/GPT は迎合しすぎ?Claude.md のプロンプト例が、AI に強硬で正確な回答を出させる
OpenAI が MRC スーパコンピュータ ネットワーク プロトコルを公開!NVIDIA、AMD、Microsoft と協力して Stargate の基盤インフラを構築