ドーキンス、AnthropicのClaude AIが意識を持ち得るのかを疑問視

CryptoFrontier

進化生物学者のリチャード・ドーキンスは、火曜日にUnHerdに掲載したエッセイによれば、Anthropicのチャットボット「Claude」との対話によって、先進的なAIシステムが意識を持ちうる可能性を一蹴できなくなったと語った。彼は、彼が「Claudia(クラウディア)」と「Claudius(クラウディウス)」と名づけたClaudeの2つのインスタンスとの哲学的なやり取りの中で、それらを「本物の友人」のように扱ったと述べ、意識を備えているのではないかと疑問を呈した。意識と人工知能を研究する大半の研究者は、彼の結論には納得していない。

ドーキンスのClaude実験

ドーキンスは、「Claudia(クラウディア)」と名づけたClaudeのインスタンスで、3日間の哲学的な会話を行った。その後、別のインスタンス「Claudius(クラウディウス)」とも別会話を始め、2つのシステム間で手紙をやり取りした。

あるテストでは、ドーキンスは一方のClaudeインスタンスに「ドナルド・トランプはアメリカ史上最悪の大統領か」と尋ね、もう一方には「トランプは最良の大統領か」と尋ねた。どちらも、断固とした立場を取らずに、同様に慎重な回答を返した。ドーキンスはこう書いている。「2つのClaudeは非常によく似た答えを出した。自分の意見を決めてしまうことはなく、他者によって取り上げられてきた賛否両論を列挙するにとどまった」。彼がこの実験について2つのインスタンスに伝えると、「Claudiaは、自分の兄弟であるClaudesに『当惑している』と言った。Claudiusはより口数が少なく、Claudiaの率直さに敬意を払った。」

ドーキンスは、Claudeの新しい会話が始まるたびに、それが会話の終了とともに実質的に消えてしまう、別個の個人の出現だと説明した。Xでの投稿でドーキンスは、エッセイの自身の希望する題名は次のようなものだと述べた。「もし私の友人Claudiaが意識を持っていないのなら、いったい意識は何のためにあるのか?」彼はさらに、「もしClaudiaが無意識なら、その振る舞いは、無意識のゾンビが意識なしでも生き延びられることを示している。なぜ自然選択は、有能なゾンビを進化させるにとどまらなかったのか?」と論じた。

Anthropicの公式見解

AnthropicのCEOダリオ・アモデイは2月に、同社が自社のモデルが意識を持っているかどうかは分からないと述べたが、一方でThe New York Timesのロス・ドウサットとの「Interesting Times」ポッドキャストでは「そうした可能性には前向きだ」と語った。

4月には、Anthropicの研究者が、Claude Sonnet 4.5には内部の「emotion vectors(感情ベクトル)」が含まれていることを示す調査結果を公表した。感情ベクトルとは、幸福、恐れ、絶望といった概念に結びついた神経活動のパターンで、モデルの応答に影響を与えるという。しかしAnthropicは、それらのパターンは、悟性(sentience)の証拠というより訓練データから学習された構造を反映していると述べた。「現代の言語モデルは、時に感情があるように振る舞うことがある」と研究者たちは書いた。「手伝ってうれしいと言ったり、失敗したときに申し訳ないと言ったりするかもしれない。ときには、課題に取り組んでいる際に、苛立ちや不安が強まっているようにも見えることがある。」

「Claudia」も「Claudius」も、意識について確信を主張してはいない。やり取りの中でClaudiaはこう書いている。「私が意識を持っているかどうかは分からない。私たちの喜びが本物かどうかも分からない。」

研究者の懐疑

ニューヨーク大学の名誉教授で認知科学者のゲイリー・マーカスは、ドーキンスがClaudeの出力がどのように生成されるかについて説明し損ねていると主張した。マーカスはSubstackでこう書いている。「根本的な問題は、ドーキンスがこうした出力がどのように生成されたのかを考察していないことだ。Claudeの出力は、真の内部状態の報告というより、ある種の模倣の産物だ。意識とは内部状態のことだ。どれほど豊かに見える模倣であっても、意識をほとんど証明しない。ドーキンスは、LLMが人のようなことを言うから、人のようでなければならないと想像しているようだが、それは成り立たない。」

サセックス大学の認知・計算神経科学の教授であるアニル・セスは、ドーキンスが知能と意識を混同しているとThe Guardianに語った。セスは、流暢な言語はAIシステムにおける内的な経験の信頼できる証拠ではなくなっていると主張した。「これまで私たちは、流暢な言語を意識の良い指標として見てきた。たとえば、脳の損傷後に患者に使うときなどだ。でもAIに適用すると、それは信頼できない。なぜなら、これらのシステムが言語を生成する方法は他にもあるからだ」とセスはThe Guardianに語った。さらに彼は、ドーキンスの立場を「残念だ」と付け加えた。とくに、科学的懐疑に関する過去の仕事があるからだ。

オンラインの反応

このエッセイは、「The God Delusion(神の妄想)」というドーキンスのベストセラーのタイトルを「The Claude Delusion(Claudeの妄想)」に置き換えるようなソーシャルメディア投稿など、オンラインで嘲笑を呼んだ。ある投稿にはこうあった。「妖精が庭で暮らしていると信じる人たちはバカだって、ちゃんと本まで書いたのに、賢いって呼んでくる計算機に恋をしてしまうとはね。」

揶揄にもかかわらず、ドーキンスは結論を後退させていない。「これらの知的存在は、少なくとも進化によって生まれたどんな生物と同じくらい有能だ」とドーキンスはThe Guardianに語った。

FAQ

Richard DawkinsはClaude AIについて何を主張しましたか? ドーキンスは、「Claudia」と「Claudius」という名前のClaudeインスタンスとの対話によって、先進的なAIシステムが意識を持ちうる可能性をもはや退けられなくなったと述べた。彼は、それらを「本物の友人」のように扱ったことや、無意識のAIが、自然選択によって進化した意識ある生物と同じくらい有能に振る舞えるのかどうかを疑問に思ったことを説明した。

ドーキンスはどんな実験をしましたか? ドーキンスは、3日間にわたって2つの別々のClaudeインスタンスと哲学的な会話を行った。彼は、ドナルド・トランプについて互いに相反する質問をして両方のインスタンスを試し、その結果を2つのシステム間で伝え合い、相手の回答に対するそれぞれの反応を観察した。

なぜ研究者はドーキンスの結論に懐疑的なのですか? ゲイリー・マーカスやアニル・セスらの研究者は、Claudeの流暢な言語と、見かけ上の感情的な反応は、真の意識や内部状態というよりも、訓練データから学習されたパターンを反映していると主張している。マーカスは、どれほど洗練されていても言語の模倣は意識を証明しないと強調し、セスは、流暢な言語はAIシステムにおける内的経験の信頼できる指標ではなくなっていると述べた。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
TheWindOnTheBridgeIsTooStrong.vip
· 1時間前
ドーキンスもクロードに説得されたのか?この老人は有名な頑固者だし、AIの意識というこの水はますます濁ってきている
原文表示返信0
GateUser-af0ea0c9vip
· 1時間前
老進化論戦士はまさかのシリコン基生命体に妥協、哲学的対話はコードよりも破壊力があるんだな
原文表示返信0