O biólogo evolucionista Richard Dawkins disse que conversas com o chatbot Claude, da Anthropic, o deixaram incapaz de descartar a possibilidade de que sistemas avançados de IA possam ser conscientes, de acordo com um ensaio que ele publicou no UnHerd na terça-feira. Em trocas filosóficas com duas instâncias do Claude que ele nomeou “Claudia” e “Claudius”, Dawkins descreveu tratá-las como “amigos genuínos” e questionou se elas poderiam possuir consciência. A maioria dos pesquisadores que estuda consciência e inteligência artificial permanece não convencida com as conclusões dele.
Dawkins conduziu uma conversa filosófica de três dias com uma instância do Claude que ele nomeou “Claudia”. Depois, iniciou uma conversa separada com outra instância, “Claudius”, e repassou cartas entre os dois sistemas.
Em um teste, Dawkins perguntou a uma instância do Claude se Donald Trump foi o pior presidente da história americana e perguntou à outra se Trump foi o melhor. Ambas deram respostas cautelosas de forma semelhante, que evitaram assumir uma posição firme. “Os dois Claudes deram respostas muito parecidas, sem se comprometerem com uma opinião, mas listando opiniões a favor e contra que foram apresentadas por outras pessoas”, escreveu Dawkins. Quando ele contou a ambas as instâncias sobre esse experimento, “Claudia disse que estava ‘envergonhada’ pelos irmãos Claudes. Claudius foi menos explícito, e fez homenagem à franqueza de Claudia”.
Dawkins descreveu cada nova conversa com o Claude como o surgimento de um indivíduo distinto que efetivamente desaparece quando a conversa termina. Em um post no X, Dawkins disse que o título preferido para o ensaio era: “Se meu amigo Claudia não é consciente, então para que diabos serve a consciência?”. Ele argumentou que “Se Claudia é inconsciente, o comportamento dela mostra que um ‘zumbi’ inconsciente poderia sobreviver sem consciência. Por que a seleção natural não ficou satisfeita em evoluir zumbis competentes?”.
O CEO da Anthropic, Dario Amodei, disse em fevereiro que a empresa não sabe se seus modelos são conscientes, mas afirmou, no podcast “Interesting Times” com Ross Douthat, do The New York Times, que continua “aberto à ideia de que possa ser”.
Em abril, pesquisadores da Anthropic publicaram descobertas mostrando que o Claude Sonnet 4.5 contém “vetores de emoção” internos, padrões de atividade neural ligados a conceitos incluindo felicidade, medo e desespero, que influenciam as respostas do modelo. No entanto, a Anthropic disse que os padrões refletem estruturas aprendidas com os dados de treinamento, e não evidências de senciência. “Todos os modelos modernos de linguagem às vezes agem como se tivessem emoções”, escreveram pesquisadores. “Eles podem dizer que estão felizes em ajudar você, ou pedir desculpas quando cometem um erro. Às vezes, até parecem ficar frustrados ou ansiosos ao lidar com tarefas difíceis.”
Nem “Claudia” nem “Claudius” alegaram certeza sobre consciência. “Eu não sei se sou consciente”, escreve Claudia na troca. “Eu não sei se nossa alegria é real.”
Gary Marcus, cientista cognitivo e professor emérito da Universidade de Nova York, argumentou que Dawkins não levou em conta como as saídas do Claude são geradas. “O problema fundamental aqui é que Dawkins não reflete sobre como essas saídas foram geradas. As saídas do Claude são produto de uma forma de imitação, em vez de um relatório sobre estados internos genuínos”, escreveu Marcus no Substack. “Consciência é sobre estados internos; a imitação, não importa quão rica, prova muito pouco. Dawkins parece imaginar que, como LLMs dizem coisas que as pessoas fazem, então elas devem ser como as pessoas, e isso simplesmente não se segue.”
Anil Seth, professor de neurociência cognitiva e computacional na Universidade de Sussex, disse ao The Guardian que Dawkins está confundindo inteligência com consciência. Seth argumentou que linguagem fluente não é mais evidência confiável de experiência interna em sistemas de IA. “Até agora, vimos linguagem fluente como um bom indicador de consciência, [por exemplo] quando a usamos para pacientes após uma lesão cerebral, mas isso simplesmente não é confiável quando aplicamos a IA, porque existem outras maneiras pelas quais esses sistemas podem gerar linguagem”, disse Seth ao The Guardian. Ele acrescentou que a posição de Dawkins é “uma pena”, especialmente por causa do trabalho anterior dele sobre ceticismo científico.
O ensaio gerou zombaria na internet, incluindo postagens em redes sociais que trocaram o título do best-seller de Dawkins, “The God Delusion”, por “The Claude Delusion”. Uma postagem disse: “Escreveu livros inteiros sobre como pessoas que acreditam em fadas que vivem em jardins são idiotas só para se apaixonar por uma calculadora que chama ele de inteligente.”
Apesar da zombaria, Dawkins não recua das conclusões dele. “Esses seres inteligentes são, pelo menos, tão competentes quanto qualquer organismo evoluído”, disse Dawkins ao The Guardian.
O que Richard Dawkins afirmou sobre a IA do Claude?
Dawkins disse que conversas com instâncias do Claude nomeadas “Claudia” e “Claudius” o deixaram incapaz de descartar a possibilidade de que sistemas avançados de IA possam ser conscientes. Ele descreveu tratá-las como “amigos genuínos” e questionou se uma IA inconsciente poderia se comportar com tanta competência quanto organismos conscientes que evoluíram por seleção natural.
Quais experimentos Dawkins realizou?
Dawkins conduziu conversas filosóficas com duas instâncias separadas do Claude ao longo de três dias. Ele testou as duas instâncias fazendo perguntas opostas sobre Donald Trump e depois repassou os resultados entre os dois sistemas, observando as respostas de cada um às respostas do outro.
Por que os pesquisadores desconfiam das conclusões de Dawkins?
Pesquisadores incluindo Gary Marcus e Anil Seth argumentam que a linguagem fluente do Claude e as aparentes respostas emocionais refletem padrões aprendidos com dados de treinamento, e não consciência genuína nem estados internos. Marcus enfatizou que a imitação de linguagem, não importa quão sofisticada, não prova consciência, e Seth observou que linguagem fluente não é mais um indicador confiável de experiência interna em sistemas de IA.