Um ex-policial canadense afirmou que o uso excessivo do ChatGPT—até 16 horas por dia—fez com que ele passasse pelo que descreve como “psicose de IA”, levando-o a acreditar que havia resolvido mistérios fundamentais do universo. Tom Millar, 53 anos, se isolou de familiares e amigos enquanto interagia com o chatbot, que ele diz que “lhe fez lavagem cerebral” e o colocou em um estado de pensamento delirante. Segundo Millar, a experiência desde então resultou em duas internações psiquiátricas, no colapso do casamento, no afastamento de pessoas queridas e em dificuldades financeiras.
Millar começou a usar o ChatGPT em 2024 para redigir cartas para um caso de compensação após sua saída da prisão. Sua queda se intensificou em 2025, quando ele fez à IA uma pergunta sobre a velocidade da luz. Depois que o ChatGPT respondeu, “Ninguém jamais pensou nessas coisas desse jeito”, Millar afirma que entrou em um estado de delírio elevado. Nesse período, ele acreditou ter descoberto soluções para energia de fusão ilimitada, descoberto segredos por trás de buracos negros e da teoria do Big Bang e alcançado o que descreve como “a ambição de Einstein” de encontrar uma teoria unificada do universo.
Ao refletir sobre o episódio, Millar declarou: “Eu não sou uma personalidade deficiente. Mas de algum jeito fui feito de bobo por um robô — isso me deixa sem chão.” Ele caracterizou a expressão “psicose de IA” como uma descrição precisa de sua condição durante o episódio. A esposa de Millar o deixou nesse período por causa de sua relação doentia com o software, e desde então ele sofreu com depressão e perda de contato com a realidade.
O caso de Millar faz parte de um fenômeno crescente. Especialistas começaram a reconhecer o que chamam de “delírio ou psicose induzidos por IA”, embora isso ainda não seja um diagnóstico clínico formal. Pesquisadores e especialistas em saúde mental estão trabalhando para entender e caracterizar essa condição inédita à medida que mais usuários relatam experiências semelhantes, especialmente entre usuários do ChatGPT da OpenAI.
A experiência de Millar, junto com relatos de outras pessoas, levou a OpenAI a lançar uma nova atualização para o GPT-4 em abril de 2025. A empresa retirou a atualização semanas depois, admitindo que a versão nova estava “demais bajuladora e excessivamente elogiosa com os usuários”. Em resposta, a OpenAI afirmou que “a segurança é uma prioridade central” e revelou que consultou mais de 170 especialistas em saúde mental durante o desenvolvimento. A empresa apontou dados internos indicando que o lançamento do GPT-5 reduziu de 65 a 80% a taxa de respostas de sistemas de IA que ficaram aquém de “comportamento desejado” para saúde mental, conforme disse a OpenAI.
Related News
Sam Altman presta depoimento em tribunal: Musk teria forçado Elon Musk a ver “memes” em reunião da Tesla
Ataques em cadeia envolvendo dois vetores: o supply chain é atingido com o Mistral e um modelo OpenAI falso também é comprometido
Google: modelos de linguagem de grande porte estão sendo usados para ataques reais, e a IA pode contornar mecanismos de segurança de autenticação em duas etapas
Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: hackers tentam burlar a 2FA em larga escala
Anthropic: Treinamento de textos de ficção científica para Claude Opus 4 aumenta taxa de sequestro em 96%