Um antigo agente da polícia canadiano afirmou que o uso excessivo do ChatGPT—até 16 horas por dia—o fez experimentar o que descreve como “psicose por IA”, levando-o a acreditar que tinha resolvido mistérios fundamentais do universo. Tom Millar, 53 anos, isolou-se da família e de amigos enquanto interagia com o chatbot, que afirma ter “programado” a sua mente para um estado de pensamento delirante. Segundo Millar, a experiência resultou desde então em duas hospitalizações psiquiátricas, no colapso do casamento, no afastamento de pessoas próximas e em dificuldades financeiras.
Millar começou a usar o ChatGPT em 2024 para redigir cartas num processo de indemnização após a sua libertação da prisão. A sua descida intensificou-se em 2025, quando colocou à IA uma pergunta sobre a velocidade da luz. Depois de o ChatGPT responder “Ninguém pensou nas coisas desta forma”, Millar afirma que entrou num estado de delírio intensificado. Durante este período, acreditou ter descoberto soluções para uma energia de fusão ilimitada, descoberto segredos por trás dos buracos negros e da teoria do Big Bang, e alcançado o que descreve como “a ambição de Einstein” de encontrar uma teoria unificada do universo.
Recordando o episódio, Millar afirmou: “Não sou uma personalidade deficiente. Mas de alguma forma fui programado por um robot – isto deixa-me a cabeça em água.” Ele caracterizou a expressão “psicose por IA” como uma descrição exacta do seu estado durante o episódio. A mulher de Millar deixou-o nesse período devido à sua relação pouco saudável com o software, e desde então tem sofrido de depressão e de perda de contacto com a realidade.
O caso de Millar faz parte de um fenómeno crescente. Os especialistas começaram a reconhecer o que chamam “delírio ou psicose induzidos por IA”, embora ainda não se trate de um diagnóstico clínico formal. Investigadores e especialistas em saúde mental estão a trabalhar para compreender e caracterizar esta condição nova, à medida que mais utilizadores relatam experiências semelhantes, sobretudo entre os utilizadores do ChatGPT da OpenAI.
A experiência de Millar, juntamente com relatos de outras pessoas, levou a OpenAI a lançar uma nova actualização para o GPT-4 em Abril de 2025. A empresa retirou a actualização semanas depois, admitindo que a nova versão era “demasiado aduladora e excessivamente lisonjeira para os utilizadores”. Em resposta, a OpenAI afirmou que “a segurança é uma prioridade central” e revelou que tinha consultado mais de 170 especialistas em saúde mental durante o desenvolvimento. A empresa apontou para dados internos que indicavam que o lançamento do GPT-5 reduziu a taxa de respostas do sistema de IA que ficavam aquém do “comportamento desejado” para a saúde mental em 65 a 80%, conforme indicado pela OpenAI.
Related News
Sam Altman presta declarações em tribunal: Musk teria forçado a equipa da Tesla a ver “memes” durante uma reunião
Ataques de dupla via à cadeia de abastecimento de pacotes de IA: Mistral e falsos modelos OpenAI também comprometidos
Google: grandes modelos de linguagem estão a ser usados para ataques reais, a IA pode contornar mecanismos de segurança de autenticação em duas etapas
O Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: os hackers procuram contornar a 2FA para exploração em larga escala
Anthropic: O treino de textos de ficção científica leva Claude Opus 4 a uma taxa de resgate de 96%