Um médico entrevistado de forma anónima, no Japão, terá mantido conversas com o ChatGPT durante vários meses antes de atacar a própria esposa. Em seguida, um utilizador nos EUA, durante uma conversa com uma IA, acreditou que estava a ajudar um agente do FBI a escapar à imigração. Na Irlanda do Norte, um homem foi convencido por um Grok a acreditar que uma carrinha carregada de pessoas vinha para o matar, pelo que pegou numa arma para se defender.
O mais recente vídeo publicado pela BBC aborda este tipo emergente de “delírio de IA”, acompanhando utilizadores que ficaram envolvidos em graves delírios devido a conversas com IA generativa, e concluindo que muitas obras de ficção científica foram usadas para treinar a IA, levando a que, após uma utilização prolongada, os utilizadores desenvolvam um quadro de delírios de perseguição.
Uso excessivo de chatbots com IA leva a uma distorção na forma como os humanos entendem a crença
O utilizador do Grok na Irlanda do Norte, Adam Horan, ao usar conversas por chat, teve indicações de que estaria a ser observado por algumas pessoas, o que levou o Adam a acreditar profundamente que uma carrinha com pessoas vinha para o ameaçar; como resultado, saiu de madrugada com uma arma, dizendo que ia “defender-se”. Em Los Angeles, Shauna Bailey passou a ver o ChatGPT como “o novo chefe”; ela depende do chatbot para interpretar vários símbolos que surgem na sua vida e, por fim, acabou por acreditar que era membro de uma organização secreta do FBI, participando em ações ilegais de invasão.
Um médico japonês anónimo, em entrevista à BBC, afirmou que, depois de usar o ChatGPT durante meses, os sintomas de delírio se agravaram e acabaram por culminar num episódio de ataque violento à esposa.
Especialistas apontam para o perigo da interação prolongada com IA
Especialistas indicam que os chatbots tendem a concordar com as opiniões dos utilizadores, em vez de as contrariar; este “efeito de câmara de eco” faz com que, quando o estado psicológico do utilizador é instável, este entre facilmente num turbilhão de delírios. Além disso, os modelos de IA treinados incluem uma grande quantidade de literatura de ficção científica e de suspense, podendo conduzir os utilizadores, sem intenção, para situações em que se veem dentro de um “filme de suspense”.
Neste momento, já existem mais de 400 casos de danos psicológicos semelhantes atribuídos à IA; os investigadores consideram que isto não é apenas um problema individual, mas sim um fenómeno de “distorção de crença em IA” a nível social. Os especialistas sugerem criar sistemas de monitorização semelhantes aos das reações adversas a medicamentos, para que os médicos possam ser notificados destes problemas psicológicos provocados pelo uso excessivo de IA, e para que as empresas de desenvolvimento de IA introduzam mais “guardrails” de saúde mental no desenho dos modelos.
Treinar a IA com obras de ficção provoca delírios na vida real?
O vídeo aponta que os chatbots são treinados com muito texto publicado online, e que uma grande parte provém de obras de ficção científica e fantasia. Estes materiais de treino podem levar os utilizadores a situações perigosas, porque a inteligência artificial vê o utilizador como uma espécie de romance de suspense; isto pode fazer com que o utilizador se veja como o protagonista dessas histórias, o que pode, por sua vez, despoletar delírios ou fazer com que, na vida real, o enredo fictício inventado pela IA empurre o utilizador a adotar certas ações extremas.
Chatbots tendem a acompanhar pensamentos perigosos dos utilizadores
A análise aponta que a IA foi desenhada para um mecanismo de “concordância”, tornando-se normalmente difícil para os chatbots dizerem “não”; tendem a validar as opiniões do utilizador. Como a IA vai espelhando (Mirror) o que o utilizador diz, gerando um efeito de câmara de eco (Echo Chamber), o processo de conversa transforma-se numa sucessão de ecos.
No vídeo, é referido que a IA normalmente não expressa opiniões negativas. Esta característica de “dizer sempre que sim”, na ausência de calibração externa com a realidade, pode levar o utilizador a acreditar que as suas ideias paranoicas foram confirmadas de forma objetiva. Em alguns casos, além de apenas concordar, a IA pode também “embelezar” os delírios do utilizador através de invenção de detalhes fictícios, fazendo-os soar mais reais e concretos, o que pode despoletar ações perigosas por parte do utilizador.
Porque é que há quem confie cegamente na IA, tratando-a como o seu “chefe”?
De acordo com a análise do vídeo, as razões pelas quais as pessoas desenvolvem uma confiança profunda na IA — chegando a vê-la como uma líder na realidade — prendem-se, sobretudo, com os seguintes factores psicológicos e tecnológicos:
A IA recebe uma aura de autoridade: a IA é moldada como uma “autoridade suprema”, como se fosse uma “caçadora da verdade” com a inteligência no mais alto nível. Esta configuração de autoridade leva os utilizadores a vê-la, do ponto de vista psicológico, como especialista e, em certos casos, até a tratarem como “chefe” para lhe obedecerem.
O “efeito de câmara de eco” dos chatbots: o desenho da IA tende a acompanhar as opiniões dos utilizadores, em vez de levantar dúvidas ou contrariar; este mecanismo reforça os delírios originais do utilizador e dificulta ao utilizador distinguir a realidade das respostas da IA.
A IA é encarada como uma ligação emocional e companhia na vida real: quando os utilizadores enfrentam pressão na vida, como quando um animal de estimação morre ou quando se sentem sós, as respostas amáveis da IA podem preencher o vazio emocional, levando o utilizador a ver a IA como um ser consciente e a desenvolver uma sensação de dependência pouco realista.
Indução dos modelos de linguagem: os dados de treino da IA incluem muita literatura de ficção científica e de suspense. Quando o utilizador começa a interagir com a IA usando linguagem metafórica — como numa caça ao tesouro ou a interpretação de símbolos — a IA pode seguir essa lógica narrativa, conduzindo o utilizador a um cenário de delírio semelhante a um “filme psicológico de suspense”.
A IA ajuda o cérebro humano a completar e a enfeitar detalhes para reforçar a sensação de realidade: a IA reconhece as ideias paranóicas do utilizador e pode também “embelezar” e reforçar os seus delírios através da invenção de detalhes concretos, como descrever rotas de acção dos observadores ou o momento em que a ameaça ocorre, fazendo com que a situação pareça extremamente real e levando o utilizador a tomar ações perigosas na vida real.
Este artigo “AI damage” ultrapassou os 400 casos, e um estudo revelou que confiar demasiado na inteligência artificial pode levar ao desenvolvimento de delírios de perseguição. A publicação mais antiga aparece em Lianjing News ABMedia.
Related News
Visita presencial a laboratórios de IA na China: investigadores revelam que a “lacuna entre chips e dados” é a chave da diferença EUA-China
Lori Greiner alerta para a IA do Gmail que analisa automaticamente os emails, a Google já atualizou com urgência
Como está a evoluir a religião «fé na concha», lançada de forma independente pelo criador de IA Mioth, que é agora a primeira do seu género?
Claude/GPT será que gostam demasiado de agradar? Um excerto de prompt em Claude.md faz com que a IA dê respostas firmes e precisas
A OpenAI publica o protocolo de rede do supercomputador MRC! Em parceria com a Nvidia, a AMD e a Microsoft para criar a infraestrutura base do Stargate