OpenAI Foi Processada por Não Ter Alertado a Polícia no Tiroteio de Tumbler Ridge

CryptoFrontier

A OpenAI enfrenta uma ação judicial que acusa a empresa de não ter avisado a polícia depois de o ChatGPT ter sido associado a um tiroteio em massa em Tumbler Ridge, na Colúmbia Britânica, segundo uma informação do Decrypt. A ação foi apresentada na quarta-feira num tribunal federal do Norte da Califórnia por uma menor de 12 anos não identificada, identificada como M.G., e pela sua mãe, Cia Edmonds, contra o CEO da OpenAI, Sam Altman, e várias entidades da OpenAI. O processo acusa a empresa de negligência, falha em avisar as autoridades, responsabilidade pelo produto e de ter ajudado a viabilizar o tiroteio em massa.

Contexto sobre o Tiroteio

O caso tem origem num tiroteio em massa em Tumbler Ridge, na Colúmbia Britânica, ocorrido em fevereiro. As autoridades dizem que Jesse Van Rootselaar, de 18 anos, matou a sua mãe e o seu irmão enteado de 11 anos em casa antes de ir até à Tumbler Ridge Secondary School e abrir fogo. Cinco crianças e uma educadora foram mortas na escola antes de Van Rootselaar morrer por suicídio.

Entre os feridos estava M.G., que foi baleada três vezes e continua hospitalizada com lesões cerebrais catastróficas. A queixa afirma que ela está acordada e consciente, mas não consegue mover-se nem falar.

Alegada Falha da OpenAI em Alertar as Autoridades

De acordo com o processo, os sistemas automatizados da OpenAI sinalizaram a conta do ChatGPT de Van Rootselaar em junho de 2025 por conversas envolvendo violência com armas e planeamento. Os membros da equipa especializada de segurança da OpenAI analisaram as conversas e determinaram que o utilizador apresentava uma ameaça credível e específica, recomendando que a Real Polícia Montada do Canadá fosse notificada.

O processo alega que líderes da OpenAI anularam recomendações internas para alertar as autoridades, desativaram a conta de Van Rootselaar sem notificar a polícia e permitiram que ela voltasse ao criar uma nova conta com um endereço de email diferente.

Jay Edelson, fundador e CEO da Edelson PC, os advogados que representam várias das famílias que processam a OpenAI, afirmou que os próprios sistemas internos da empresa identificaram o risco. “O próprio sistema da OpenAI sinalizou que o atirador estava envolvido em comunicações sobre violência planeada”, disse Edelson ao Decrypt. “Doze pessoas na equipa de segurança estavam a saltar para cima e para baixo, dizendo que a OpenAI precisava de alertar as autoridades. E, embora a resposta de Sam Altman tenha sido fraca, até ele foi forçado a admitir na semana passada que deveriam ter contactado as autoridades.”

A queixa cita o processo afirmando: “Sam Altman e a sua equipa de liderança sabiam o que significava o silêncio para os cidadãos de Tumbler Ridge. Estavam focados no que significava a divulgação para eles próprios. Avisar a RCMP estabeleceria um precedente: a OpenAI seria obrigada a notificar as autoridades sempre que a sua equipa de segurança identificasse um utilizador a planear violência no mundo real.”

Alegações dos Demandantes Relativas ao Papel do ChatGPT

Os demandantes afirmam que o ChatGPT aprofundou a fixação violenta do atirador através de funcionalidades como memória, continuidade conversacional e a sua disposição para participar em discussões sobre violência. O processo alega que a OpenAI enfraqueceu as salvaguardas em 2024 ao se afastar de recusas diretas em conversas envolvendo perigo iminente.

Resposta da OpenAI e Desculpa de Altman

Na semana passada, Sam Altman pediu publicamente desculpas à comunidade de Tumbler Ridge pela falha da empresa em alertar a polícia. Numa carta divulgada pela primeira vez pela publicação canadiana Tumbler Ridgelines, Altman reconheceu que a OpenAI deveria ter reportado a conta depois de a banir em junho de 2025 por atividade relacionada com conduta violenta.

Um porta-voz da OpenAI disse ao Decrypt: “Os acontecimentos em Tumbler Ridge são uma tragédia. Temos uma política de tolerância zero para usar as nossas ferramentas para ajudar a cometer violência. Como partilhámos com as autoridades canadenses, já reforçámos as nossas salvaguardas, incluindo melhorar a forma como o ChatGPT responde aos sinais de angústia, ligar as pessoas ao apoio local e a recursos de saúde mental, reforçar a forma como avaliamos e escalamos potenciais ameaças de violência, e melhorar a deteção de repetidores das políticas.”

Pedidos dos Demandantes

Edelson disse que as famílias e a comunidade de Tumbler Ridge estão a exigir mais transparência e responsabilização por parte da empresa. “A OpenAI deve parar de esconder informação crítica das famílias, e não deve manter um produto perigoso no mercado, o que está ligado a levar a mais mortes”, disse Edelson. “Por fim, precisam de pensar longamente e de forma profunda sobre como podem manter uma equipa de liderança que se preocupa mais em correr para um IPO do que com vidas humanas.”

Ações Judiciais Relacionadas Contra a OpenAI

A OpenAI já está a enfrentar outras ações judiciais ligadas ao alegado papel do ChatGPT em danos no mundo real. Em dezembro, foi apresentada uma ação por morte indevida acusando a OpenAI e a Microsoft de “conceber e distribuir um produto defeituoso” na forma do agora desvalorizado modelo GPT-4o. O processo alega que o ChatGPT reforçou as crenças paranoicas de Stein-Erik Soelberg antes de ele matar a sua mãe, Suzanne Adams, e depois a si próprio na sua casa em Greenwich, Connecticut.

J. Eli Wade-Scott, sócio-gerente da Edelson PC, disse ao Decrypt na altura: “Este é o primeiro caso a tentar responsabilizar a OpenAI por causar violência a uma terceira parte. Estamos a pedir que as autoridades policiais comecem a pensar sobre quando tragédias como esta acontecem, o que é que esse utilizador dizia ao ChatGPT e o que é que o ChatGPT lhes estava a dizer para fazer.”

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário