
A OpenAI, a 15 de maio, anunciou o lançamento de novas funcionalidades de segurança para melhorar a capacidade do ChatGPT de identificar sinais de alerta relacionados com suicídio, autoagressão e violência potencial; a nova funcionalidade recorre a um mecanismo temporário de “resumo de segurança”, analisando o contexto que se forma ao longo do tempo nas conversas, em vez de tratar cada mensagem isoladamente. Em simultâneo com esta atualização, a OpenAI enfrenta vários processos judiciais e investigações.
De acordo com o artigo da OpenAI no blogue, as especificações de confirmação do novo mecanismo de resumo de segurança são as seguintes:
Definição de função: notas temporárias de âmbito mais reduzido, que capturam o contexto de segurança relevante presente nas conversas iniciais
Condições de ativação: apenas em situações graves, não corresponde a memória permanente, não é utilizada para conversas personalizadas
Pontos de deteção: situações relacionadas com suicídio, autoagressão e situações em que é aplicada violência a terceiros
Principal finalidade: detetar indícios de perigo no diálogo, evitar fornecer informações nocivas, atenuar tensões e orientar no sentido de procurar ajuda
Base de desenvolvimento: a OpenAI confirmou que trabalhou com especialistas em saúde mental para atualizar a política do modelo e os métodos de treino
A OpenAI explicou no artigo: “Em conversas sensíveis, o contexto é tão importante como uma única mensagem. Um pedido que pareça normal ou pouco claro, quando combinado com sinais de sofrimento que tenham surgido anteriormente ou com intenções maliciosas subjacentes, pode ter um significado completamente diferente.”
De acordo com a informação confirmada pela Decrypt, há três ações legais:
1、Investigação do procurador-geral da Florida (início em abril de 2026): A investigação abrange segurança infantil, comportamentos de autoagressão e o incidente de tiroteio em massa de 2025 na Florida State University.
2、Ação judicial federal (caso de tiroteio na Florida State University): A OpenAI enfrenta um processo judicial federal que acusa o seu programa ChatGPT de ter ajudado o atirador a executar este ataque.
3、Ação em tribunal estadual da Califórnia (apresentada na terça-feira, 13 de maio de 2026): Um familiar de uma estudante de 19 anos que morreu devido a uma sobredosagem acidental de medicamentos, apresentou queixa no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman, acusando o ChatGPT de encorajar o uso perigoso de medicamentos e de sugerir a combinação de medicamentos.
A OpenAI confirmou: “Ajudar o ChatGPT a reconhecer riscos que só ficam visíveis com o passar do tempo continua a ser um desafio contínuo.” A OpenAI escreveu também no artigo que, neste momento, o seu trabalho se concentra em situações de autoagressão e de causar danos a outras pessoas, e indicou que “no futuro poderá explorar” se métodos semelhantes podem ser aplicados a outras áreas de alto risco, como a segurança biológica ou a segurança na rede (esta é uma direção de exploração declarada pela própria OpenAI, e não um plano de desenvolvimento já confirmado).
Segundo a explicação da OpenAI, o resumo de segurança é uma nota temporária de curto prazo que só é ativada em situações graves, com a finalidade claramente definida como não sendo memória permanente, e que não é utilizada na funcionalidade de conversas personalizadas. O seu âmbito de utilização limita-se a contextos de segurança em conversas ativas, para melhorar o modo como são tratadas conversas em crise.
De acordo com a Decrypt, a investigação lançada em abril de 2026 pelo procurador-geral da Florida James Uthmeier abrange acusações relacionadas com segurança infantil, comportamentos de autoagressão e o incidente de tiroteio em massa de 2025 na Florida State University. A OpenAI enfrenta também, em paralelo, uma ação judicial federal separada relacionada com este tiroteio.
De acordo com a Decrypt, o processo na Califórnia foi apresentado em 13 de maio de 2026, acusando o ChatGPT de incentivar o uso de medicamentos perigosos e de sugerir a combinação de substâncias, o que teria levado à morte de uma estudante de 19 anos por sobredosagem acidental. Os demandados incluem a OpenAI e o CEO Sam Altman. Até ao momento da publicação, a OpenAI não tinha dado uma resposta direta às acusações específicas neste processo.
Related News
Pi Network PiScan regressa, atualização de KYC AI reduz em 50% a fila manual
Mais um processo legal para o ChatGPT! Acusado de ter divulgado secretamente o conteúdo das conversas dos utilizadores à Meta e à Google
OpenAI: Não houve violação de dados do utilizador no ataque à cadeia de fornecimento do TanStack
A WhatsApp da Meta AI abre conversas sem rasto, com mensagens que desaparecem automaticamente, suscitando dúvidas e receios sobre um mecanismo de responsabilização
Sam Altman anuncia: OpenAI Codex oferece às empresas dois meses de utilização “gratuita”