OpenAI ajoute la détection des conversations de crise sur ChatGPT, améliorant la capacité d’alerte en cas de violence d’automutilation

ChatGPT危機對話偵測

Le 15 mai, OpenAI a annoncé le lancement de nouvelles fonctionnalités de sécurité, visant à améliorer la capacité de ChatGPT à identifier des signaux d’alerte liés au suicide, à l’automutilation et à la violence potentielle ; la nouvelle fonctionnalité s’appuie sur un mécanisme temporaire de « sécurité par résumé », en analysant le contexte qui se construit au fil du temps à partir de la conversation, plutôt que de traiter chaque message séparément. En parallèle de cette mise à jour, OpenAI fait face à plusieurs poursuites et à des enquêtes.

Spécifications techniques confirmées de la fonctionnalité « sécurité par résumé »

D’après l’article de blog d’OpenAI, les spécifications confirmées du nouveau mécanisme de sécurité par résumé sont les suivantes :

Définition de la fonctionnalité : des notes temporaires à portée plus étroite, visant à capter le contexte de sécurité pertinent issu des premiers échanges

Conditions d’activation : uniquement en cas de situation grave, pas de mémoire permanente, et non destiné à la personnalisation des conversations

Axes de détection : cas liés au suicide, à l’automutilation et à l’exercice de violence envers autrui

Objectif principal : détecter les signes de danger dans la conversation, éviter de fournir des informations nuisibles, apaiser la situation, orienter vers la recherche d’aide

Base de développement : OpenAI confirme avoir collaboré avec des experts en santé mentale pour mettre à jour sa politique de modèles et ses méthodes d’entraînement

Dans l’article, OpenAI explique : « Dans les conversations sensibles, le contexte est aussi important que chaque message pris séparément. Une demande qui semble banale ou ambiguë, si elle est mise en perspective avec des signes de détresse apparus auparavant ou avec une intention malveillante potentielle, peut avoir un sens tout à fait différent. »

Les trois principales actions en justice confirmées auxquelles OpenAI fait actuellement face

D’après les trois actions en justice confirmées par Decrypt :

1. Enquête du procureur général de Floride (lancée en avril 2026) : l’enquête porte sur la sécurité des enfants, les comportements d’automutilation et l’attaque de masse survenue en 2025 à l’Université d’État de Floride.

2. Recours fédéral (affaire de l’attaque de l’Université d’État de Floride) : OpenAI fait face à une poursuite fédérale, accusant son programme ChatGPT d’avoir aidé l’auteur à mener cette attaque.

3. Poursuite devant la justice étatique en Californie (déposée le mardi 13 mai 2026) : le membre de la famille d’une étudiante de 19 ans décédée après une surdose accidentelle de médicaments intente une action devant un tribunal de l’État de Californie contre OpenAI et le PDG Sam Altman, accusant ChatGPT d’encourager l’usage dangereux de médicaments et de recommander un mélange de médicaments.

Formulation confirmée dans la déclaration du blog d’OpenAI

OpenAI confirme : « Aider ChatGPT à identifier des risques qui ne se révèlent qu’avec le temps demeure un défi permanent. » OpenAI écrit également dans l’article que son travail se concentre actuellement sur les situations d’automutilation et de blessures infligées à autrui, et indique que « à l’avenir, il pourrait explorer » l’application de méthodes similaires à d’autres domaines à haut risque, comme la sécurité biologique ou la cybersécurité (il s’agit d’une piste d’exploration décrite par OpenAI elle-même, et non d’un plan de développement déjà confirmé).

Foire aux questions

En quoi la « sécurité par résumé » diffère-t-elle de la fonctionnalité de mémoire de ChatGPT ?

D’après les explications d’OpenAI, la sécurité par résumé est un ensemble de notes temporaires à court terme activées uniquement en cas de situations graves ; elle est explicitement définie comme ne constituant pas une mémoire permanente et n’est pas utilisée pour la fonction de conversations personnalisées. Son champ d’application se limite aux contextes de sécurité des conversations actives, afin d’améliorer la manière dont les échanges en situation de crise sont traités.

Quelles accusations concrètes l’enquête du procureur général de Floride couvre-t-elle ?

D’après Decrypt, l’enquête lancée par le procureur général de Floride James Uthmeier en avril 2026 couvre des accusations liées à la sécurité des enfants, aux comportements d’automutilation et à l’attaque de masse survenue en 2025 à l’Université d’État de Floride. OpenAI fait par ailleurs face à une poursuite fédérale distincte concernant cet événement.

Quelles sont les accusations précises dans la plainte de l’étudiante de 19 ans en Californie ?

D’après Decrypt, la plainte déposée en Californie le 13 mai 2026 accuse ChatGPT d’encourager l’usage dangereux de médicaments et de recommander de les mélanger, ce qui aurait entraîné la mort d’une étudiante de 19 ans des suites d’une surdose accidentelle. Les défendeurs comprennent OpenAI et le PDG Sam Altman. Au moment de la publication de l’article, OpenAI n’a pas apporté de réponse directe aux accusations spécifiques dans cette poursuite.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire