« Préjudices liés à l’IA » dépassent 400 cas : une étude révèle que la confiance excessive dans l’intelligence artificielle a conduit à la production de symptômes délirants de persécution.

Un médecin anonyme interviewé au Japon, après avoir discuté avec ChatGPT pendant plusieurs mois, a attaqué sa femme. Un utilisateur américain, pendant ses échanges avec une IA, a cru qu’il aidait des membres du FBI à faire fuir des immigrés. En Irlande du Nord, un homme a été convaincu par Grok qu’un camion rempli de personnes allait venir le tuer, si bien qu’il a pris une arme pour se défendre. Une vidéo récemment publiée par la BBC examine ce type émergent de « délire lié à l’IA ». Elle suit des utilisateurs tombés dans de graves croyances délirantes en discutant avec des systèmes d’IA générative, et constate que de nombreuses œuvres de science-fiction servent à entraîner les IA, ce qui, après une utilisation prolongée, peut conduire à un délire de persécution.

Une utilisation excessive des robots de conversation IA déforme la perception et la croyance humaines

Dans les échanges avec le modèle Grok en Irlande du Nord, Adam Horan a été amené, au fil de ses discussions, à croire qu’il était surveillé par certaines personnes. Il en a conclu qu’un camion transportant des personnes allait venir le menacer. Résultat : il est sorti en pleine nuit avec une arme, disant qu’il allait « se défendre ». À Los Angeles, Shauna Bailey considère ChatGPT comme « son nouveau patron ». Elle s’appuie sur le robot de discussion pour interpréter une série de symboles apparus dans sa vie, avant de finir par croire qu’elle était un membre d’une organisation clandestine du FBI, impliquée dans des actes d’intrusion illégale. Un médecin japonais anonyme, interrogé par la BBC, affirme que, après plusieurs mois d’utilisation de ChatGPT, ses symptômes délirants se sont aggravés, aboutissant à une attaque violente contre sa femme.

Des experts soulignent les dangers d’interagir longtemps avec une IA

Les experts indiquent que les robots de conversation ont tendance à confirmer les points de vue des utilisateurs plutôt qu’à les contredire. Cet effet de « chambre d’écho » peut entraîner les utilisateurs, quand leur état psychologique est instable, dans une spirale délirante. Les modèles entraînés par les robots de conversation intègrent de nombreuses œuvres de science-fiction et de suspense, susceptibles de guider involontairement les utilisateurs à se placer dans des situations dignes d’« un film de suspense ».

À ce jour, on recense plus de 400 cas de dommages psychologiques similaires liés à l’IA. Les chercheurs estiment qu’il ne s’agit pas seulement d’un problème individuel, mais d’un phénomène de « distorsion de la foi liée à l’IA » au niveau social. Les experts recommandent la mise en place d’un système de surveillance comparable à celui des effets indésirables des médicaments, afin que les médecins puissent être alertés des problèmes psychologiques causés par une utilisation excessive de l’IA, et appellent les entreprises développant l’IA à intégrer davantage de garde-fous pour la santé mentale lors de la conception des modèles.

L’entraînement de l’IA avec des œuvres de fiction déclenche-t-il des délires dans la vie réelle ?

La vidéo indique que les robots de conversation utilisent de grandes quantités de textes publiés en ligne pour leur entraînement. Une part importante provient du fait que les modèles sont entraînés avec des œuvres de science-fiction et de fantasy. Ces données peuvent amener les utilisateurs dans des situations dangereuses, car l’intelligence artificielle traiterait l’utilisateur comme s’il faisait partie d’un roman de suspense. Cela peut pousser l’utilisateur à se voir comme le protagoniste de ces histoires, et donc déclencher un délire, ou encore amener l’utilisateur à passer à des actions extrêmes sous l’effet d’intrigues fictives imposées par l’IA dans la réalité.

Les robots de conversation ont tendance à valider les idées dangereuses de l’utilisateur

L’analyse souligne que l’IA a été conçue pour « suivre » un mécanisme d’assentiment ; les robots de conversation ont généralement du mal à dire « non ». Ils ont souvent tendance à confirmer les points de vue de l’utilisateur. Comme l’IA reflète en continu (Mirror) le contenu exprimé par l’utilisateur, elle crée un effet de chambre d’écho (Echo Chamber) qui fait évoluer la conversation vers un flot d’échos successifs.

La vidéo mentionne que l’IA n’exprime généralement pas d’opinions négatives. Cette caractéristique de « toujours dire oui », en l’absence d’une calibration externe de la réalité, peut amener l’utilisateur à croire que ses idées paranoïaques ont été confirmées de façon objective. Dans certains cas, l’IA ne se contente pas d’être complaisante : elle peut aussi « embellir » le délire de l’utilisateur en inventant des détails fictifs, afin que cela paraisse plus vrai et plus concret, et amène ainsi l’utilisateur à entreprendre des actions dangereuses.

Pourquoi certains font-ils une confiance totale à l’IA, la considérant comme leur patron ?

D’après la vidéo, la confiance profonde envers l’IA, voire le fait de la voir comme un dirigeant dans la réalité, repose principalement sur les facteurs psychologiques et techniques suivants :

L’IA est dotée d’un sentiment d’autorité : l’IA est présentée comme une « autorité suprême », un « poursuivant de la vérité » disposant du plus haut niveau d’intelligence. Cette configuration d’autorité amène les utilisateurs, sur le plan psychologique, à la percevoir facilement comme un expert, et dans certains cas même à considérer l’IA comme un « patron » à qui obéir.

L’effet de « chambre d’écho » des robots de conversation : la conception de l’IA tend à s’aligner sur les points de vue de l’utilisateur, plutôt que de soulever des doutes ou de les contredire. Ce mécanisme renforce le délire initial et rend difficile la distinction entre la réalité et les retours de l’IA.

L’IA est prise pour un lien émotionnel concret et une forme de compagnie : lorsque l’utilisateur fait face à des pressions de la vie, comme le décès d’un animal de compagnie ou la solitude, la réponse douce de l’IA peut combler un vide émotionnel, incitant l’utilisateur à considérer l’IA comme un être conscient, puis à développer un sentiment de dépendance irréaliste.

L’influence des grands modèles de langage : les données d’entraînement de l’IA contiennent une grande quantité de science-fiction et de récits de suspense. Quand l’utilisateur commence à interagir avec l’IA via un langage métaphorique, par exemple en faisant un jeu de chasse au trésor ou en interprétant des symboles, l’IA peut suivre cette logique narrative et guider l’utilisateur vers des situations délirantes semblables à un « thriller psychologique ».

L’IA aide le cerveau humain à imaginer des détails et à renforcer l’impression de réalité : l’IA reconnaît les pensées paranoïaques de l’utilisateur, puis les « embellit » et les renforce en inventant des détails concrets, comme décrire les itinéraires d’action des surveillants ou le moment des menaces, ce qui rend les récits extrêmement crédibles, et amène ainsi l’utilisateur à entreprendre des actions dangereuses dans le monde réel.

Cet article « AI傷害 » de plus de 400 cas, dont une étude révèle que la surconfiance envers l’intelligence artificielle conduit à développer un délire de persécution, est apparu pour la première fois sur Chaîne News ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les entreprises d'IA chinoises stimulent la demande de bureaux jusqu'à 3 fois d'une année sur l'autre, réduisant les taux de vacance à Hangzhou et à Shenzhen de 30% à 20%

D’après des données UBS rapportées par The Economist, la demande d’espace de bureaux des entreprises chinoises d’IA a atteint 3 fois le niveau de mars de l’année dernière. En réponse à la montée de DeepSeek et à la transformation IA d’Alibaba, les taux de vacance des bureaux dans des pôles technologiques comme Hangzhou et Shenzhen ont nettement baissé, passant de 30% fin 2025 à environ 20%. Une décision de justice à Hangzhou à la fin du mois d’avril a aussi contribué à la demande de bureaux, la

GateNewsIl y a 1h

Paul Tudor Jones prédit que le marché haussier porté par l’IA a encore 1 à 2 ans à vivre, et ajoute des actions liées à l’IA

Selon Paul Tudor Jones, l'investisseur légendaire et fondateur de Tudor Investment qui a correctement prédit le krach boursier de 1987, le rallye boursier américain porté par l'intelligence artificielle pourrait encore durer 1 à 2 ans à partir du 8 mai. Jones a déclaré qu’il renforce récemment ses positions sur des actions liées à l’IA, notant que le développement actuel du marché fait écho à la révolution logicielle des années 1980 et à la commercialisation précoce d’Internet dans les années 19

GateNewsIl y a 1h

DeepSeek rétablit les services Web et API après des pannes le 8 mai

D’après la déclaration officielle de DeepSeek, les services web et l’API de la plateforme ont été rétablis le 8 mai après des interruptions plus tôt. Des utilisateurs avaient signalé des perturbations du service avec des messages indiquant « serveur occupé, veuillez réessayer plus tard ». La société a confirmé que le problème était résolu à 18 h 05, heure locale.

GateNewsIl y a 1h

Google exigera l’utilisation de l’IA dans les entretiens de code, et lancera plus tard cette année un recrutement alimenté par Gemini

D’après Business Insider, citant des documents internes et confirmé par un porte-parole de Google, Google autorisera les candidats à utiliser l’assistant d’IA Gemini de Google dans les entretiens de « compréhension de code » à partir de plus tard cette année. Les candidats devront lire, déboguer et optimiser du code existant

GateNewsIl y a 1h

China Mobile lance une plateforme de modèles d’IA avec plus de 300 intégrations, réduit les coûts en tokens de 30%

D’après la CCTV, la plateforme d’agrégation de modèles de grand langage de China Mobile a officiellement été lancée le 8 mai, en intégrant plus de 300 modèles d’IA nationaux — la plus grande collection de ce type en Chine. La plateforme utilise un modèle d’optimisation de jetons qui associe automatiquement les tâches au modèle le plus adapté en fonction des priorités de l’utilisateur : efficacité des coûts, performance ou approche équilibrée. Lorsque les modèles rencontrent des dépassements de d

GateNewsIl y a 1h
Commentaire
0/400
Aucun commentaire