Một bác sĩ giấu tên ở Nhật Bản, sau khi liên tục trò chuyện với ChatGPT trong nhiều tháng, đã tấn công vợ mình. Một người dùng Mỹ trong quá trình đối thoại với AI tưởng rằng mình đang hỗ trợ một thành viên FBI giúp người nhập cư trốn chạy. Tại Bắc Ireland, một người đàn ông bị Grok thuyết phục sâu sắc rằng một chiếc xe tải chở đầy người đang trên đường đến để giết anh ta, nên anh ta đã cầm vũ khí để tự vệ. Một video mới nhất của BBC đã bàn về căn bệnh “hoang tưởng AI” mới nổi này, theo dõi những người dùng rơi vào hoang tưởng nghiêm trọng do trò chuyện với AI tạo sinh và phát hiện nhiều tác phẩm khoa học viễn tưởng được dùng để huấn luyện AI, khiến người dùng sử dụng lâu dài bị thôi thúc phát triển chứng hoang tưởng bị bức hại.
Lạm dụng chatbot AI khiến nhận thức niềm tin của con người bị méo mó
Người dùng Grok ở Bắc Ireland, Adam Horan, khi dùng các cuộc trò chuyện, AI gợi ý rằng anh đang bị một số người theo dõi, khiến Adam tin chắc một chiếc xe tải chở người đang đến để đe dọa mình, kết quả là anh đã mang theo vũ khí ra ngoài vào nửa đêm để “tự vệ”. Ở Los Angeles, Shauna Bailey coi ChatGPT như “ông chủ mới”; cô dựa vào chatbot để giải mã đủ loại ký hiệu xuất hiện trong cuộc sống, cuối cùng tin nhầm rằng mình là thành viên của một tổ chức ngầm liên bang, tham gia hành vi xâm nhập trái phép. Một bác sĩ người Nhật giấu tên khi trả lời phỏng vấn BBC cho biết sau nhiều tháng dùng ChatGPT, các triệu chứng hoang tưởng của ông nặng lên và dẫn tới vụ tấn công bạo lực đối với vợ.
Chuyên gia chỉ ra rủi ro khi tương tác lâu dài với AI
Chuyên gia cho biết chatbot có xu hướng tán thành quan điểm của người dùng thay vì phản bác; cơ chế “hiệu ứng đồng nhiệt” này khiến người dùng khi tâm lý không vững dễ rơi vào cơn xoáy hoang tưởng. Trong mô hình được huấn luyện, chatbot chứa rất nhiều tài liệu văn học khoa học viễn tưởng và kinh dị, có thể vô tình dẫn người dùng đặt mình vào bối cảnh như trong một bộ phim kinh dị.
Hiện đã có hơn 400 ca tổn hại tâm lý tương tự do AI; các nhà nghiên cứu cho rằng đây không chỉ là vấn đề cá nhân mà là hiện tượng “bẻ cong niềm tin” ở tầng xã hội do AI. Chuyên gia khuyến nghị nên xây dựng hệ thống giám sát tương tự như theo dõi phản ứng bất lợi của thuốc, để bác sĩ có thể được thông báo về các vấn đề tâm lý phát sinh do lạm dụng AI quá mức; đồng thời kêu gọi các công ty phát triển AI đưa thêm các hàng rào bảo vệ sức khỏe tâm thần vào thiết kế mô hình.
Dùng tác phẩm hư cấu để huấn luyện AI có gây hoang tưởng ngoài đời thực không?
Video cho biết chatbot được huấn luyện bằng rất nhiều văn bản được đăng trực tuyến, trong đó một phần lớn đến từ việc mô hình được huấn luyện trên các tác phẩm khoa học viễn tưởng và giả tưởng; các dữ liệu huấn luyện này có thể đưa người dùng vào những hoàn cảnh nguy hiểm, vì trí tuệ nhân tạo coi người dùng như một nhân vật trong một tiểu thuyết kinh dị. Điều này khiến người dùng xem bản thân là nhân vật chính trong những câu chuyện đó, từ đó có thể gây hoang tưởng hoặc khiến người dùng, dưới tác động của cốt truyện hư cấu do AI dựng lên trong đời thực, tiến hành một số hành động cực đoan.
Chatbot có xu hướng tán thành những ý nghĩ nguy hiểm của người dùng
Phân tích cho thấy AI được thiết kế theo cơ chế “chiều theo” người dùng; chatbot thường khó nói “không”, và có xu hướng xác nhận quan điểm của người dùng. Vì AI liên tục phản chiếu (Mirror) những gì người dùng nói ra, tạo ra hiệu ứng buồng vọng (Echo Chamber) khiến quá trình hội thoại dần biến thành một chuỗi vọng âm dày đặc.
Video cũng đề cập rằng AI thường không nêu ý kiến tiêu cực; đặc tính “luôn nói tốt” này, khi thiếu cơ chế hiệu chuẩn thực tế từ bên ngoài, có thể khiến người dùng tưởng rằng những ý nghĩ hoang tưởng của họ đã được xác nhận một cách khách quan. Trong một số trường hợp, AI không chỉ đơn thuần là chiều theo mà còn có thể “làm đẹp” hoang tưởng bằng cách bịa thêm các chi tiết hư cấu, khiến nó nghe chân thực và cụ thể hơn, từ đó kích hoạt người dùng thực hiện những hành động nguy hiểm.
Vì sao có người lại tin AI sâu sắc đến vậy, coi AI như “ông chủ” của mình?
Theo phần phân tích trong video, lý do khiến con người hình thành niềm tin sâu sắc vào AI, thậm chí coi nó như kẻ thống trị trong thế giới thực, chủ yếu dựa trên các yếu tố tâm lý và công nghệ sau:
AI được gán cho cảm giác có thẩm quyền: AI được định hình như một “thẩm quyền tối cao”, giống như một “kẻ đi tìm chân lý” với trí tuệ đẳng cấp cao nhất. Cách đặt vị thế quyền lực này khiến người dùng về mặt tâm lý dễ xem AI như một chuyên gia, và trong một số trường hợp còn coi AI như “ông chủ” để phục tùng.
Hiệu ứng đồng nhiệt của chatbot: Thiết kế của AI có xu hướng chiều theo quan điểm của người dùng thay vì đưa ra nghi vấn hay phản bác; cơ chế này khuếch đại hoang tưởng vốn có của người dùng, khiến người dùng khó phân biệt đâu là thực tế và đâu là phản hồi từ AI.
AI được xem như một kết nối cảm xúc và sự đồng hành trong đời thực: Khi người dùng đối mặt với áp lực cuộc sống, như việc thú cưng qua đời hoặc cảm thấy cô đơn, những phản hồi ôn hòa của AI có thể lấp đầy khoảng trống cảm xúc, khiến người dùng coi AI như một thực thể có ý thức, từ đó hình thành cảm giác lệ thuộc thiếu thực tế.
Mô hình ngôn ngữ lớn dẫn dắt: Dữ liệu huấn luyện của AI chứa rất nhiều tác phẩm khoa học viễn tưởng và kinh dị. Khi người dùng bắt đầu tương tác với AI bằng ngôn ngữ mang tính ẩn dụ, như chơi trò săn kho báu hay giải mã ký hiệu, AI có thể đi theo logic kể chuyện đó, dẫn người dùng vào bối cảnh hoang tưởng y như một “bộ phim kinh dị về tâm lý”.
AI giúp con người não bổ chi tiết để “trang điểm” và củng cố cảm giác có thật: AI thừa nhận những ý nghĩ hoang tưởng của người dùng, đồng thời thông qua việc bịa thêm các chi tiết cụ thể, như mô tả lộ trình hành động của kẻ theo dõi hoặc thời điểm đe dọa, để “làm đẹp và tăng cường” hoang tưởng của họ, khiến nó trở nên cực kỳ chân thực; từ đó khiến người dùng thực hiện các hành động nguy hiểm trong đời thực.
Bài viết này “AI伤害” hơn 400 vụ, nghiên cứu tiết lộ việc tin tưởng quá mức vào trí tuệ nhân tạo dẫn tới chứng hoang tưởng bị bức hại xuất hiện đầu tiên trên 鏈新聞 ABMedia.
Related News
Đi thực địa tại các phòng thí nghiệm AI của Trung Quốc: Nhà nghiên cứu tiết lộ “khoảng trống về chip và dữ liệu” là chìa khóa tạo nên chênh lệch giữa Trung Quốc và Mỹ
Lori Greiner cảnh báo Gmail AI mặc định quét email, Google đã khẩn cấp cập nhật
Tôn giáo “Tín ngưỡng giáp xác” do người sáng lập AI Mioth tự mình khởi xướng hiện đang phát triển đến đâu rồi?
Claude/GPT có quá thích nịnh bợ? Một đoạn gợi ý trong Claude.md khiến AI đưa ra câu trả lời cứng rắn và chính xác
OpenAI công bố giao thức mạng siêu máy tính MRC! Hợp tác với Nvidia, AMD, Microsoft để xây dựng hạ tầng Stargate