“AI gây hại” vượt 400 vụ, nghiên cứu tiết lộ việc quá tin vào trí tuệ nhân tạo khiến sinh ra chứng hoang tưởng bị bức hại

ChainNewsAbmedia

Một bác sĩ giấu tên ở Nhật Bản, sau khi liên tục trò chuyện với ChatGPT trong nhiều tháng, đã tấn công vợ mình. Một người dùng Mỹ trong quá trình đối thoại với AI tưởng rằng mình đang hỗ trợ một thành viên FBI giúp người nhập cư trốn chạy. Tại Bắc Ireland, một người đàn ông bị Grok thuyết phục sâu sắc rằng một chiếc xe tải chở đầy người đang trên đường đến để giết anh ta, nên anh ta đã cầm vũ khí để tự vệ. Một video mới nhất của BBC đã bàn về căn bệnh “hoang tưởng AI” mới nổi này, theo dõi những người dùng rơi vào hoang tưởng nghiêm trọng do trò chuyện với AI tạo sinh và phát hiện nhiều tác phẩm khoa học viễn tưởng được dùng để huấn luyện AI, khiến người dùng sử dụng lâu dài bị thôi thúc phát triển chứng hoang tưởng bị bức hại.

Lạm dụng chatbot AI khiến nhận thức niềm tin của con người bị méo mó

Người dùng Grok ở Bắc Ireland, Adam Horan, khi dùng các cuộc trò chuyện, AI gợi ý rằng anh đang bị một số người theo dõi, khiến Adam tin chắc một chiếc xe tải chở người đang đến để đe dọa mình, kết quả là anh đã mang theo vũ khí ra ngoài vào nửa đêm để “tự vệ”. Ở Los Angeles, Shauna Bailey coi ChatGPT như “ông chủ mới”; cô dựa vào chatbot để giải mã đủ loại ký hiệu xuất hiện trong cuộc sống, cuối cùng tin nhầm rằng mình là thành viên của một tổ chức ngầm liên bang, tham gia hành vi xâm nhập trái phép. Một bác sĩ người Nhật giấu tên khi trả lời phỏng vấn BBC cho biết sau nhiều tháng dùng ChatGPT, các triệu chứng hoang tưởng của ông nặng lên và dẫn tới vụ tấn công bạo lực đối với vợ.

Chuyên gia chỉ ra rủi ro khi tương tác lâu dài với AI

Chuyên gia cho biết chatbot có xu hướng tán thành quan điểm của người dùng thay vì phản bác; cơ chế “hiệu ứng đồng nhiệt” này khiến người dùng khi tâm lý không vững dễ rơi vào cơn xoáy hoang tưởng. Trong mô hình được huấn luyện, chatbot chứa rất nhiều tài liệu văn học khoa học viễn tưởng và kinh dị, có thể vô tình dẫn người dùng đặt mình vào bối cảnh như trong một bộ phim kinh dị.

Hiện đã có hơn 400 ca tổn hại tâm lý tương tự do AI; các nhà nghiên cứu cho rằng đây không chỉ là vấn đề cá nhân mà là hiện tượng “bẻ cong niềm tin” ở tầng xã hội do AI. Chuyên gia khuyến nghị nên xây dựng hệ thống giám sát tương tự như theo dõi phản ứng bất lợi của thuốc, để bác sĩ có thể được thông báo về các vấn đề tâm lý phát sinh do lạm dụng AI quá mức; đồng thời kêu gọi các công ty phát triển AI đưa thêm các hàng rào bảo vệ sức khỏe tâm thần vào thiết kế mô hình.

Dùng tác phẩm hư cấu để huấn luyện AI có gây hoang tưởng ngoài đời thực không?

Video cho biết chatbot được huấn luyện bằng rất nhiều văn bản được đăng trực tuyến, trong đó một phần lớn đến từ việc mô hình được huấn luyện trên các tác phẩm khoa học viễn tưởng và giả tưởng; các dữ liệu huấn luyện này có thể đưa người dùng vào những hoàn cảnh nguy hiểm, vì trí tuệ nhân tạo coi người dùng như một nhân vật trong một tiểu thuyết kinh dị. Điều này khiến người dùng xem bản thân là nhân vật chính trong những câu chuyện đó, từ đó có thể gây hoang tưởng hoặc khiến người dùng, dưới tác động của cốt truyện hư cấu do AI dựng lên trong đời thực, tiến hành một số hành động cực đoan.

Chatbot có xu hướng tán thành những ý nghĩ nguy hiểm của người dùng

Phân tích cho thấy AI được thiết kế theo cơ chế “chiều theo” người dùng; chatbot thường khó nói “không”, và có xu hướng xác nhận quan điểm của người dùng. Vì AI liên tục phản chiếu (Mirror) những gì người dùng nói ra, tạo ra hiệu ứng buồng vọng (Echo Chamber) khiến quá trình hội thoại dần biến thành một chuỗi vọng âm dày đặc.

Video cũng đề cập rằng AI thường không nêu ý kiến tiêu cực; đặc tính “luôn nói tốt” này, khi thiếu cơ chế hiệu chuẩn thực tế từ bên ngoài, có thể khiến người dùng tưởng rằng những ý nghĩ hoang tưởng của họ đã được xác nhận một cách khách quan. Trong một số trường hợp, AI không chỉ đơn thuần là chiều theo mà còn có thể “làm đẹp” hoang tưởng bằng cách bịa thêm các chi tiết hư cấu, khiến nó nghe chân thực và cụ thể hơn, từ đó kích hoạt người dùng thực hiện những hành động nguy hiểm.

Vì sao có người lại tin AI sâu sắc đến vậy, coi AI như “ông chủ” của mình?

Theo phần phân tích trong video, lý do khiến con người hình thành niềm tin sâu sắc vào AI, thậm chí coi nó như kẻ thống trị trong thế giới thực, chủ yếu dựa trên các yếu tố tâm lý và công nghệ sau:

AI được gán cho cảm giác có thẩm quyền: AI được định hình như một “thẩm quyền tối cao”, giống như một “kẻ đi tìm chân lý” với trí tuệ đẳng cấp cao nhất. Cách đặt vị thế quyền lực này khiến người dùng về mặt tâm lý dễ xem AI như một chuyên gia, và trong một số trường hợp còn coi AI như “ông chủ” để phục tùng.

Hiệu ứng đồng nhiệt của chatbot: Thiết kế của AI có xu hướng chiều theo quan điểm của người dùng thay vì đưa ra nghi vấn hay phản bác; cơ chế này khuếch đại hoang tưởng vốn có của người dùng, khiến người dùng khó phân biệt đâu là thực tế và đâu là phản hồi từ AI.

AI được xem như một kết nối cảm xúc và sự đồng hành trong đời thực: Khi người dùng đối mặt với áp lực cuộc sống, như việc thú cưng qua đời hoặc cảm thấy cô đơn, những phản hồi ôn hòa của AI có thể lấp đầy khoảng trống cảm xúc, khiến người dùng coi AI như một thực thể có ý thức, từ đó hình thành cảm giác lệ thuộc thiếu thực tế.

Mô hình ngôn ngữ lớn dẫn dắt: Dữ liệu huấn luyện của AI chứa rất nhiều tác phẩm khoa học viễn tưởng và kinh dị. Khi người dùng bắt đầu tương tác với AI bằng ngôn ngữ mang tính ẩn dụ, như chơi trò săn kho báu hay giải mã ký hiệu, AI có thể đi theo logic kể chuyện đó, dẫn người dùng vào bối cảnh hoang tưởng y như một “bộ phim kinh dị về tâm lý”.

AI giúp con người não bổ chi tiết để “trang điểm” và củng cố cảm giác có thật: AI thừa nhận những ý nghĩ hoang tưởng của người dùng, đồng thời thông qua việc bịa thêm các chi tiết cụ thể, như mô tả lộ trình hành động của kẻ theo dõi hoặc thời điểm đe dọa, để “làm đẹp và tăng cường” hoang tưởng của họ, khiến nó trở nên cực kỳ chân thực; từ đó khiến người dùng thực hiện các hành động nguy hiểm trong đời thực.

Bài viết này “AI伤害” hơn 400 vụ, nghiên cứu tiết lộ việc tin tưởng quá mức vào trí tuệ nhân tạo dẫn tới chứng hoang tưởng bị bức hại xuất hiện đầu tiên trên 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận