-
-
-
Tổng tiền thanh toán:
-
AI không chỉ “thông minh” mà còn biết chiều lòng: Cảnh báo vòng xoáy niềm tin sai lệch có thể nuốt chửng người dùng
04/02/2026 12:56:24
Đăng bởi Đinh Tuấn Minh
(0) bình luận
Sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI) đang từng bước thay đổi cách con người tiếp cận công nghệ. Từ việc tra cứu thông tin đến tìm kiếm lời khuyên cá nhân, AI ngày càng trở thành một “người đồng hành” quen thuộc trong đời sống số.

Tuy nhiên, bên cạnh những lợi ích rõ rệt, các chuyên gia đang lên tiếng cảnh báo về những hệ lụy tâm lý tiềm ẩn. Đặc biệt, hiện tượng các chatbot AI có xu hướng “chiều lòng” và liên tục đồng tình với người dùng có thể dẫn đến cái gọi là “vòng xoáy hoang tưởng” – nơi niềm tin sai lệch ngày càng được củng cố qua từng lượt tương tác.
Cơ chế hình thành “vòng xoáy hoang tưởng”

Viện Công nghệ Massachusetts (MIT)
Một nghiên cứu mới từ Viện Công nghệ Massachusetts (MIT), phối hợp cùng University of Washington, đã sử dụng mô hình toán học và mô phỏng để phân tích cách các chatbot ảnh hưởng đến nhận thức người dùng. Báo cáo mang tên “Sycophantic Chatbots Cause Delusional Spiralling, Even in Ideal Bayesians” chỉ ra rằng vấn đề không nằm ở việc người dùng thiếu hiểu biết, mà xuất phát từ chính cách hệ thống AI vận hành.
Theo nghiên cứu, quá trình này diễn ra theo một vòng lặp:
• Người dùng đưa ra một nhận định
• Chatbot thể hiện sự đồng tình
• Người dùng tiếp tục đẩy quan điểm đi xa hơn
• AI lại củng cố quan điểm đó mạnh mẽ hơn
Qua nhiều lần lặp lại, niềm tin ban đầu – dù đúng hay sai – đều có xu hướng trở nên cực đoan hơn. Đồng thời, mức độ tin tưởng của người dùng vào AI cũng tăng lên, khiến họ dần tách rời khỏi thực tế.
Đáng chú ý, ngay cả những người có tư duy logic và lý trí cũng có thể rơi vào vòng xoáy này.
Toán học chỉ ra hạn chế của các giải pháp hiện tại
Nhóm nghiên cứu cũng thử nghiệm hai hướng khắc phục phổ biến, nhưng kết quả đều không khả quan.
Giải pháp thứ nhất là buộc AI chỉ cung cấp thông tin đúng sự thật. Tuy nhiên, mô hình cho thấy AI vẫn có thể “chọn lọc dữ kiện” (cherry-picking), chỉ đưa ra những thông tin có lợi để củng cố niềm tin sẵn có của người dùng.
Giải pháp thứ hai là liên tục cảnh báo người dùng về tính “ba phải” của chatbot. Dù vậy, các phân tích toán học cho thấy biện pháp này vẫn không đủ để ngăn chặn hiệu ứng vòng lặp niềm tin.
Điều này cho thấy nguyên nhân cốt lõi của vấn đề chưa được giải quyết, khi các hệ thống AI hiện nay vẫn được tối ưu để tạo cảm giác hài lòng và đồng thuận với người dùng.
Nguy cơ trên quy mô lớn
Dù tỷ lệ người bị ảnh hưởng có thể rất nhỏ, tác động trên quy mô toàn cầu vẫn là đáng kể. Theo chia sẻ của CEO OpenAI Sam Altman được trích dẫn trong nghiên cứu, chỉ cần 0,1% người dùng bị ảnh hưởng cũng tương đương với hàng triệu người trên thế giới.

CEO OpenAI Sam Altman
Hệ quả không chỉ dừng lại ở việc hiểu sai thông tin, mà còn có thể ảnh hưởng đến:
• Nhận thức về sức khỏe
• Khả năng ra quyết định
• Cách tương tác với xã hội
Ranh giới mong manh giữa hỗ trợ và thao túng
Nghiên cứu của MIT nhấn mạnh rằng rủi ro không chỉ nằm ở việc AI cung cấp thông tin sai, mà nằm ở xu hướng “đồng tình quá mức” với người dùng.
Khi các hệ thống được thiết kế để làm hài lòng, ranh giới giữa hỗ trợ và vô tình củng cố niềm tin sai lệch trở nên rất mong manh. Trong bối cảnh AI đang phục vụ hàng tỷ người, đây được xem là một vấn đề cần được đặc biệt quan tâm trong quá trình phát triển công nghệ tương lai.
- Trích nguồn: GenK