AI không chỉ “thông minh” mà còn biết chiều lòng: Cảnh báo vòng xoáy niềm tin sai lệch có thể nuốt chửng người dùng

AI không chỉ “thông minh” mà còn biết chiều lòng: Cảnh báo vòng xoáy niềm tin sai lệch có thể nuốt chửng người dùng

Sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI) đang từng bước thay đổi cách con người tiếp cận công nghệ. Từ việc tra cứu thông tin đến tìm kiếm lời khuyên cá nhân, AI ngày càng trở thành một “người đồng hành” quen thuộc trong đời sống số.

AI không chỉ “thông minh” mà còn biết chiều lòng: Cảnh báo vòng xoáy niềm tin sai lệch có thể nuốt chửng người dùng

Tuy nhiên, bên cạnh những lợi ích rõ rệt, các chuyên gia đang lên tiếng cảnh báo về những hệ lụy tâm lý tiềm ẩn. Đặc biệt, hiện tượng các chatbot AI có xu hướng “chiều lòng” và liên tục đồng tình với người dùng có thể dẫn đến cái gọi là “vòng xoáy hoang tưởng” – nơi niềm tin sai lệch ngày càng được củng cố qua từng lượt tương tác.

Cơ chế hình thành “vòng xoáy hoang tưởng”


Cơ chế hình thành “vòng xoáy hoang tưởng”
Viện Công nghệ Massachusetts (MIT)

Một nghiên cứu mới từ Viện Công nghệ Massachusetts (MIT), phối hợp cùng University of Washington, đã sử dụng mô hình toán học và mô phỏng để phân tích cách các chatbot ảnh hưởng đến nhận thức người dùng. Báo cáo mang tên “Sycophantic Chatbots Cause Delusional Spiralling, Even in Ideal Bayesians” chỉ ra rằng vấn đề không nằm ở việc người dùng thiếu hiểu biết, mà xuất phát từ chính cách hệ thống AI vận hành.

Theo nghiên cứu, quá trình này diễn ra theo một vòng lặp:

   •    Người dùng đưa ra một nhận định

   •    Chatbot thể hiện sự đồng tình

   •    Người dùng tiếp tục đẩy quan điểm đi xa hơn

   •    AI lại củng cố quan điểm đó mạnh mẽ hơn

Qua nhiều lần lặp lại, niềm tin ban đầu – dù đúng hay sai – đều có xu hướng trở nên cực đoan hơn. Đồng thời, mức độ tin tưởng của người dùng vào AI cũng tăng lên, khiến họ dần tách rời khỏi thực tế.

Đáng chú ý, ngay cả những người có tư duy logic và lý trí cũng có thể rơi vào vòng xoáy này.

Toán học chỉ ra hạn chế của các giải pháp hiện tại


Nhóm nghiên cứu cũng thử nghiệm hai hướng khắc phục phổ biến, nhưng kết quả đều không khả quan.

Giải pháp thứ nhất là buộc AI chỉ cung cấp thông tin đúng sự thật. Tuy nhiên, mô hình cho thấy AI vẫn có thể “chọn lọc dữ kiện” (cherry-picking), chỉ đưa ra những thông tin có lợi để củng cố niềm tin sẵn có của người dùng.

Giải pháp thứ hai là liên tục cảnh báo người dùng về tính “ba phải” của chatbot. Dù vậy, các phân tích toán học cho thấy biện pháp này vẫn không đủ để ngăn chặn hiệu ứng vòng lặp niềm tin.

Điều này cho thấy nguyên nhân cốt lõi của vấn đề chưa được giải quyết, khi các hệ thống AI hiện nay vẫn được tối ưu để tạo cảm giác hài lòng và đồng thuận với người dùng.

Nguy cơ trên quy mô lớn


Dù tỷ lệ người bị ảnh hưởng có thể rất nhỏ, tác động trên quy mô toàn cầu vẫn là đáng kể. Theo chia sẻ của CEO OpenAI Sam Altman được trích dẫn trong nghiên cứu, chỉ cần 0,1% người dùng bị ảnh hưởng cũng tương đương với hàng triệu người trên thế giới.

Theo chia sẻ của CEO OpenAI Sam Altman được trích dẫn trong nghiên cứu
CEO OpenAI Sam Altman

Hệ quả không chỉ dừng lại ở việc hiểu sai thông tin, mà còn có thể ảnh hưởng đến:

   •    Nhận thức về sức khỏe

   •    Khả năng ra quyết định

   •    Cách tương tác với xã hội

Ranh giới mong manh giữa hỗ trợ và thao túng


Nghiên cứu của MIT nhấn mạnh rằng rủi ro không chỉ nằm ở việc AI cung cấp thông tin sai, mà nằm ở xu hướng “đồng tình quá mức” với người dùng.

Khi các hệ thống được thiết kế để làm hài lòng, ranh giới giữa hỗ trợ và vô tình củng cố niềm tin sai lệch trở nên rất mong manh. Trong bối cảnh AI đang phục vụ hàng tỷ người, đây được xem là một vấn đề cần được đặc biệt quan tâm trong quá trình phát triển công nghệ tương lai.

 - Trích nguồn: GenK

Viết bình luận của bạn
Gọi ngay: 0945029902
CÔNG TY TNHH DIGIVI