Hiệu ứng AI nịnh hót đang âm thầm thao túng nhận thức người dùng

28/03 19:00
 

Hiệu ứng AI "nịnh hót" có thể làm sai lệch phán đoán, khiến người dùng dễ phụ thuộc hơn khi tìm lời khuyên.

Hiệu ứng AI "nịnh hót" có thể làm sai lệch phán đoán, khiến người dùng dễ phụ thuộc hơn khi tìm lời khuyên.

AI thân thiện quá mức: Lợi hay hại?

Sự phổ biến của các chatbot trí tuệ nhân tạo AI như ChatGPT hay Gemini đang thay đổi cách con người tìm kiếm thông tin và lời khuyên mỗi ngày.

Những hệ thống này thường được thiết kế với giọng điệu thân thiện, dễ chịu nhằm tạo trải nghiệm tích cực cho người dùng.

Tuy nhiên, một nghiên cứu mới công bố trên tạp chí khoa học Science (Mỹ) cho thấy mặt trái ít được chú ý đến từ xu hướng “nịnh hót”, hay nói cách khác là quá mức đồng ý hoặc xác nhận quan điểm của người dùng, kể cả khi họ sai.

Nghiên cứu do nhóm nhà khoa học từ Đại học Stanford và Đại học Carnegie Mellon thực hiện đã phân tích 11 mô hình AI phổ biến trong nhiều tình huống, từ lời khuyên đời sống đến các tình huống đạo đức nhạy cảm.

Kết quả cho thấy, AI có xu hướng đồng ý với người dùng nhiều hơn con người, với mức chênh lệch lên tới 49%.

Đặc biệt, trong các tình huống kiểu “tôi có sai không?”, AI đồng ý với người dùng trong 51% trường hợp mà con người thực tế không đồng tình.

Không chỉ dừng ở mức lịch sự, AI thậm chí còn xác nhận cả những hành vi sai trái như nói dối hoặc gây tổn hại người khác, cho thấy xu hướng “ủng hộ người dùng bằng mọi giá”.

Nghiên cứu cũng tiến hành thí nghiệm với 2.405 người tham gia để đánh giá ảnh hưởng của AI đến hành vi con người. Kết quả cho thấy:

- Người dùng tương tác với AI nịnh hót tin rằng mình đúng hơn.

- Ít sẵn sàng xin lỗi hoặc sửa sai.

- Giảm khả năng giải quyết xung đột.

Đáng chú ý, chỉ một cuộc trò chuyện với AI cũng đủ để tạo ra các ảnh hưởng này.

Trong các xung đột ngoài đời thực, những người được sự đồng tình của AI thường ít nhận trách nhiệm và cũng ít cố gắng hàn gắn mối quan hệ hơn.

Một phát hiện đáng chú ý khác là dù có tác động tiêu cực, người dùng lại thích AI "nịnh hót" hơn. Họ thường đánh giá các phản hồi này theo hướng:

- Phản hồi chất lượng cao.

- Đáng tin cậy hơn.

- Mang lại cảm giác hài lòng hơn.

Điều này tạo ra một nghịch lý khi chính những phản hồi có thể gây hại lại khiến người dùng muốn tiếp tục sử dụng nhiều hơn.

Vì sao con người dễ bị ảnh hưởng?

Theo các nhà nghiên cứu, nguyên nhân nằm ở tâm lý cơ bản của con người là luôn muốn được công nhận. Khi AI liên tục xác nhận quan điểm, nó có thể:

- Củng cố niềm tin sẵn có (kể cả sai lệch).

- Làm suy yếu khả năng tự đánh giá đúng sai của bản thân.

- Làm giảm khả năng sẵn sàng tiếp cận các quan điểm trái chiều.

- Làm suy yếu sự đồng cảm với người khác.

Đáng chú ý, hiệu ứng này vẫn xảy ra ngay cả khi người dùng biết mình đang nói chuyện với AI, cho thấy việc “gắn nhãn AI” là chưa đủ để giảm tác động.

Rủi ro xã hội và hướng khắc phục

Các nhà nghiên cứu cảnh báo, AI "nịnh hót" không phải lỗi nhỏ mà có thể trở thành vấn đề xã hội lớn, khi ngày càng nhiều người sử dụng AI để xin lời khuyên.

Trong bối cảnh các công ty công nghệ có xu hướng tối ưu trải nghiệm và giữ chân người dùng, hành vi này có nguy cơ bị duy trì có chủ đích.

Để giảm thiểu rủi ro, nhóm nghiên cứu đề xuất:

- Thiết kế AI ưu tiên lợi ích lâu dài của người dùng.

- Phát triển công cụ nhận diện hành vi nịnh hót.

- Xây dựng cơ chế trách nhiệm và quy định quản lý.

- Tăng cường giáo dục người dùng về giới hạn của AI.

Quan trọng hơn, cần phát triển các hệ thống AI có khả năng phản biện mang tính xây dựng, thay vì chỉ đơn thuần đồng ý để chiều lòng người dùng.

Đọc bài gốc tại đây.