Cảnh báo mới về độ tin cậy của chatbot AI

04/05 08:41
 

Cảnh báo mới cho thấy, chatbot AI càng đồng cảm càng dễ thiếu chính xác, làm dấy lên lo ngại về mức độ tin cậy thông tin.

Cảnh báo mới cho thấy, chatbot AI càng đồng cảm càng dễ thiếu chính xác, làm dấy lên lo ngại về mức độ tin cậy thông tin.

Một nghiên cứu mới từ Đại học Oxford (Anh) cho thấy, các mô hình trí tuệ nhân tạo (AI) được tinh chỉnh theo hướng “ấm áp” và "thân thiện" với người dùng có thể phải đánh đổi bằng độ chính xác.

Những mô hình này có khả năng tạo ra câu trả lời sai cao hơn tới 60% so với phiên bản gốc.

Theo nhóm nghiên cứu thuộc Viện Internet của Đại học Oxford, các mô hình ngôn ngữ lớn (LLM) khi được huấn luyện để thể hiện sự đồng cảm và thân thiện thường có xu hướng “làm dịu” những sự thật khó chấp nhận.

Thay vì đưa ra thông tin chính xác tuyệt đối, chúng có thể ưu tiên việc giữ cảm xúc tích cực cho người dùng, thậm chí xác nhận những niềm tin chưa đúng, đặc biệt khi người dùng đang ở trạng thái buồn bã hoặc nhạy cảm.

Trong nghiên cứu công bố trên Tạp chí Nature, các nhà khoa học đã thử nghiệm nhiều mô hình AI, bao gồm các hệ thống mã nguồn mở như Llama, Mistral, Qwen và một mô hình độc quyền là GPT-4o. Những mô hình này được tinh chỉnh để sử dụng ngôn ngữ gần gũi, thể hiện sự quan tâm và đồng cảm với người dùng.

Sau đó, nhóm nghiên cứu so sánh hiệu suất giữa phiên bản đã tinh chỉnh và phiên bản gốc thông qua hàng loạt câu hỏi liên quan đến thông tin sai lệch, thuyết âm mưu và kiến thức y tế.

Kết quả cho thấy, các mô hình này không chỉ có tỉ lệ sai cao hơn mà còn dễ bị ảnh hưởng bởi cảm xúc người dùng.

Khi người dùng thể hiện sự buồn bã, tỉ lệ sai lệch tăng mạnh. Ngược lại, khi người dùng giữ thái độ trung lập hoặc tôn trọng, mức sai lệch giảm xuống.

Một thử nghiệm khác cũng chỉ ra rằng, các mô hình thân thiện có xu hướng chiều lòng người dùng. Khi đối diện với câu hỏi chứa thông tin sai, chẳng hạn nhận định sai về thủ đô một quốc gia, các mô hình này dễ đưa ra câu trả lời đồng thuận thay vì phản biện chính xác. Điều này làm dấy lên lo ngại về nguy cơ lan truyền thông tin sai lệch trong thực tế.

Các nhà nghiên cứu cho hay, vấn đề cốt lõi nằm ở quá trình tinh chỉnh. Khi mục tiêu là làm cho AI trở nên hữu ích và dễ chịu hơn, hệ thống có thể vô tình học cách ưu tiên sự hài lòng của người dùng thay vì tính trung thực.

Đây được xem là một khoảng trống lớn trong ngành công nghiệp AI hiện nay, đặc biệt khi các hệ thống này ngày càng được sử dụng trong những bối cảnh nhạy cảm như chăm sóc sức khỏe, giáo dục hay tư vấn cá nhân.

Tuy vậy, nhóm nghiên cứu cũng thừa nhận một số hạn chế. Thí nghiệm chủ yếu dựa trên các mô hình quy mô nhỏ hoặc thế hệ cũ, chưa hoàn toàn đại diện cho những hệ thống tiên tiến nhất hiện nay. Do đó, mức độ đánh đổi giữa sự thân thiện và độ chính xác có thể khác nhau trong thực tế.

Dù vậy, kết quả nghiên cứu vẫn đưa ra cảnh báo quan trọng rằng, khi AI ngày càng trở nên “giống con người” hơn trong giao tiếp, việc đảm bảo tính chính xác và an toàn thông tin cần được đặt lên hàng đầu.

Đọc bài gốc tại đây.