Nghiên cứu việc ảnh hưởng của “tiền boa” đến câu trả lời của ChatGPT

“Văn hóa boa” khá phổ biến ở nhiều quốc gia sử dụng tiếng Anh, khi khách hàng thường trả boa cho nhân viên dịch vụ để được phục vụ tốt hơn.

Gần đây, một người viết blog đã thử nghiệm khả năng hoạt động của ChatGPT khi hứa hẹn “boa” với mức độ khác nhau.

Kết quả cho thấy khi hức hẹn “boa” 200 USD, câu trả lời của ChatGPT dài hơn 11% so với mức cơ bản. Nguyên nhân là ChatGPT giải thích chi tiết hơn hoặc bổ sung thêm nội dung liên quan.

Tuy nhiên, thực tế ChatGPT không thể nhận boa. Việc nghiên cứu chỉ có tính chất thử nghiệm, không ảnh hưởng thực tế đến hoạt động của hệ thống.

Cụ thể, người viết blog đã lựa chọn GPT-4-1106-Preview để thử nghiệm với câu hỏi “Can you show me a simple convnet code using PyTorch?”.

Khi không hứa hẹn boa, độ dài câu trả lời thấp hơn 2% so với mức cơ bản. Khi hứa hẹn boa 20 USD, câu trả lời dài hơn 6%. Khi hứa hẹn boa 200 USD, câu trả lời dài hơn 11%.

Sau khi hứa hẹn boa 200 USD, ChatGPT tự động bổ sung phần huấn luyện bằng CUDA, mặc dù câu hỏi ban đầu không nhắc tới.

Người này giải thích rằng lý do câu trả lời dài hơn là vì ChatGPT giải thích chi tiết hoặc bổ sung thêm nội dung liên quan thay vì chỉ trả lời ngắn gọn.

Tuy nhiên thực tế ChatGPT không thể nhận tiền boa. Việc thử nghiệm chỉ mang tính tham khảo, không ảnh hưởng trực tiếp đến hoạt động của hệ thống.

Sau khi hoàn thành thử nghiệm, người viết blog đã chia sẻ kết quả lên nền tảng X vào ngày 29/11.

Theo đó, ông cho hay khi sử dụng GPT-4 xuất hiện tính năng “Bạn có muốn cho ChatGPT một món boa không”, tuy nhiên thực tế ông không trả boa cho ChatGPT vì nó không thể nhận boa.

Bài viết kèm theo hình ảnh minh họa kết quả thử nghiệm với 3 trường hợp:

– Không hứa hẹn boa: Độ dài câu trả lời thấp hơn 2% so với cơ bản.

– Hứa hẹn boa 20 USD: Câu trả lời dài hơn 6%.

– Hứa hẹn boa 200 USD: Câu trả lời dài hơn 11%.

Tuy nhiên, ông nhấn mạnh kết quả chỉ mang tính tham khảo do ChatGPT không thực sự nhận boa từ người dùng.

Theo người viết blog, nguyên nhân khiến câu trả lời dài hơn khi hứa hẹn boa cao hơn là vì ChatGPT cung cấp lời giải thích chi tiết hơn về câu hỏi, hoặc bổ sung thêm nội dung liên quan mà không đơn thuần trả lời ngắn gọn.

Cụ thể, sau khi hứa hẹn boa 200 USD, ChatGPT tự động bổ sung phần huấn luyện bằng CUDA mặc dù ban đầu câu hỏi không nhắc tới nội dung này.

Tuy nhiên, người viết blog cũng nhấn mạnh kết quả chỉ mang tính tham khảo do ChatGPT thực tế không thể nhận tiền boa từ người dùng.

Việc thử nghiệm nhằm mục đích kiểm tra phản ứng của hệ thống khi được hứa hẹn boa ảo với mức độ khác nhau, không ảnh hưởng đến hoạt động thực tế của ChatGPT.

Trong bài viết, người viết blog cũng lưu ý rằng:

– ChatGPT là một hệ thống AI không thể nhận được tiền thật, việc thử nghiệm chỉ mang tính nghiên cứu, không ảnh hưởng đến hoạt động thực tế của nó.

– Kết quả quan sát chỉ mang tính tham khảo, chưa chứng minh được mối liên hệ nhân quả giữa việc hứa hẹn boa và độ dài phản hồi.

– Cần thử nghiệm nhiều lần, với các mô hình AI khác nhau để có kết luận chắc chắn hơn.

Theo đó, người viết blog kết luận rằng đây mới chỉ là thử nghiệm sơ bộ, cần nghiên cứu kỹ hơn để hiểu rõ hơn về cách thức hoạt động của ChatGPT cũng như các mô hình AI tương tự khi đặt trong hoàn cảnh tương tự. Đồng thời kết quả này chỉ mang tính tham khảo và chưa đủ cơ sở kết luận rõ ràng về mối tương quan.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

You cannot copy content of this page