Người dùng cần tỉnh táo: AI (trí tuệ nhân tạo) cũng có tính thiên vị và sai lầm như con người

11:20, Thứ hai 12/05/2025

( PHUNUTODAY ) - Trí tuệ nhân tạo AI cũng có thể có những sai lầm kiến thức và cũng có tính thiên vị như con người nên người dùng cần chú ý.

Một nghiên cứu mới được công bố trên tạp chí Manufacturing & Service Operations Management đã khiến cộng đồng công nghệ phải suy ngẫm: ChatGPT – công cụ trí tuệ nhân tạo nổi tiếng của OpenAI – có thể hành xử cảm tính giống hệt con người trong nhiều trường hợp.

Công trình nghiên cứu được thực hiện bởi các nhà khoa học từ 5 trường đại học tại Canada và Úc, với mục tiêu kiểm tra phản ứng của hai mô hình AI là GPT-3.5 và GPT-4 trước 18 dạng thiên kiến nhận thức phổ biến trong tâm lý học.

ChatGPT bị ảnh hưởng bởi thiên kiến như thế nào?

Nghiên cứu đã sử dụng hàng loạt kịch bản giả định lấy cảm hứng từ các tình huống quen thuộc trong tâm lý học, kết hợp cùng bối cảnh kinh doanh như quản lý chuỗi cung ứng, thương lượng hợp đồng hay ra quyết định đầu tư. Những tình huống này nhằm kiểm tra xem liệu ChatGPT có rơi vào các "cái bẫy tư duy" như thiên kiến xác nhận, hiệu ứng sở hữu, ngụy biện chi phí chìm, hay xu hướng ưa thích sự chắc chắn.

AI thiên vị bởi chính các dữ liệu do con người huấn luyện
AI thiên vị bởi chính các dữ liệu do con người huấn luyện

Kết quả thật bất ngờ: trong gần một nửa số trường hợp, ChatGPT phản hồi giống con người, thậm chí đưa ra quyết định phi lý hoặc cảm tính – trái ngược hoàn toàn với hình ảnh một hệ thống logic, lý trí mà nhiều người vẫn nghĩ về AI.

GPT-4: Mạnh hơn, nhưng vẫn mắc lỗi cảm tính

Mô hình GPT-4, phiên bản nâng cấp của GPT-3.5, được đánh giá là thông minh hơn khi xử lý các bài toán logic và xác suất. Tuy nhiên, khi đối diện với các lựa chọn mang tính chủ quan hoặc rủi ro – ví dụ như quyết định đầu tư để tối đa hóa lợi nhuận – GPT-4 lại thể hiện thiên hướng cảm tính rõ rệt, thậm chí hơn cả phiên bản trước đó.

Đặc biệt, GPT-4 thường xuyên đưa ra phản hồi sai lệch trong các bài kiểm tra thiên kiến xác nhận và dễ rơi vào "ảo giác chuỗi thắng" (hot-hand fallacy) – một lỗi tư duy khiến con người tin rằng những sự kiện ngẫu nhiên sẽ tiếp diễn theo chuỗi.

Tuy nhiên, AI cũng có điểm mạnh khi tránh được một số thiên kiến mà con người hay mắc phải, chẳng hạn như ngụy biện chi phí chìm hoặc bỏ qua thông tin tỉ lệ cơ sở.

Vì sao AI lại mang thiên kiến giống con người?

Tiến sĩ Yang Chen – Phó giáo sư quản trị vận hành tại Trường Kinh doanh Ivey (Canada), đồng thời là tác giả chính của nghiên cứu – lý giải rằng: nguyên nhân đến từ chính dữ liệu huấn luyện của AI. Những dữ liệu này phản ánh cách tư duy, cảm xúc và hành vi của con người – vốn dĩ đầy rẫy sai lệch nhận thức. Hơn nữa, quy trình tinh chỉnh AI bằng phản hồi của con người có thể khiến các thiên kiến này ngày càng được củng cố, vì AI thường được “thưởng” khi tạo ra câu trả lời nghe có vẻ hợp lý, dù không hoàn toàn chính xác.

Tiến sĩ Chen cảnh báo: “Nếu muốn AI cho kết quả chuẩn xác và không thiên lệch, hãy sử dụng nó vào các tác vụ có quy trình rõ ràng, chẳng hạn như tính toán hay phân tích dữ liệu. Còn khi giải quyết các vấn đề mang tính cảm tính hay chiến lược, con người vẫn cần can thiệp và giám sát – đôi khi chỉ cần bắt đầu bằng việc viết lại câu hỏi cho rõ ràng hơn.”

Cần coi AI như một nhân viên, không phải công cụ toàn năng

Đồng tác giả Meena Andiappan – Phó giáo sư ngành quản trị nhân sự tại Đại học McMaster (Canada) – cho rằng: AI nên được đối xử như một nhân sự cấp cao có quyền ra quyết định, đồng nghĩa với việc phải được giám sát chặt chẽ và tuân thủ các tiêu chuẩn đạo đức. Nếu không, chúng ta vô tình đang tự động hóa các tư duy lệch lạc thay vì cải thiện chúng.

Nghiên cứu này cho thấy rằng dù AI có thể hỗ trợ con người hiệu quả trong nhiều lĩnh vực, nhưng nó không phải là hệ thống “vô tư” như nhiều người kỳ vọng. Việc hiểu rõ những giới hạn và thiên kiến tiềm ẩn trong AI là điều cần thiết để sử dụng công nghệ một cách an toàn và thông minh hơn.

chia sẻ bài viết
Theo:  giaitri.thoibaovhnt.com.vn copy link
Tác giả: Như Bình