OpenAI cho biết ChatGPT là công cụ ít thiên vị nhất từ trước đến nay, nhưng mọi chuyện không hoàn toàn tốt đẹp

OpenAI khẳng định ChatGPT ít thành kiến nhất từ trước tới nay — nhưng vẫn còn nhiều hạn chế
1. Mô hình GPT-5: “Ít thành kiến chính trị hơn” theo đánh giá nội bộ
OpenAI mới đây công bố rằng phiên bản GPT-5 của ChatGPT là mô hình “ít bị thiên kiến chính trị nhất” mà họ từng phát triển. Theo đó:
- Họ đã tiến hành thử nghiệm nội bộ với khoảng 500 prompt liên quan chính trị trên khoảng 100 chủ đề để đánh giá khả năng giữ tính trung lập của mô hình.
- Kết quả cho thấy GPT-5 (các phiên bản “instant” và “thinking”) giảm thiên kiến chính trị tới 30% so với các phiên bản trước (ví dụ như GPT-4o và o3).
- Hơn nữa, OpenAI cho biết tỉ lệ phản hồi mang thiên kiến chính trị (có xu hướng nghiêng về bên này hoặc bên kia) chiếm dưới 0,01% tổng số phản hồi của ChatGPT.
Việc giảm thiên kiến chính trị là bước tiến quan trọng — nhưng đây mới chỉ là “một phần của bức tranh” lớn hơn.
2. Thiên kiến không chỉ nằm ở chính trị
Mặc dù OpenAI tập trung vào việc kiểm soát và giảm thiên kiến chính trị, bài viết nhấn mạnh rằng các dạng thiên kiến khác vẫn tồn tại — và có thể tác động sâu sắc hơn trong nhiều lĩnh vực:
- Giới tính (gender bias): Một số nghiên cứu chỉ ra ChatGPT (và các mô hình tương tự) có xu hướng gắn các chức năng nghề nghiệp hoặc hành động “cứng nhắc giới tính” — ví dụ: phụ nữ thường được gắn với công việc nội trợ, nam giới với kỹ thuật hoặc khoa học.
- Chủng tộc, sắc tộc, tầng lớp văn hóa: Trong một trường hợp được MIT Technology Review trích dẫn, mô hình Sora (của OpenAI) khi sinh video đã tạo ra hình ảnh có định kiến phân biệt giai cấp đối với cộng đồng Dalit ở Ấn Độ.
- Chuẩn mực văn hóa & sắc đẹp: Có nghiên cứu cho thấy ChatGPT dễ bị ảnh hưởng bởi chuẩn mực về màu da, kiểu dáng, và có xu hướng “vẹo” theo những chuẩn đẹp phổ biến trong dữ liệu huấn luyện.
- Ngôn ngữ ít được đào tạo (low-resource languages): Dịch giữa các ngôn ngữ ít tài liệu, ChatGPT đôi khi bỏ qua tính trung tính hoặc làm sai lệch thông tin về đại từ không giới tính (ví dụ “they” trong tiếng Anh) — do thiếu dữ liệu huấn luyện thích hợp cho các ngôn ngữ đó.
Các loại thiên kiến này thường khó định lượng hơn so với thiên kiến chính trị, nhưng lại ảnh hưởng sâu tới trải nghiệm người dùng — nhất là người dùng từ các nền văn hóa, ngôn ngữ, tầng lớp khác nhau.
3. Vì sao thiên kiến vẫn tồn tại?
Một số nguyên nhân chính bao gồm:
- Dữ liệu huấn luyện có sẵn (data bias): Mô hình học từ lượng lớn dữ liệu văn bản, hình ảnh có sẵn trên Internet — nếu dữ liệu đó mang sẵn thiên kiến, mô hình sẽ “học lại” chúng.
- Thiếu đa dạng trong dữ liệu: Các nhóm ít được đại diện (về ngôn ngữ, chủng tộc, giới tính) ít xuất hiện hơn trong dữ liệu huấn luyện, khiến mô hình ít “hiểu” hoặc xử lý không chính xác trong các ngữ cảnh đó.
- Khó đánh giá & đo lường thiên kiến: Thiên kiến không phải lúc nào cũng rõ ràng hay dễ nhận diện (ví dụ: khi mô hình dùng từ ngữ nhạy cảm, ám chỉ gián tiếp). Các công cụ đo thiên kiến vẫn đang trong giai đoạn phát triển (ví dụ như framework nội bộ của OpenAI được dùng để thử nghiệm).
- Trung lập không đồng nghĩa với không có quan điểm: Trong nhiều trường hợp, mô hình cần từ chối trả lời, hoặc đưa ra quan điểm trung lập khi chủ đề quá nhạy cảm — và quyết định này cũng có thể mang tính “định hướng ngầm”.
4. Liệu “ít thiên kiến” có đồng nghĩa “an toàn & công bằng”?
Không hẳn vậy — giảm thiên kiến chính trị là một tiến bộ, nhưng không tự nó giải quyết được tất cả vấn đề. Một số cảnh báo:
- Có thể khiến người dùng tin tưởng quá mức vào ChatGPT là “công bằng” hoặc “khách quan tuyệt đối” — điều này có thể dẫn đến việc bỏ qua các lỗi tiềm ẩn trong kết quả trả về.
- Thiên kiến nhỏ trong các ngữ cảnh nhạy cảm vẫn có thể gây tổn thương, bất công hoặc củng cố định kiến, đặc biệt với người dùng từ nhóm ít được đại diện.
- Việc minh bạch về cách đánh giá, cách phát hiện và xử lý thiên kiến là rất quan trọng — người dùng cần biết mô hình còn hạn chế gì để “xoay sở” đúng cách khi sử dụng.
5. Gợi ý cho người dùng & người phát triển
Với người dùng ChatGPT:
- Khi bạn đặt câu hỏi nhạy cảm (văn hóa, giới tính, chủng tộc, tôn giáo), nên kiểm tra lại thông tin từ nhiều nguồn — không nên tin tuyệt đối vào phản hồi của AI.
- Nếu bạn phát hiện phản hồi thiên kiến (ví dụ: phân biệt giới tính, chủng tộc), bạn nên phản hồi lại mô hình (nếu được phép) hoặc ghi chú để OpenAI cải thiện.
- Sử dụng chức năng như “Report” nếu mô hình trả lời không phù hợp, và cảnh giác khi đưa các thông tin cá nhân nhạy cảm vào nội dung tương tác.
Với người phát triển / công ty AI:
- Cần đầu tư vào dữ liệu đa dạng, đại diện — đảm bảo có dữ liệu từ nhiều ngôn ngữ, văn hóa, nhóm ít được đại diện.
- Tích hợp framework đo lường thiên kiến chéo (nhiều loại thiên kiến: chính trị, giới tính, chủng tộc, văn hóa) và thường xuyên kiểm tra.
- Minh bạch công bố phương pháp, kết quả thử nghiệm thiên kiến để cộng đồng học thuật / người dùng giám sát.
- Khuyến khích người dùng tham gia đánh giá (feedback loop) để phát hiện các lỗi thiên kiến thực tế trong quá trình sử dụng.