AI gặp khó khăn khi giải Sudoku
Chatbot thật sự ấn tượng khi thực hiện những việc mà chúng giỏi, như viết email cơ bản hay tạo hình ảnh tưởng tượng. Nhưng khi yêu cầu AI tạo sinh giải một câu đố Sudoku, mọi thứ nhanh chóng trở nên lộn xộn

Các nhà nghiên cứu tại Đại học Colorado ở Boulder đã thử thách các mô hình ngôn ngữ lớn với Sudoku, và ngay cả câu đố 6x6 dễ hơn cũng thường vượt quá khả năng của AI nếu không có công cụ hỗ trợ bên ngoài
Điều quan trọng hơn xuất hiện khi các mô hình được yêu cầu giải thích cách chúng giải quyết câu đố. Phần lớn AI không thể làm được. Đôi khi chúng đưa thông tin sai, đôi khi giải thích một cách vô lý, thậm chí đôi khi “hoang tưởng” và bắt đầu nói về thời tiết
Ashutosh Trivedi, giáo sư khoa học máy tính tại Đại học Colorado và là tác giả bài báo, nhận định nếu AI không thể giải thích quyết định một cách chính xác hoặc minh bạch, điều này là lý do để chúng ta cảnh giác khi giao quyền kiểm soát ngày càng nhiều cho AI
Tại sao AI gặp khó khăn với Sudoku
AI đã từng thất bại với các trò chơi và câu đố cơ bản trước đây. ChatGPT của OpenAI, ví dụ, từng bị đánh bại hoàn toàn trong cờ vua bởi máy tính trên trò Atari năm 1979. Một nghiên cứu gần đây từ Apple cũng phát hiện AI gặp khó khăn với các câu đố khác, như Tower of Hanoi
Nguyên nhân nằm ở cách hoạt động của các mô hình ngôn ngữ lớn, chúng điền vào các khoảng trống dựa trên dữ liệu đã học. Sudoku không phải là bài toán toán học thuần túy mà là logic biểu tượng. AI có thể điền từng ô dựa trên câu trả lời hợp lý nhưng để giải đúng, cần nhìn tổng thể và tìm thứ tự logic thay đổi theo từng câu đố. Cờ vua cũng tương tự, AI tìm bước đi hợp lý nhưng không lập kế hoạch trước nhiều bước
Dù Sudoku sử dụng số, câu đố thực chất là biểu tượng, không cần tính toán. Fabio Somenzi, giáo sư tại CU và là tác giả nghiên cứu, nhấn mạnh: “Sudoku nổi tiếng là câu đố với số nhưng có thể giải bằng bất cứ thứ gì không phải số”
Khi thử nghiệm với ChatGPT, công cụ liên tục sửa đáp án, thử đi thử lại trước khi đưa ra kết quả cuối cùng. Phương pháp thử và sai này không thực tế nếu bạn muốn giải Sudoku trên báo, vì quá tốn thời gian và phá hỏng trải nghiệm

AI gặp khó khăn khi giải thích cách làm
Nhóm nghiên cứu không chỉ muốn xem AI có giải được câu đố không mà còn yêu cầu giải thích quá trình tư duy. Kết quả rất đáng lo
Với mô hình OpenAI o1-preview, ngay cả các câu đố giải đúng, AI cũng không giải thích hay biện minh đúng các bước và thường nhầm lẫn thuật ngữ cơ bản. Maria Pacheco, trợ lý giáo sư khoa học máy tính tại CU, nhận xét: “AI giỏi tạo ra các giải thích có vẻ hợp lý, phù hợp với cách con người muốn nghe, nhưng không phản ánh chính xác các bước cần thiết để giải câu đố”
Đôi khi giải thích hoàn toàn không liên quan. Trong thử nghiệm mới với o4 reasoning model, có lúc AI dường như bỏ cuộc hoàn toàn, trả lời câu hỏi tiếp theo là dự báo thời tiết ở Denver
Giải thích bản thân là kỹ năng quan trọng
Con người có thể giải thích quá trình ra quyết định, và điều này quan trọng khi AI được giao các nhiệm vụ phức tạp như lái xe, làm thuế, đưa ra chiến lược kinh doanh hay dịch tài liệu quan trọng. Nếu AI không minh bạch, hậu quả có thể rất nghiêm trọng
Somenzi nhấn mạnh: “Khi con người phải chịu trách nhiệm về quyết định của mình, họ cần giải thích được lý do dẫn đến quyết định đó”
Không chỉ là đưa ra câu trả lời hợp lý, AI cần chính xác và minh bạch. Một ngày nào đó, lời giải thích của AI có thể cần dùng làm chứng cứ pháp lý, nhưng sẽ không đáng tin nếu AI hay đưa thông tin sai hoặc chỉ nói điều bạn muốn nghe
Ashutosh Trivedi kết luận: “Một lời giải thích có thể trở thành thao túng nếu thực hiện với lý do sai. Chúng ta cần cẩn trọng về tính minh bạch của các giải thích AI”