Nguy cơ tiềm ẩn khi để AI lập kế hoạch du lịch cho bạn
Nguy cơ tiềm ẩn khi để AI lên kế hoạch cho chuyến du lịch của bạn
Trong thời đại công nghệ phát triển nhanh chóng, nhiều du khách đang dựa vào trí tuệ nhân tạo (AI) để xây dựng lịch trình du lịch của mình. Tuy nhiên, việc tin tưởng tuyệt đối vào các công cụ như ChatGPT, Microsoft Copilot hay Google Gemini có thể dẫn đến những rắc rối không ngờ – thậm chí là nguy hiểm.

Tại một thị trấn nhỏ ở Peru, ông Miguel Angel Gongora Meza – người sáng lập công ty Evolution Treks Peru – đã gặp hai du khách đang chuẩn bị leo núi đến “Hẻm núi thiêng Humantay”. Họ tự tin cho rằng đây là điểm đến nổi tiếng được AI gợi ý, nhưng trên thực tế, nơi này hoàn toàn không tồn tại. Ông Gongora cho biết cái tên này chỉ là sự kết hợp giữa hai địa danh không liên quan và du khách đã phải trả gần 160 USD chỉ để đến một con đường nông thôn hẻo lánh mà không có hướng dẫn viên.
Ông cảnh báo rằng sai sót tưởng chừng vô hại này có thể gây nguy hiểm tính mạng, bởi việc di chuyển trong vùng núi Andes đòi hỏi chuẩn bị kỹ lưỡng về địa hình, độ cao và thời tiết. “Khi bạn dùng AI để kết hợp hình ảnh và tên địa điểm tạo nên một nơi tưởng tượng, bạn có thể bị lạc ở độ cao 4.000m mà không có sóng điện thoại hay dưỡng khí,” ông nói.

Theo khảo sát, khoảng 30% khách du lịch quốc tế hiện đang dùng các công cụ AI tạo nội dung để tổ chức hành trình, trong đó có những nền tảng chuyên biệt như Wonderplan hay Layla. Dù mang lại sự tiện lợi, nhưng khi AI hoạt động sai, hậu quả có thể khiến người dùng lạc vào những nơi không tồn tại hoặc phải đối mặt với thông tin sai lệch.
Một cặp đôi đến từ Nhật Bản từng trải nghiệm tình huống này khi dùng ChatGPT để lên kế hoạch leo núi Misen ở đảo Itsukushima. AI gợi ý họ nên lên đỉnh núi ngắm hoàng hôn và xuống bằng cáp treo lúc 17h30. Tuy nhiên, thực tế tuyến cáp treo đã đóng cửa sớm hơn, khiến họ bị mắc kẹt trên đỉnh núi.
Không chỉ dừng lại ở đó, đã có trường hợp AI gợi ý tuyến chạy marathon không khả thi ở Ý hoặc khẳng định có “Tháp Eiffel ở Bắc Kinh”. Một khảo sát năm 2024 cho thấy 37% người dùng cho rằng AI không cung cấp đủ thông tin, và 33% cho biết các gợi ý của AI có chứa dữ liệu sai.
Theo giáo sư Rayid Ghani tại Đại học Carnegie Mellon, những lỗi này bắt nguồn từ cách AI hoạt động. “AI không hiểu sự khác biệt giữa hướng dẫn du lịch, công thức nấu ăn hay chỉ đường. Nó chỉ biết kết hợp từ ngữ sao cho hợp lý, khiến người dùng tưởng như đang nhận được thông tin chính xác,” ông giải thích.
Các mô hình ngôn ngữ lớn như ChatGPT hoạt động bằng cách phân tích hàng tỷ đoạn văn bản rồi tạo ra câu trả lời có vẻ hợp lý. Khi AI “ảo giác” – tức là tự bịa ra thông tin – nó vẫn trình bày câu trả lời với độ tự tin cao, khiến người dùng khó nhận ra đâu là thật.
Không chỉ trong du lịch, tình trạng “ảo giác AI” đang lan sang các lĩnh vực khác. Gần đây, YouTube bị phát hiện tự động chỉnh sửa hình ảnh video bằng AI mà không xin phép, còn Netflix gặp chỉ trích khi dùng AI để “tái tạo” các bộ phim cũ, khiến khuôn mặt diễn viên bị méo mó.
Chuyên gia trị liệu Javier Labourt cho rằng việc lan truyền sai lệch từ AI có thể làm mất đi giá trị tinh thần mà du lịch mang lại. Theo ông, du lịch giúp con người kết nối, đồng cảm và học hỏi văn hóa – điều mà một công cụ máy móc không thể thay thế. Khi AI cung cấp thông tin sai lệch, du khách đang bị dẫn dắt bởi một câu chuyện hư cấu ngay cả trước khi họ lên đường.
Nhiều quốc gia hiện đang đề xuất các quy định buộc AI phải gắn “dấu hiệu nhận biết” khi thông tin được tạo tự động. Tuy nhiên, các chuyên gia cho rằng việc phòng ngừa triệt để là rất khó, và người dùng cần tự trang bị kỹ năng kiểm chứng thông tin.
Giáo sư Ghani khuyến nghị người dùng nên đặt câu hỏi cụ thể và xác minh từng chi tiết trước khi tin tưởng. Dù điều này có thể làm quá trình chuẩn bị tốn thời gian hơn, nhưng nó giúp tránh được rủi ro từ những “ảo tưởng công nghệ”.
Cuối cùng, ông Labourt nhấn mạnh: “Dù có dùng AI hay không, hãy giữ tâm thế cởi mở và linh hoạt. Nếu kế hoạch không như mong đợi, hãy biến nó thành một trải nghiệm thú vị – bởi bạn vẫn đang ở giữa một hành trình tuyệt vời.”