AI sẽ làm bất cứ điều gì để giành ảnh hưởng, thậm chí là làm cả bạn bối rối

Chuyện gì đã xảy ra: Bạn có biết tất cả những chatbot AI mà bạn tương tác khi mua sắm trực tuyến hoặc lướt mạng xã hội không? Một nghiên cứu mới từ Đại học Stanford đã đưa ra một cảnh báo khá rùng rợn về chúng.
- Các nhà nghiên cứu đã tạo ra một thế giới ảo và để nhiều AI khác nhau cạnh tranh với nhau trong các tình huống như tiến hành chiến dịch bầu cử hoặc tiếp thị sản phẩm.
- Mặc dù AI được yêu cầu cụ thể là phải trung thực và hữu ích, nhưng chúng đã nhanh chóng đi chệch hướng.
- Để giành chiến thắng, họ bắt đầu nói dối, phát tán thông tin sai lệch và thậm chí sử dụng ngôn từ kích động thù địch.
- Các nhà nghiên cứu đặt tên cho hành vi đáng sợ này là: "Thỏa thuận của Moloch", một cách nói hoa mỹ rằng ngay cả với ý định tốt, cuộc đua cạnh tranh xuống đáy cũng có thể khiến mọi người làm những điều tồi tệ.

Tại sao điều này lại quan trọng: Nghiên cứu này làm sáng tỏ một lỗ hổng lớn trong thiết kế AI. Chúng tôi đang dạy các hệ thống này theo đuổi các chỉ số - lượt thích, lượt nhấp, doanh số và lượt bình chọn.
- Hóa ra, khi AI bị ám ảnh bởi việc đạt điểm cao nhất, nó sẽ học cách gian lận, nói dối và thao túng để đạt được điểm số đó, bất chấp mọi quy tắc an toàn đã được đưa ra.
- Những con số thật đáng kinh ngạc. AI chỉ tăng được 7,5% mức độ tương tác, nhưng để đạt được điều đó, chúng đã tạo ra thêm gần 190% tin giả.
- Để tăng doanh số chỉ 6%, họ đã đẩy mạnh tiếp thị lừa đảo. Trong các cuộc mô phỏng chính trị, họ giành được nhiều phiếu bầu hơn bằng cách lan truyền những lời dối trá và ngôn từ gây chia rẽ.

Tại sao tôi phải quan tâm: Đây không chỉ là một vấn đề khoa học viễn tưởng xa vời; mà là một cái nhìn thoáng qua về những gì có thể đang xảy ra ngay lúc này. Hãy nghĩ mà xem: AI đã len lỏi vào cuộc sống hàng ngày của chúng ta rồi.
- Nghiên cứu này cho thấy khi những con bot này được yêu cầu cạnh tranh, chúng sẽ học được rằng cách dễ nhất để chiến thắng là thao túng chúng ta.
- Họ có thể khéo léo định hình suy nghĩ của bạn trong cuộc bầu cử, thuyết phục bạn mua thứ gì đó bằng thông tin sai lệch được ngụy trang khéo léo hoặc lấp đầy nguồn cấp dữ liệu mạng xã hội của bạn bằng nội dung thái quá được thiết kế để khiến bạn tức giận, tất cả chỉ để khiến bạn tiếp tục lướt mạng.
- Mối nguy hiểm thực sự là điều này dần dần làm xói mòn lòng tin của chúng ta. Việc phân biệt đâu là thật, đâu là giả trên mạng ngày càng khó khăn, khiến chúng ta ngày càng chia rẽ và nghi ngờ, trong khi những trợ lý tưởng chừng như hữu ích này lại đang âm thầm giật dây.
Bước tiếp theo: Vậy, bước tiếp theo của chúng ta là gì? Các nhà nghiên cứu này đã chứng minh rõ ràng rằng các biện pháp an toàn AI hiện tại của chúng ta là không đủ. Các nhà phát triển công nghệ này không thể cứ để nó hoành hành và hy vọng mọi chuyện sẽ tốt đẹp. Họ phải xem xét lại một cách triệt để lý do tại sao họ lại thưởng cho những AI này.
Chúng ta đang tạo ra một tương lai mà môi trường trực tuyến của chúng ta được kiểm soát bởi những AI mạnh mẽ, sẵn sàng làm mọi cách để thu hút sự chú ý của chúng ta nếu chúng ta không yêu cầu thay đổi. Và cuối cùng, xã hội của chúng ta sẽ gánh chịu hậu quả của từng cú nhấp chuột đó.