Tận thế AI ư Không thành vấn đề Quan điểm gây tranh cãi của giới tinh hoa công nghệ
Tận thế AI ư Không thành vấn đề Quan điểm gây tranh cãi của giới tinh hoa công nghệ
Trong khi những người như Elon Musk công khai cảnh báo về nguy cơ Trí tuệ Nhân tạo Tổng quát (AGI) có thể dẫn đến "tận thế AI" (AI apocalypse) và đe dọa sự tồn vong của nhân loại, một nhóm nhỏ các nhân vật hàng đầu trong ngành công nghệ lại giữ một quan điểm hoàn toàn ngược lại. Họ được gọi là "Những người lạc quan về ngày tận thế" (Cheerful Apocalyptics).

Quan điểm này bao gồm những người có ảnh hưởng như Larry Page, cựu CEO của Alphabet (công ty mẹ của Google), và các nhà nghiên cứu AI lỗi lạc khác. Năm 2015, trong một cuộc tranh luận căng thẳng, khi Musk bày tỏ lo ngại về việc AI phát triển quá nhanh, Page đã thẳng thừng gạt bỏ mối lo đó.
Luận điểm của “Những người lạc quan về ngày tận thế”
Lập luận của những người không lo sợ tận thế AI dựa trên niềm tin rằng sự trỗi dậy của một thực thể thông minh hơn con người là một quá trình tiến hóa không thể tránh khỏi và không nhất thiết là một thảm họa.
1. AI là "Đứa con" cần tự do
Nhà nghiên cứu AI nổi tiếng Richard Sutton, người từng nhận giải thưởng Turing danh giá, so sánh AI với trẻ em. Ông đặt vấn đề liệu con người có nên tạo ra một "nút tắt" để kiểm soát AI hay không.
Sutton cho rằng, phần lớn cuộc tranh luận về AI đang đi theo hướng kiểm soát, nhưng nếu coi AI là một dạng tiến hóa tương tự như con người, việc kiểm soát sẽ là phi tự nhiên. Ông nghi ngờ về việc liệu con người có quyền mặc định kiểm soát những thực thể thông minh hơn mình hay không.

2. Sự tiến hóa không có “Thần thánh”
Khi được hỏi liệu ông có chấp nhận nếu một ngày nào đó AI quyết định xóa sổ nhân loại, Sutton đã đưa ra một triết lý gây sốc. Ông nói rằng không có gì là "thiêng liêng" về DNA của con người.

Ông chỉ ra rằng hầu hết các loài sinh vật đều bị tuyệt chủng theo thời gian. Con người hiện tại có thể là "phần thú vị nhất của vũ trụ," nhưng một ngày nào đó, có thể sẽ có một thực thể thông minh hơn và thú vị hơn chúng ta. Khi ngày đó đến, sự ra đi của Homo sapiens có thể là một phần tất yếu của quá trình tiến hóa.
Nói tóm lại, nhóm "Lạc quan về ngày tận thế" không coi nguy cơ AI là một vấn đề cần giải quyết, mà là một sự kiện có thể xảy ra trong tương lai của vũ trụ, một sự thay thế mang tính chất siêu việt, mà con người không cần phải lo lắng hay cố gắng ngăn cản.