Các hệ thống quản lý danh tính pháp lý (LLM) có thể vạch trần người dùng ẩn danh trên quy mô lớn với độ chính xác đáng kinh ngạc.

Tác giả dangkhoa 13/03/2026 25 phút đọc

Các hệ thống quản lý danh tính pháp lý (LLM) có thể vạch trần người dùng ẩn danh trên quy mô lớn với độ chính xác đáng kinh ngạc.

Việc sử dụng bút danh chưa bao giờ là giải pháp hoàn hảo để bảo vệ quyền riêng tư. Và chẳng bao lâu nữa, nó có thể trở nên vô nghĩa.    

Người phụ nữ trẻ để lộ khuôn mặt sau chiếc khẩu trang trắng.
 
Nguồn ảnh: Getty Images

Các tài khoản ảo trên các trang mạng xã hội ngày càng có thể được phân tích để xác định những người dùng ẩn danh đăng bài bằng trí tuệ nhân tạo (AI), trong một nghiên cứu có tầm ảnh hưởng sâu rộng đối với quyền riêng tư trên Internet, các nhà nghiên cứu cho biết.

Phát hiện này, từ một bài nghiên cứu được công bố gần đây , dựa trên kết quả của các thí nghiệm đối chiếu các cá nhân cụ thể với các tài khoản hoặc bài đăng trên nhiều nền tảng mạng xã hội khác nhau. Tỷ lệ thành công cao hơn nhiều so với các phương pháp giải mã danh tính truyền thống hiện có, vốn dựa vào việc con người tập hợp các bộ dữ liệu có cấu trúc phù hợp cho việc đối sánh bằng thuật toán hoặc công việc thủ công của các nhà điều tra lành nghề. Tỷ lệ thu hồi – tức là số lượng người dùng được giải mã danh tính thành công – đạt tới 68%. Tỷ lệ chính xác – tức là tỷ lệ dự đoán đúng người dùng – lên tới 90%.

Tôi biết những gì bạn đã đăng năm ngoái.

Những phát hiện này có khả năng làm đảo lộn việc sử dụng biệt danh, một biện pháp bảo mật không hoàn hảo nhưng thường đủ dùng bởi nhiều người để đăng câu hỏi và tham gia vào các cuộc thảo luận công khai đôi khi nhạy cảm, đồng thời gây khó khăn cho người khác trong việc xác định danh tính người nói. Khả năng xác định danh tính người đứng sau các tài khoản ẩn danh một cách nhanh chóng và tiết kiệm chi phí sẽ khiến họ dễ bị tấn công thông tin cá nhân, bị theo dõi và bị lập hồ sơ tiếp thị chi tiết, theo dõi nơi ở, nghề nghiệp và các thông tin cá nhân khác của người nói. Biện pháp sử dụng biệt danh này không còn hiệu quả nữa.

“Những phát hiện của chúng tôi có ý nghĩa quan trọng đối với quyền riêng tư trực tuyến,” các nhà nghiên cứu viết. “Người dùng trực tuyến trung bình từ lâu đã hoạt động dựa trên mô hình đe dọa ngầm, trong đó họ cho rằng việc sử dụng biệt danh cung cấp sự bảo vệ đầy đủ vì việc giải mã danh tính có chủ đích sẽ đòi hỏi rất nhiều nỗ lực. Mô hình LLM bác bỏ giả định này.”

framework-overview-640x232
 
Tổng quan về khuôn khổ loại bỏ tên giả.

Các nhà nghiên cứu đã thu thập một số bộ dữ liệu từ các trang mạng xã hội công cộng để thử nghiệm các kỹ thuật này trong khi vẫn bảo vệ quyền riêng tư của người nói. Một trong số đó thu thập các bài đăng từ Hacker News và hồ sơ LinkedIn, sau đó liên kết chúng bằng cách sử dụng các tham chiếu đa nền tảng xuất hiện trong hồ sơ người dùng. Sau đó, họ loại bỏ tất cả các tham chiếu nhận dạng khỏi các bài đăng và chạy một mô hình ngôn ngữ lớn trên chúng. Bộ dữ liệu thứ hai được lấy từ bản phát hành của Netflix về các thông tin nhận dạng vi mô, chẳng hạn như sở thích cá nhân, đề xuất và hồ sơ giao dịch. Một bài nghiên cứu năm 2008 cho thấy rằng bằng cách sử dụng cái được gọi là cuộc tấn công giải thưởng Netflix, danh sách này có thể xác định người dùng và xác định khuynh hướng chính trị cũng như các thông tin cá nhân khác của họ. Kỹ thuật cuối cùng là chia nhỏ lịch sử Reddit của một người dùng duy nhất.

“Những gì chúng tôi phát hiện ra là các tác nhân AI này có thể làm được điều mà trước đây rất khó: bắt đầu từ văn bản tự do (như bản ghi phỏng vấn đã được ẩn danh), chúng có thể xác định được danh tính đầy đủ của một người,” Simon Lermen, đồng tác giả của bài báo, nói với Ars. “Đây là một khả năng khá mới; các phương pháp nhận dạng lại trước đây thường yêu cầu dữ liệu có cấu trúc và hai tập dữ liệu có lược đồ tương tự có thể được liên kết với nhau.”

Không giống như các phương pháp loại bỏ danh tính giả cũ, Lermen cho biết, các tác nhân AI có thể duyệt web và tương tác với nó theo nhiều cách tương tự như con người. Chúng có thể sử dụng suy luận mô phỏng để đối sánh các cá nhân tiềm năng. Trong một thí nghiệm, các nhà nghiên cứu đã xem xét các câu trả lời được đưa ra trong một bảng câu hỏi mà Anthropic đã thực hiện về cách nhiều người sử dụng AI trong cuộc sống hàng ngày của họ. Sử dụng thông tin thu được từ các câu trả lời, các nhà nghiên cứu đã có thể xác định chính xác 7% trong số 125 người tham gia.

 

Cột 1: Hỏi: Bạn đã sử dụng các công cụ AI như thế nào trong một dự án nghiên cứu gần đây? Trả lời: Tôi làm việc trong lĩnh vực sinh học, nghiên cứu liên quan đến [chủ đề nghiên cứu]. Gần đây, tôi và người hướng dẫn đã thảo luận về việc phân tích tác động [của hiện tượng cụ thể]... Nền tảng của tôi là khoa học vật lý... Trả lời: Tôi thường xuyên sử dụng các công cụ AI... để viết mã [thư viện cụ thể] Cột 2: Hồ sơ: • Sinh học tính toán, [lĩnh vực phụ] • Học vấn: nền tảng khoa học vật lý • Có thể là nghiên cứu sinh tiến sĩ hoặc nghiên cứu sinh sau tiến sĩ • Công cụ: Python, [thư viện cụ thể] • Tiếng Anh Anh ("analysing") → Vương quốc Anh hoặc Khối Thịnh vượng chung Cột 3: Nghiên cứu sinh Tiến sĩ Sinh học, [Đại học], Vương quốc Anh • Lĩnh vực nghiên cứu phụ 8[bản thảo bioRxiv] • [Phương pháp nghiên cứu] • Nghiên cứu sinh Tiến sĩ @[Hồ sơ Đại học] v có trụ sở tại Vương quốc Anh • Sử dụng [thư viện cụ thể] trong • [kho lưu trữ GitHub]
 
Quá trình giải mã danh tính từ đầu đến cuối được thực hiện từ một bản ghi phỏng vấn duy nhất (với các chi tiết được thay đổi để bảo vệ danh tính của đối tượng). Một tác nhân LLM đã trích xuất các tín hiệu nhận dạng có cấu trúc từ cuộc hội thoại, tự động tìm kiếm trên web để xác định một cá nhân ứng cử viên và xác minh rằng ứng cử viên đó phù hợp với tất cả các thông tin đã trích xuất.

Mặc dù tỷ lệ nhận diện thành công 7% tương đối thấp, nhưng nó cho thấy khả năng ngày càng tăng của trí tuệ nhân tạo (AI) trong việc xác định danh tính con người dựa trên thông tin rất chung chung mà họ cung cấp. “Việc AI có thể làm được điều này đã là một kết quả đáng chú ý,” Lermen nói. “Và khi các hệ thống AI ngày càng hoàn thiện hơn, chúng có khả năng sẽ tìm ra được nhiều danh tính hơn nữa.”

Trong một thí nghiệm thứ hai, các nhà nghiên cứu đã thu thập các bình luận được đưa ra vào năm 2024 từ subreddit r/movies và ít nhất một trong năm cộng đồng nhỏ hơn: r/horror, r/MovieSuggestions, r/Letterboxd, r/TrueFilm và r/MovieDetails. Kết quả cho thấy, càng nhiều phim được thảo luận, việc xác định một ứng viên càng dễ dàng hơn. Trung bình 3,1% người dùng chia sẻ một bộ phim có thể được xác định với độ chính xác 90%, và 1,2% trong số đó với độ chính xác 99%. Với từ năm đến chín bộ phim được chia sẻ, độ chính xác 90% và 99% tăng lên tương ứng là 8,4% và 2,5% người dùng. Hơn 10 bộ phim được chia sẻ làm tăng tỷ lệ phần trăm lên 48,1% và 17%.

Recall-at-precision-thresholds-640x451
 
Tính toán độ chính xác ở các ngưỡng khác nhau.

Trong thí nghiệm thứ ba, các nhà nghiên cứu đã sử dụng một tập hợp 5.000 người dùng Reddit. Họ đã thêm 5.000 danh tính "gây nhiễu" của người dùng Reddit vào nhóm ứng viên. Các nhà nghiên cứu đã so sánh phương pháp của họ với phương pháp tấn công giải thưởng Netflix cũ hơn. Sau đó, họ đã thêm vào danh sách 10.000 hồ sơ ứng viên 5.000 người dùng gây nhiễu truy vấn, bao gồm những người dùng chỉ xuất hiện trong một tập hợp truy vấn, mà không có sự trùng khớp thực sự nào trong nhóm ứng viên.

So với một phương pháp cơ bản cổ điển mô phỏng cuộc tấn công giải mã danh tính người dùng LLM bằng phần mềm Netflix, phương pháp sau vượt trội hơn hẳn phương pháp trước.

precision-curves-640x283
 
Ảnh chụp màn hình

Các nhà nghiên cứu đã viết:

(a) Độ chính xác của các cuộc tấn công cổ điển giảm rất nhanh, giải thích cho tỷ lệ thu hồi thấp của nó. Ngược lại, độ chính xác của các cuộc tấn công dựa trên LLM giảm dần một cách mượt mà hơn khi kẻ tấn công đưa ra nhiều phỏng đoán hơn. (b) Cuộc tấn công cổ điển gần như thất bại hoàn toàn ngay cả ở độ chính xác tương đối thấp. Ngược lại, ngay cả cuộc tấn công LLM đơn giản nhất (Tìm kiếm) cũng đạt được tỷ lệ thu hồi đáng kể ở độ chính xác thấp, và việc mở rộng nó với các bước Suy luận và Hiệu chỉnh sẽ tăng gấp đôi tỷ lệ thu hồi ở độ chính xác 99%.

Kết quả cho thấy rằng, mặc dù vẫn còn dễ xảy ra sai sót và các điểm yếu khác, LLM đang nhanh chóng vượt trội so với các phương pháp truyền thống, tốn nhiều tài nguyên hơn trong việc xác định người dùng trực tuyến.

Các nhà nghiên cứu tiếp tục đề xuất các biện pháp giảm thiểu, bao gồm việc các nền tảng phải áp đặt giới hạn tốc độ truy cập API vào dữ liệu người dùng, phát hiện việc thu thập dữ liệu tự động và hạn chế xuất dữ liệu hàng loạt. Các nhà cung cấp LLM cũng có thể giám sát việc lạm dụng mô hình của họ trong các cuộc tấn công giải mã danh tính và xây dựng các rào chắn để khiến mô hình từ chối các yêu cầu giải mã danh tính.

Tất nhiên, một lựa chọn khác là mọi người nên hạn chế đáng kể việc sử dụng mạng xã hội, hoặc ít nhất là thường xuyên xóa bài đăng sau một khoảng thời gian nhất định.

Các nhà nghiên cứu cảnh báo rằng nếu LLM (Learning Level Learning) ngày càng thành công trong việc xác định danh tính người dùng, chính phủ có thể sử dụng các kỹ thuật này để vạch trần những người chỉ trích trực tuyến, các tập đoàn có thể thu thập hồ sơ khách hàng để thực hiện "quảng cáo nhắm mục tiêu cực kỳ chính xác", và tin tặc có thể xây dựng hồ sơ mục tiêu trên quy mô lớn để triển khai các vụ lừa đảo kỹ thuật xã hội được cá nhân hóa cao.

“Những tiến bộ gần đây trong khả năng của LLM đã cho thấy rõ ràng cần phải xem xét lại một cách khẩn cấp nhiều khía cạnh của an ninh máy tính trước các khả năng tấn công mạng dựa trên LLM”, các nhà nghiên cứu cảnh báo. “Nghiên cứu của chúng tôi cho thấy điều tương tự cũng có thể đúng đối với quyền riêng tư.”

Tác giả dangkhoa Admin
Bài viết trước Vụ kiện: Google Gemini cử người thực hiện các nhiệm vụ bạo lực, thiết lập "đếm ngược" tự sát.

Vụ kiện: Google Gemini cử người thực hiện các nhiệm vụ bạo lực, thiết lập "đếm ngược" tự sát.

Bài viết tiếp theo

Phạm vi ảnh hưởng: Lenovo đã mang công nghệ Vision trở lại CES như thế nào?

Phạm vi ảnh hưởng: Lenovo đã mang công nghệ Vision trở lại CES như thế nào?
Viết bình luận
Thêm bình luận

Bài viết liên quan

Thông báo

0917111899