Anthropic ban hành quy định mới để ứng phó với bối cảnh AI ngày càng nguy hiểm
Công ty khởi nghiệp Anthropic vừa cập nhật chính sách sử dụng cho chatbot Claude AI nhằm tăng cường an toàn và kiểm soát rủi ro trong bối cảnh AI ngày càng phức tạp. Bản cập nhật lần này bổ sung các quy định nghiêm ngặt hơn về an ninh mạng và liệt kê rõ các loại vũ khí nguy hiểm bị cấm phát triển bằng AI.
🔹 Cấm sử dụng Claude để phát triển vũ khí hủy diệt hàng loạt
Trước đây, Anthropic đã cấm người dùng sử dụng Claude để “sản xuất, thiết kế, phân phối hoặc tiếp thị vũ khí, chất nổ hay các hệ thống gây hại đến con người.”
Tuy nhiên, phiên bản chính sách mới đã cụ thể hóa bằng cách cấm tuyệt đối việc sử dụng Claude để phát triển hoặc hỗ trợ tạo ra:
- Vũ khí hạt nhân (nuclear weapons)
- Vũ khí sinh học (biological weapons)
- Vũ khí hóa học (chemical weapons)
- Vũ khí phóng xạ (radiological weapons)
- Chất nổ có sức công phá cao (high-yield explosives)
🔹 Tăng cường bảo vệ trước nguy cơ tấn công mạng
Bản cập nhật còn giới thiệu phần mới mang tên “Do Not Compromise Computer or Network Systems” (Không xâm phạm hệ thống máy tính hoặc mạng lưới).
Phần này cấm sử dụng Claude để:
- Phát hiện hoặc khai thác lỗ hổng bảo mật
- Tạo hoặc phát tán phần mềm độc hại (malware)
- Phát triển công cụ cho tấn công từ chối dịch vụ (DDoS)
- Hoặc tiến hành bất kỳ hành vi tấn công mạng nào khác.
Anthropic cho biết các quy tắc này nhằm đối phó với nguy cơ từ những công cụ “AI có tính chủ động” (agentic AI) — chẳng hạn như Claude Code (AI lập trình trong terminal) hoặc Computer Use (tính năng cho phép Claude điều khiển máy tính của người dùng).
Các tính năng này mang lại tiện ích mạnh mẽ nhưng cũng tiềm ẩn rủi ro lạm dụng quy mô lớn, tấn công mạng hoặc phát tán mã độc.
🔹 Chính sách mới linh hoạt hơn về nội dung chính trị
Anthropic cũng nới lỏng quy định liên quan đến chính trị:
Thay vì cấm hoàn toàn nội dung về vận động tranh cử hoặc vận động hành lang, công ty nay chỉ cấm các trường hợp:
- Gây hiểu lầm hoặc phá hoại tiến trình dân chủ,
- Nhắm mục tiêu vào cử tri hoặc chiến dịch theo cách không minh bạch.
Ngoài ra, Anthropic cũng làm rõ phạm vi áp dụng cho các trường hợp “rủi ro cao” (high-risk use cases):
các yêu cầu này chỉ áp dụng cho tình huống người dùng AI để đưa ra khuyến nghị cho người tiêu dùng cá nhân, không áp dụng cho mục đích nội bộ của doanh nghiệp.
🔹 Tiếp tục tăng cường bảo vệ an toàn AI
Trước đó, vào tháng 5/2025, Anthropic đã triển khai “AI Safety Level 3” cùng với mẫu Claude Opus 4, giúp chống “jailbreak” (lách giới hạn mô hình) và ngăn chặn AI hỗ trợ phát triển vũ khí CBRN (Chemical, Biological, Radiological, Nuclear).
👉 Với loạt thay đổi này, Anthropic thể hiện rõ định hướng trở thành một trong những công ty AI chú trọng đạo đức và an toàn nhất hiện nay, giữa lúc ngành AI đang đối mặt với nguy cơ lạm dụng công nghệ ở quy mô toàn cầu.