Anthropic cho phép Claude học từ hội thoại người dùng nhằm cải thiện AI, nhưng bạn vẫn có quyền nói "không" để bảo vệ quyền riêng tư của mình.
Anthropic vừa tạo ra bước ngoặt quan trọng khi chính thức công bố thay đổi Điều khoản Dịch vụ và Chính sách Quyền riêng tư. Từ nay, mọi cuộc trò chuyện của người dùng sẽ trở thành "nguyên liệu" để phát triển chatbot AI Claude thông minh hơn.
Muốn sử dụng các tính năng thông minh của Galaxy AI? Tham khảo ngay dòng Galaxy S25 giá tốt tại Minh Tuấn Mobile
Tại sao Anthropic đưa ra quyết định này?
Động lực đằng sau quyết định táo bạo này là tham vọng tạo ra những mô hình AI "mạnh mẽ và hữu ích hơn" bao giờ hết. Anthropic tin rằng việc khai thác kho dữ liệu hội thoại thực tế sẽ giúp Claude hiểu sâu hơn về cách con người giao tiếp, đồng thời xây dựng hệ thống phòng thủ vững chắc chống lại lạm dụng, lừa đảo và các hành vi độc hại.
![Cách từ chối chia sẻ dữ liệu cho Claude AI]()
Ai sẽ bị ảnh hưởng? Chính sách mới này áp dụng toàn diện cho người dùng các gói Claude Free, Pro và Max. Tuy nhiên, khách hàng doanh nghiệp sử dụng Claude for Work và Claude for Education vẫn được bảo vệ khỏi thay đổi này.
Cách để từ chối chia sẻ dữ liệu với Claude AI
Người dùng mới có thể chọn không tham gia ngay khi đăng ký tài khoản. Người dùng hiện tại sẽ thấy một cửa sổ bật lên mang tên “Cập nhật Điều khoản và Chính sách”, cho phép từ chối bằng cách bỏ chọn mục “Bạn có thể giúp cải thiện Claude”.
Nếu chấp nhận chính sách, mọi cuộc trò chuyện mới hoặc tiếp tục sẽ được Anthropic dùng để huấn luyện AI. Người dùng cần đưa ra lựa chọn tham gia hoặc từ chối trước 28/9/2025, nếu muốn tiếp tục sử dụng Claude.
Ngoài ra, có thể chủ động tắt tính năng này bằng cách vào Setting → Privacy → tắt “Help improve Claude.”
![Cách từ chối chia sẻ dữ liệu cho Claude AI]()
Các vấn đề về việc lưu trữ dữ liệu và quyền riêng tư mà người dùng cần nắm
-
Nếu người dùng chọn tham gia, dữ liệu sẽ được lưu trữ trong 5 năm.
-
Nếu không tham gia, dữ liệu tiếp tục được giữ tối đa 30 ngày, giống như hiện nay.
-
Các cuộc trò chuyện đã xóa sẽ không được dùng để huấn luyện.
-
Anthropic khẳng định sử dụng “kết hợp công cụ và quy trình tự động” để lọc dữ liệu nhạy cảm, đồng thời không chia sẻ với bên thứ ba.
Trước đây, Anthropic chưa từng sử dụng dữ liệu hội thoại để huấn luyện Claude, trừ khi người dùng chủ động gửi phản hồi.