Khi kế hoạch gây tranh cãi của Apple nhằm truy tìm tài liệu lạm dụng tình dục trẻ em bằng tính năng quét trên iPhone đã bị hủy bỏ, công ty đã có kế hoạch khác để ngăn chặn ngay tận gốc.
Apple đã công bố hai sáng kiến vào cuối năm 2021 nhằm bảo vệ trẻ em khỏi bị lạm dụng. Một cái vừa có hiệu lực ngày hôm kia là cảnh báo trẻ vị thành niên trước khi gửi hoặc nhận ảnh có nội dung khỏa thân. Nó hoạt động bằng cách sử dụng thuật toán phát hiện ảnh khỏa thân và chỉ cảnh báo cho trẻ em, cha mẹ sẽ không được thông báo.
Tính năng thứ hai gây tranh cãi hơn nhiều, đó là việc phân tích ảnh của người dùng được tải lên iCloud trên iPhone của người dùng để tìm nội dung CSAM đã biết. Phân tích được thực hiện cục bộ trên thiết bị và sử dụng hệ thống cắt nhỏ.
Sau phản ứng dữ dội từ các chuyên gia, các nhóm an toàn cho trẻ em và chính phủ về quyền riêng tư, Apple đã tạm dừng tính năng này vô thời hạn để xem xét. Vào thứ Tư, Apple đã đưa ra một tuyên bố tới AppleInsider và các địa điểm khác để giải thích rằng họ đã từ bỏ hoàn toàn tính năng này.
"Sau khi tham khảo ý kiến rộng rãi với các chuyên gia để thu thập phản hồi về các sáng kiến bảo vệ trẻ em mà chúng tôi đã đề xuất vào năm ngoái, chúng tôi đang tăng cường đầu tư vào tính năng An toàn liên lạc mà lần đầu tiên chúng tôi cung cấp vào tháng 12 năm 2021."
"Chúng tôi đã quyết định không tiếp tục với công cụ phát hiện CSAM được đề xuất trước đây cho Ảnh iCloud. Trẻ em có thể được bảo vệ mà không cần các công ty tìm hiểu dữ liệu cá nhân, và chúng tôi sẽ tiếp tục hợp tác với chính phủ, những người ủng hộ trẻ em và các công ty khác để giúp bảo vệ những người trẻ tuổi, bảo vệ quyền riêng tư của trẻ và làm cho Internet trở thành một nơi an toàn hơn cho trẻ em và cho tất cả chúng ta."
Tuyên bố này được đưa ra ngay sau khi Apple công bố các tính năng mã hóa đầu cuối mới nhiều dữ liệu iCloud hơn, bao gồm nội dung iMessage và ảnh. Các biện pháp bảo vệ được tăng cường này sẽ khiến hệ thống flag phía máy chủ không thể thực hiện được (vốn là một phần chính trong tính năng phát hiện CSAM của Apple).
Thực hiện một cách tiếp cận khác
Amazon, Google, Microsoft và những công ty khác đã thực hiện quét phía máy chủ theo yêu cầu của pháp luật, nhưng mã hóa đầu cuối sẽ ngăn Apple làm như vậy.
Thay vào đó, Apple hy vọng sẽ giải quyết vấn đề tận gốc - ngay tại khâu sáng tạo và phân phối. Thay vì nhắm mục tiêu vào những người tích trữ nội dung trong máy chủ đám mây, Apple hy vọng sẽ giáo dục người dùng và ngăn nội dung được tạo và gửi ngay từ đầu.
Apple đã cung cấp thêm thông tin chi tiết về sáng kiến này cho Wired. Mặc dù không có mốc thời gian cho các tính năng này, nhưng nó sẽ bắt đầu bằng việc mở rộng tính năng phát hiện ảnh khỏa thân theo thuật toán thành video cho tính năng An toàn giao tiếp. Sau đó, Apple sẽ có kế hoạch mở rộng các biện pháp bảo vệ này sang các công cụ giao tiếp khác của mình, tiếp đến là cung cấp cho các nhà phát triển quyền truy cập.
Apple cũng cho biết trong một tuyên bố: “Việc bóc lột trẻ em tiềm ẩn có thể bị ngăn chặn trước khi nó xảy ra bằng cách cung cấp các công cụ chọn tham gia cho phụ huynh để giúp bảo vệ con cái họ khỏi những liên lạc không an toàn”. "Apple đang tận tâm phát triển các giải pháp bảo vệ quyền sáng tạo riêng tư để chống lại Tài liệu lạm dụng tình dục trẻ em và bảo vệ trẻ em, đồng thời giải quyết các nhu cầu riêng tư đặc biệt về liên lạc cá nhân và lưu trữ dữ liệu."
Các biện pháp bảo vệ khác trên thiết bị sẽ được tích hợp trong Siri, Safari và Spotlight để phát hiện khi người dùng tìm kiếm CSAM. Điều này sẽ chuyển hướng tìm kiếm đến các tài nguyên cung cấp trợ giúp cho cá nhân.
Các tính năng giáo dục người dùng trong khi bảo vệ quyền riêng tư là mục tiêu của Apple trong nhiều thập kỷ. Tất cả các triển khai hiện có về an toàn cho trẻ em đều tìm cách thông báo và Apple không bao giờ biết khi nào tính năng an toàn được kích hoạt.
Bạn đánh giá như thế nào về sáng chế giúp bảo vệ quyền trẻ em và quyền riêng tư của Apple? Hãy để lại ý kiến ở phần nhận xét bên dưới.