Quyền riêng tư một lần nữa giành được chiến thắng khi người dùng Apple không còn phải lo lắng về việc công ty sẽ quét thư viện ảnh iCloud của họ.
Apple đã công bố kế hoạch quét nội dung iCloud của bạn để tìm tài liệu xâm hại tình dục trẻ em (CSAM) vào tháng 8 năm 2021 nhằm bảo vệ trẻ em khỏi bị những kẻ săn mồi lạm dụng. Công ty đã lên kế hoạch tung ra một tính năng phát hiện CSAM mới trong iCloud Photos, tính năng này sẽ quét nội dung đó và báo cáo các hình ảnh phù hợp cho Apple trong khi vẫn duy trì quyền riêng tư của người dùng.
Tuy nhiên, tính năng mới đã vấp phải nhiều phản ứng trái chiều. Hơn một năm kể từ thông báo ban đầu, Apple chính thức hủy bỏ kế hoạch quét iCloud Photos để tìm CSAM.
Apple bỏ kế hoạch quét iCloud để tìm tài liệu lạm dụng trẻ em
Theo báo cáo của WIRED, Apple đang từ bỏ kế hoạch quét iCloud của bạn để tìm nội dung lạm dụng trẻ em. Công cụ này sẽ quét ảnh được lưu trữ trên iCloud để tìm những ảnh khớp với hình ảnh CSAM đã biết do các tổ chức an toàn cho trẻ em xác định. Sau đó, nó có thể báo cáo những hình ảnh đó vì sở hữu hình ảnh CSAM là bất hợp pháp ở hầu hết các khu vực tài phán, bao gồm cả Hoa Kỳ.
Tại sao Apple hủy kế hoạch quét ảnh iCloud?
Sau thông báo ban đầu vào năm 2021, Apple đã phải đối mặt với phản ứng dữ dội từ khách hàng, các nhóm và cá nhân ủng hộ quyền riêng tư và bảo mật kỹ thuật số trên toàn thế giới. iPhone thường cung cấp khả năng bảo mật cao hơn thiết bị Android và nhiều người coi đây là một bước lùi. Mặc dù đó là một chiến thắng cho các tổ chức an toàn trẻ em, nhưng hơn 90 nhóm chính sách đã viết một bức thư ngỏ tới Apple vào cuối tháng đó, yêu cầu công ty hủy bỏ kế hoạch.
Bức thư lập luận rằng mặc dù công cụ này có ý định bảo vệ trẻ em khỏi bị lạm dụng , nhưng nó có thể được tận dụng để kiểm duyệt quyền tự do ngôn luận và đe dọa quyền riêng tư cũng như bảo mật của người dùng. Do áp lực gia tăng, Apple đã tạm dừng kế hoạch ra mắt để thu thập phản hồi và thực hiện các điều chỉnh cần thiết cho tính năng này. Tuy nhiên, phản hồi không ủng hộ kế hoạch quét iCloud Photos của Apple, vì vậy công ty đã chính thức từ bỏ kế hoạch này mãi mãi.
Trong một tuyên bố với WIRED, công ty cho biết:
"Chúng tôi đã ... quyết định không tiếp tục với công cụ phát hiện CSAM được đề xuất trước đây của chúng tôi cho Ảnh iCloud. Trẻ em có thể được bảo vệ mà không cần các công ty kiểm tra dữ liệu cá nhân và chúng tôi sẽ tiếp tục hợp tác với chính phủ, những người ủng hộ trẻ em và các công ty khác để giúp bảo vệ những người trẻ tuổi, bảo vệ quyền riêng tư của họ và làm cho internet trở thành một nơi an toàn hơn cho trẻ em và cho tất cả chúng ta."
Kế hoạch mới của Apple để bảo vệ trẻ em
Apple đang chuyển hướng nỗ lực của mình để cải thiện các tính năng An toàn giao tiếp được công bố vào tháng 8 năm 2021 và ra mắt vào tháng 12 cùng năm.
An toàn Giao tiếp là tùy chọn và có thể được cha mẹ cũng như người giám hộ sử dụng để bảo vệ trẻ em khỏi cả việc gửi và nhận hình ảnh khiêu dâm trong iMessage. Tính năng này sẽ tự động làm mờ những bức ảnh như vậy và đứa trẻ sẽ được cảnh báo về những nguy hiểm liên quan. Nó cũng cảnh báo bất kỳ ai nếu họ cố gắng tìm kiếm CSAM trên các thiết bị của Apple.
Với kế hoạch ra mắt công cụ phát hiện CSAM bị hủy bỏ, công ty mong muốn cải thiện tính năng này hơn nữa và mở rộng nó sang nhiều ứng dụng liên lạc hơn.