Ủy viên An toàn Điện tử Úc yêu cầu các công ty công nghệ lớn như Apple, Facebook, Snapchat, Microsoft và các công ty khác trình bày chi tiết các phương pháp ngăn chặn lạm dụng và bóc lột trẻ em trên nền tảng của họ. Yêu cầu được đưa ra vào ngày 30 tháng 8 và các công ty có 29 ngày để tuân thủ hoặc đối mặt với án phạt.
Apple và Microsoft là những công ty đầu tiên nhận được sự giám sát từ cuộc đánh giá này và theo Reuters, cơ quan quản lý Úc nhận thấy những nỗ lực của họ là chưa đủ. Hai công ty không chủ động quét các tệp của người dùng trên iCloud hoặc OneDrive cho CSAM, cũng như không có phát hiện thuật toán nào cho FaceTime hoặc Skype.
Ủy viên Julie Inman Grant gọi phản hồi của công ty là "đáng báo động." Cô tuyên bố rằng "rõ ràng là việc sử dụng công nghệ phổ biến rộng rãi không đầy đủ và không nhất quán để phát hiện tài liệu lạm dụng trẻ em."
Apple gần đây đã thông báo rằng họ đã từ bỏ kế hoạch quét ảnh được tải lên iCloud để tìm CSAM. Phương pháp này sẽ ngày càng kém hiệu quả hơn vì người dùng hiện có quyền truy cập vào các bản sao lưu và lưu trữ ảnh được mã hóa hoàn toàn từ đầu đến cuối.
iMessage có thể cảnh báo trẻ vị thành niên khi nhận được ảnh khoả thân
Thay vì quét nội dung hiện có đang được lưu trữ hoặc phân phối, Apple đã quyết định thực hiện một cách tiếp cận khác sẽ phát triển theo thời gian. Hiện tại, các thiết bị do trẻ em sử dụng có thể được cha mẹ định cấu hình để cảnh báo cho trẻ nếu phát hiện thấy ảnh khỏa thân trong ảnh được gửi qua iMessage.
Apple có kế hoạch mở rộng khả năng này để phát hiện nội dung trong video, sau đó chuyển hệ thống phát hiện và cảnh báo vào FaceTime và các ứng dụng khác của Apple. Cuối cùng, công ty hy vọng sẽ tạo ra một API cho phép các nhà phát triển sử dụng hệ thống phát hiện trong ứng dụng của họ.
Những người ủng hộ quyền riêng tư đã ca ngợi việc từ bỏ tính năng phát hiện CSAM trong iCloud. Nhưng đồng thời cũng bị lên án bởi các nhóm an toàn trẻ em, cơ quan thực thi pháp luật và các quan chức chính phủ.