Theo AppleInsider, nội dung cung cấp một tóm tắt về tính năng mà Apple đang thiết kế để phát hiện hành vi CSAM. Đó là một nỗ lực đa hướng, nơi hệ thống của Apple sử dụng máy học trên thiết bị để phát hiện và báo cáo các hình ảnh CSAM được tải lên iCloud Photos, cũng như bảo vệ trẻ em khỏi các hình ảnh nhạy cảm được gửi qua Messages.
Bức thư viết, “Mặc dù bóc lột trẻ em là một vấn đề nghiêm trọng và trong khi các nỗ lực chống lại nó hầu như là có mục đích tốt, đề xuất của Apple đưa ra một cửa hậu có nguy cơ phá hoại các biện pháp bảo vệ quyền riêng tư cơ bản cho tất cả người dùng các sản phẩm của Apple”.
Khi nó được triển khai, hệ thống của Apple sẽ đánh giá các bức ảnh của người dùng với cơ sở dữ liệu CSAM đã biết. Quá trình này được thực hiện trên thiết bị trước khi tải lên và chỉ áp dụng cho các hình ảnh được gửi đến iCloud. Công cụ sử dụng máy học trên thiết bị để bảo vệ người dưới 17 tuổi xem hình ảnh khiêu dâm trong Messages. Phụ huynh có thể chọn nhận thông báo khi trẻ em dưới 13 tuổi gửi hoặc nhận nội dung đó.
Cũng theo nội dung bức thư, các kỹ thuật của Apple gây ra một vấn đề vì họ bỏ qua mã hóa đầu cuối. Bức thư lập luận “Bởi vì cả hai lần kiểm tra đều được thực hiện trên thiết bị của người dùng, chúng có khả năng bỏ qua bất kỳ giao thức mã hóa end-to-end nào có thể bảo vệ quyền riêng tư của người dùng”.
Về phần mình, Apple nói các giao thức an toàn mới không tạo ra một cửa hậu đối với các tính năng bảo mật phần cứng và phần mềm của công ty.
Được biết, bức thư đã nhận được sự ủng hộ từ các chuyên gia trong ngành và những tên tuổi nổi tiếng như Edward Snowden và Matthew Green - giáo sư mật mã tại Đại học Johns Hopkins. Ngoài ra còn có 19 tổ chức và 640 cá nhân thêm nhãn hiệu ủng hộ thông qua GitHub.
Cùng với việc kêu gọi ngừng triển khai, bức thư yêu cầu Apple đưa ra một tuyên bố “tái khẳng định cam kết của họ đối với mã hóa đầu cuối và quyền riêng tư của người dùng”.
Bình luận (0)