Apple bị kiện vì từ bỏ chức năng phát hiện CSAM cho iCloud

09:50, 09/12/2024

Apple đang phải đối mặt với một vụ kiện gây chú ý liên quan đến quyết định không triển khai hệ thống quét hình ảnh trên iCloud nhằm phát hiện nội dung lạm dụng tình dục trẻ em (CSAM). Vụ kiện này cho rằng việc không hành động đủ để ngăn chặn sự lạm dụng này đã khiến các nạn nhân phải sống lại những nỗi đau của họ, như tờ The New York Times đã đưa tin.

Theo đơn kiện, Apple đã từng công bố một kế hoạch đầy hứa hẹn vào năm 2021, với mục tiêu sử dụng các chữ ký số từ Trung tâm quốc gia về trẻ em mất tích và những tổ chức khác nhằm phát hiện nội dung CSAM trong kho lưu trữ iCloud của người dùng. Tuy nhiên, công ty đã rút lại chương trình này sau khi hứng chịu nhiều chỉ trích từ các nhóm bảo vệ quyền riêng tư, lo ngại rằng nó có thể mở ra khả năng theo dõi và giám sát từ chính phủ.

Người khởi kiện, một phụ nữ 27 tuổi, cho biết cô đã trở thành nạn nhân của sự lạm dụng từ khi còn nhỏ và những hình ảnh đau lòng vẫn đang bị phát tán trực tuyến. Cô liên tục nhận thông báo từ các cơ quan thực thi pháp luật về việc có người bị buộc tội sở hữu những hình ảnh đó. Luật sư James Marsh, đại diện cho cô, cho biết có khoảng 2.680 nạn nhân khác có thể được bồi thường trong vụ kiện này.

Nguồn hình ảnh: Bryce Durbin / TechCrunch

Phát biểu về vấn đề này, một người phát ngôn của Apple cho biết công ty vẫn đang nỗ lực nghiên cứu và phát triển các giải pháp chống lại những tội ác này, đồng thời bảo đảm rằng sự riêng tư và bảo mật của tất cả người dùng vẫn được ưu tiên.

Ngoài ra, vào tháng 8, một vụ kiện khác đã được đệ trình bởi một bé gái 9 tuổi và người giám hộ của em, cáo buộc Apple không hành động đủ để giải quyết vấn đề CSAM trên nền tảng iCloud.

Thông điệp từ vụ kiện đang làm dấy lên nhiều câu hỏi về trách nhiệm của các gã khổng lồ công nghệ trong việc bảo vệ trẻ em khỏi nạn lạm dụng và liệu họ có thể tìm được sự cân bằng giữa an ninh và quyền riêng tư hay không.