Meta bị tố che giấu nghiên cứu về an toàn trẻ em, 4 người tố giác khẳng định

13:17, 09/09/2025

Hai nhân viên hiện tại và hai cựu nhân viên của Meta đã cung cấp tài liệu cho Quốc hội, cáo buộc công ty có thể đã che giấu các nghiên cứu về an toàn của trẻ em, theo báo cáo từ The Washington Post.

Theo cáo buộc của họ, Meta đã thay đổi chính sách liên quan đến việc nghiên cứu các chủ đề nhạy cảm - như chính trị, trẻ em, giới tính, chủng tộc và quấy rối - sáu tuần sau khi người tố giác Frances Haugen rò rỉ tài liệu nội bộ cho thấy chính nghiên cứu của Meta phát hiện Instagram có thể gây hại cho sức khỏe tâm thần của các thiếu nữ. Những tiết lộ này, được công bố vào năm 2021, đã khởi đầu cho nhiều phiên điều trần tại Quốc hội về vấn đề an toàn trẻ em trên internet, vốn đến nay vẫn là chủ đề nóng trong các chính phủ trên toàn cầu.

Ảnh: Getty Images

Theo báo cáo, trong khuôn khổ thay đổi chính sách đó, Meta đã đề xuất hai cách để các nhà nghiên cứu giảm rủi ro khi tiến hành nghiên cứu nhạy cảm. Một gợi ý là đưa luật sư tham gia vào quá trình nghiên cứu, nhằm bảo vệ trao đổi thông tin của họ khỏi “các bên bất lợi” nhờ đặc quyền giữa luật sư và thân chủ. Các nhà nghiên cứu cũng có thể viết báo cáo phát hiện của mình một cách mơ hồ hơn, tránh dùng những cụm từ như “không tuân thủ” hoặc “bất hợp pháp.”

Jason Sattizahn, một cựu nhà nghiên cứu của Meta chuyên về thực tế ảo, nói với The Washington Post rằng cấp trên của ông từng buộc ông phải xóa các bản ghi âm một cuộc phỏng vấn, trong đó một thiếu niên kể rằng em trai 10 tuổi của mình đã bị gạ gẫm tình dục trên nền tảng VR của Meta, Horizon Worlds.

“Một số quy định toàn cầu về quyền riêng tư nêu rõ rằng nếu thông tin từ trẻ em dưới 13 tuổi được thu thập mà không có sự đồng ý có thể xác minh của cha mẹ hoặc người giám hộ, thông tin đó phải bị xóa,” người phát ngôn của Meta nói với TechCrunch.

Tuy nhiên, những người tố giác khẳng định rằng các tài liệu họ nộp cho Quốc hội cho thấy có một mô hình chung trong việc nhân viên bị ngăn cản thảo luận và nghiên cứu về những lo ngại liên quan đến việc trẻ em dưới 13 tuổi sử dụng các ứng dụng thực tế ảo xã hội của Meta.

“Những ví dụ lẻ tẻ này đang bị chắp nối lại để khớp với một câu chuyện có sẵn và sai lệch; trên thực tế, kể từ đầu năm 2022, Meta đã phê duyệt gần 180 nghiên cứu liên quan đến Reality Labs về các vấn đề xã hội, bao gồm an toàn và phúc lợi của thanh thiếu niên,” Meta nói với TechCrunch.

Trong một vụ kiện được nộp vào tháng 2, Kelly Stonelake — cựu nhân viên Meta với 15 năm làm việc — đã nêu ra những lo ngại tương tự như bốn người tố giác khác. Bà nói với TechCrunch đầu năm nay rằng mình từng phụ trách chiến lược “go-to-market” để đưa Horizon Worlds đến với thanh thiếu niên, các thị trường quốc tế và người dùng di động, nhưng bà cảm thấy ứng dụng này không có đủ cơ chế để ngăn chặn người dùng dưới 13 tuổi; bà cũng chỉ ra rằng ứng dụng thường xuyên gặp vấn đề về phân biệt chủng tộc.

“Ban lãnh đạo biết rõ rằng trong một thử nghiệm, chỉ mất trung bình 34 giây sau khi tham gia nền tảng để người dùng có avatar da màu bị gọi bằng những lời lẽ phân biệt chủng tộc, bao gồm từ ngữ miệt thị ‘N-word’ và ‘khỉ,’” đơn kiện cáo buộc.

Stonelake cũng đã khởi kiện riêng Meta với cáo buộc quấy rối tình dục và phân biệt đối xử về giới tính.

Trong khi các cáo buộc của những người tố giác này tập trung vào sản phẩm VR của Meta, công ty cũng đang đối mặt với chỉ trích liên quan đến các sản phẩm khác, như chatbot AI, và cách chúng ảnh hưởng đến trẻ vị thành niên. Reuters đưa tin tháng trước rằng các quy định về AI của Meta trước đây cho phép chatbot có những cuộc trò chuyện “lãng mạn hoặc gợi dục” với trẻ em.