Meta gặp khó khi ngăn chặn nội dung ‘ấu dâm’ trên các nền tảng của mình

15:13, 04/12/2023

Meta đang gặp khó khăn trong việc ngăn chặn nội dung ấu dâm trên các nền tảng của họ, bao gồm Facebook và Instagram. Ngày 1/12, Liên minh châu Âu (EU) đã yêu cầu Meta phải trình bày biện pháp chống lạm dụng tình dục trẻ em trước ngày 22/12.

Theo Wall Street Journal (WSJ), Meta đã thành lập một "đội đặc nhiệm" về an toàn trẻ em trên mạng xã hội vào tháng 6/2023, sau khi các nghiên cứu tại Đại học Stanford và Đại học Massachusetts Amherst đã chỉ ra thuật toán của Instagram kết nối các tài khoản liên quan đến nội dung tình dục trẻ vị thành niên.

Tuy nhiên, WSJ cũng chỉ ra thuật toán của Meta vẫn đề xuất nội dung ấu dâm, được chứng minh thông qua báo cáo của Trung tâm Bảo vệ trẻ em Canada.

Meta đã thiết lập một nhóm đặc biệt với hơn 100 nhân viên để ngăn chặn các thẻ hashtag liên quan đến nội dung ấu dâm và cải tiến công nghệ để xác định nội dung không phù hợp trong video trực tiếp. Họ cũng vô hiệu hóa tài khoản, ẩn nhóm và đầu tư vào công cụ phần mềm để giải quyết vấn đề này.

Meta, công ty mẹ của Facebook và Instagram, đang đứng trước thách thức về kiểm soát nội dung ấu dâm trên các nền tảng mạng xã hội này.

Tuy nhiên, Meta cũng đã phải "miễn cưỡng hạn chế đáng kể" hệ thống đề xuất nội dung cá nhân hóa để ngăn chặn nội dung không phù hợp. Người phát ngôn của Meta cho biết họ đang tích cực thực hiện các thay đổi được đề xuất bởi nhóm an toàn trẻ em.

EU cũng đã chất vấn Meta về nội dung lạm dụng tình dục trẻ em trên Instagram và yêu cầu cung cấp thông tin về hệ thống đề xuất nội dung của nền tảng này. Nếu Meta không trình bày đầy đủ thông tin trước ngày 22/12, họ sẽ đối diện với cuộc điều tra chính thức dưới quy định của Đạo luật Dịch vụ Kỹ thuật số (DSA) của EU.

Vấn đề về nội dung không phù hợp trên các nền tảng mạng xã hội, đặc biệt là liên quan đến nội dung ấu dâm và lạm dụng tình dục trẻ em, đã được nhiều quốc gia đối mặt và xử lý theo nhiều cách khác nhau. Dưới đây là một số ví dụ về biện pháp đã được các quốc gia thực hiện:

Châu Âu:

Liên minh châu Âu (EU): EU đã đưa ra các quy định và hướng dẫn liên quan đến an toàn trực tuyến và bảo vệ trẻ em trên mạng. Đạo luật dịch vụ kỹ thuật số (DSA) của EU là một trong những nỗ lực nhằm kiểm soát và đảm bảo an toàn trong môi trường trực tuyến.

Hoa Kỳ:

Cơ quan an toàn trực tuyến (ASACP): Hoạt động như một tổ chức phi lợi nhuận, ASACP hoạt động để ngăn chặn việc sử dụng trái phép nội dung trên mạng và giúp bảo vệ trẻ em khỏi nội dung không phù hợp.

Trung Quốc:

Quản lý Internet Trung Quốc (CAC): Trung Quốc có cơ quan quản lý Internet chính thức để giám sát và kiểm soát nội dung trực tuyến. Họ đã thực hiện nhiều biện pháp để kiểm soát và giám sát nội dung trên các nền tảng mạng xã hội.

Ấn Độ:

Quy định cấm nội dung này (IT Rules): Ấn Độ đã đưa ra quy định mới về an toàn trực tuyến, trong đó có các quy tắc nghiêm ngặt đối với nội dung đồi trụy và lạm dụng trẻ em trên các nền tảng mạng xã hội.

Nhật Bản:

Pháp luật bảo vệ trẻ em trong môi trường mạng: Nhật Bản đã áp dụng các biện pháp pháp lý để bảo vệ trẻ em khỏi nội dung không phù hợp trên Internet, bao gồm cả sự hỗ trợ của cơ quan chính phủ và tổ chức phi lợi nhuận.

Mỗi quốc gia có những phương tiện và hệ thống quản lý khác nhau để giải quyết vấn đề này. Sự hợp tác quốc tế và việc chia sẻ thông tin là quan trọng để đối phó với thách thức toàn cầu này.

Theo Tạp chí Điện tử & Ứng dụng

(https://dientuungdung.vn/meta-gap-kho-khi-ngan-chan-noi-dung-au-dam-tren-cac-nen-tang-cua-minh)