Truy cập với người dưới 18 tuổi, xóa bỏ tài khoản của trẻ dưới 13 tuổi...

17:45, 09/11/2023

Đại diện Tiktok Singapore đã có buổi làm việc với cơ quan chức năng Việt Nam - đưa ra những giải pháp bảo vệ trẻ em trên nền tảng TikTok, như hạn chế thời gian truy cập với người dưới 18 tuổi, xóa bỏ tài khoản của trẻ dưới 13 tuổi...

Theo ông Lê Quang Tự Do - Cục trưởng Cục Phát thanh, Truyền hình và Thông tin điện tử (Bộ Thông tin và Truyền thông), sau khi công bố kết luận kiểm tra toàn diện với TikTok Việt Nam, đại diện TikTok Singapore - đơn vị trực tiếp quản lý, vận hành cung cấp các dịch vụ TikTok tại Việt Nam, đã có buổi làm việc với cơ quan chức năng Việt Nam.

Sau buổi làm việc, TikTok Singarpore đã gửi một văn bản cam kết thực hiện các yêu cầu của cơ quan chức năng, đặc biệt là cam kết bảo vệ trẻ em trên môi trường TikTok. Hiện nay, TikTok Singapore đang hoàn thiện các thông tin chi tiết về thời gian, tiến độ thực hiện và cách thức biện pháp thực hiện những giải pháp trên, dự báo sẽ gửi lại cơ quan chức năng Việt Nam trong tuần này.

Ông Lê Quang Tự Do cho biết thêm, những tháng gần đây, bằng công cụ giám sát của Bộ Thông tin và Truyền thông, nền tảng TikTok có chuyển biến tích cực, nội dung độc hại giảm nhiều. TikTok cũng phối hợp tốt với cơ quan chức năng trong việc ngăn chặn nhanh các tài khoản độc hại.

Trong tháng 10, TikTok đã chặn, gỡ bỏ 53 nội dung vi phạm (tỉ lệ 95%). Trong đó, xóa 44 tài khoản có nội dung chống phá Đảng, Nhà nước, bôi nhọ, xúc phạm lãnh tụ.

Trước đó, Bộ Thông tin và Truyền thông công bố kết quả kiểm tra liên ngành với hoạt động của TikTok tại Việt Nam, chỉ ra nhiều sai phạm của TikTok liên quan đến bảo vệ quyền trẻ em, như: TikTok không có biện pháp, công cụ bảo đảm an toàn về thông tin bí mật đời sống riêng tư của trẻ em; không gửi các thông điệp cảnh báo nguy cơ khi trẻ em cung cấp, thay đổi thông tin bí mật đời sống riêng tư của trẻ em...

TikTok cũng không thực hiện việc phát hiện, loại bỏ các hình ảnh, tài liệu, thông tin không phù hợp với trẻ em, ảnh hưởng đến sự phát triển lành mạnh của trẻ em; không tổ chức tiếp nhận thông tin, đánh giá phân loại theo mức độ an toàn cho trẻ em, vẫn cho phép trẻ em dưới 13 tuổi mở tài khoản dù là nền tảng mạng xã hội chỉ dành cho người từ 13 tuổi trở lên.

Đoàn kiểm tra đã yêu cầu TikTok phải triển khai các biện pháp bảo vệ trẻ em theo quy định tại điều 33, 34, 35, 36, 37, chương IV về trách nhiệm bảo vệ trẻ em trên môi trường mạng của Nghị định số 56/2017/NĐ-CP ngày 9/5/2017 của Chính phủ, quy định chi tiết một số điều của Luật Trẻ em. Trong đó, phải xác thực thông tin tài khoản để phát hiện các trường hợp:

Trẻ em khai không đúng độ tuổi sử dụng TikTok, xóa các tài khoản trẻ em dưới 13 tuổi; giới hạn thời gian truy cập, sử dụng TikTok với người dưới 18 tuổi, không cho phép trẻ em kiếm tiền qua TikTok; bảo vệ thông tin cá nhân của trẻ em, khi đăng lên cần có sự đồng ý của trẻ em và cha mẹ, người chăm sóc, người giám hộ trẻ em hoặc video cần phải che mặt, làm mờ hình ảnh trẻ em trước khi đăng lên;

Cảnh báo về độ tuổi cho các video trên TikTok, kiểm soát chặt chẽ video có nội dung nhảm nhí, độc hại, không phù hợp với lứa tuổi;

Ngoài ra, nghiên cứu xây dựng ứng dụng dành riêng cho trẻ em (app for kid) tại Việt Nam.

Theo Doanh nghiệp và thương hiệu

(https://doanhnghiepthuonghieu.vn/tiktok-se-gioi-han-thoi-gian-truy-cap-voi-nguoi-duoi-18-tuoi-xoa-tai-khoan-cua-tre-duoi-13-1490283638-p49880.html)