Những thất bại của Meta tại tòa án và bài toán minh bạch trong kỷ nguyên AI

15:38, 30/03/2026

Các thất bại pháp lý gần đây của Meta tại tòa án Mỹ không chỉ là vấn đề riêng của một công ty mạng xã hội, mà còn có thể tạo ra tiền lệ nguy hiểm đối với nghiên cứu trí tuệ nhân tạo và an toàn người tiêu dùng trong tương lai.

Hai lần Meta thua kiện tại tòa án đều xoay quanh các vụ án khác nhau, nhưng cả hai đều liên quan đến cáo buộc rằng công ty này biết về tác hại của sản phẩm mình cung cấp. Ảnh: Getty.

Nghiên cứu nội bộ: Từ “lá chắn” thành “bằng chứng buộc tội”

Hơn một thập kỷ trước, khi còn mang tên Facebook, Meta đã thuê các nhà khoa học xã hội để nghiên cứu tác động của mạng xã hội đối với người dùng. Khi đó, đây được xem là cách để công ty chứng minh họ nghiêm túc trong việc hiểu rõ lợi ích và rủi ro của sản phẩm.

Tuy nhiên, tại hai phiên tòa diễn ra trong tuần qua ở New Mexico và Los Angeles, chính các nghiên cứu nội bộ, email điều hành và tài liệu trình bày của công ty lại trở thành bằng chứng quan trọng khiến bồi thẩm đoàn kết luận Meta đã không kiểm soát nền tảng của mình đầy đủ, gây nguy hiểm cho trẻ em.

Các tài liệu nội bộ được đưa ra trước tòa cho thấy: Một tỷ lệ đáng lo ngại người dùng tuổi teen nhận được lời gạ gẫm tình dục không mong muốn trên Instagram; Một nghiên cứu nội bộ cho thấy những người hạn chế sử dụng Facebook có mức độ trầm cảm và lo âu thấp hơn; Một số nghiên cứu về tác hại của nền tảng đã bị dừng lại.

Luật sư của Meta lập luận rằng nhiều nghiên cứu đã cũ hoặc bị trích dẫn ngữ cảnh, nhưng bồi thẩm đoàn vẫn đưa ra phán quyết bất lợi cho công ty.

Bước ngoặt từ người tố giác Frances Haugen

Một bước ngoặt lớn xảy ra vào năm 2021 khi Frances Haugen – cựu quản lý sản phẩm Facebook – tiết lộ hàng loạt tài liệu nội bộ cho thấy công ty biết về những tác hại tiềm tàng của sản phẩm nhưng không công bố đầy đủ.

Sau sự kiện này, Meta bắt đầu siết chặt kiểm soát các nhóm nghiên cứu nội bộ. Không chỉ Meta, nhiều công ty công nghệ khác cũng cắt giảm hoặc thay đổi các nhóm nghiên cứu về tác động xã hội của sản phẩm, đồng thời hạn chế quyền truy cập dữ liệu cho các nhà nghiên cứu bên ngoài.

Điều này tạo ra một nghịch lý: càng nghiên cứu nhiều về tác hại, các công ty càng có nguy cơ bị kiện.

Rủi ro mới đối với ngành trí tuệ nhân tạo

Trong bối cảnh hiện nay, các công ty AI như OpenAI, Anthropic và Google đang đầu tư mạnh vào nghiên cứu tác động của trí tuệ nhân tạo đối với người dùng. Tuy nhiên, các vụ kiện của Meta có thể khiến các công ty AI cân nhắc lại việc công bố nghiên cứu nội bộ.

Các chuyên gia lo ngại rằng ngành công nghệ đang lặp lại mô hình cũ: Thứ nhất là ưu tiên phát triển sản phẩm. Thứ hai là nghiên cứu an toàn bị thu hẹp. Thứ ba là thiếu minh bạch với công chúng.Chỉ khi xảy ra bê bối hoặc kiện tụng, thông tin mới được công bố

Đáng chú ý, nhiều nhà nghiên cứu cho rằng hiện nay các công ty AI chủ yếu nghiên cứu hành vi và hiệu suất của mô hình AI, trong khi vẫn còn thiếu nghiên cứu về tác động của chatbot và trợ lý AI đối với sức khỏe tâm lý, hành vi và sự phát triển của trẻ em.

Bài học từ Meta: Minh bạch hay rủi ro pháp lý?

Các vụ kiện vừa qua cho thấy một bài toán khó đối với các công ty công nghệ nếu không nghiên cứu tác hại, họ có thể bị cáo buộc thiếu trách nhiệm. Chiều ngược lại, nếu nghiên cứu và phát hiện tác hại, tài liệu đó có thể trở thành bằng chứng chống lại họ tại tòa án.

Tuy nhiên, nhiều chuyên gia cho rằng giải pháp không phải là ngừng nghiên cứu, mà là cần tăng minh bạch, cho phép nghiên cứu độc lập, chia sẻ dữ liệu với các nhà khoa học và thiết lập cơ chế giám sát bên ngoài. Nếu không, lịch sử của mạng xã hội có thể lặp lại với trí tuệ nhân tạo nhưng với quy mô và tác động lớn hơn nhiều.