Anthropic bị cáo buộc sử dụng nguồn tài liệu do AI 'bịa ra' để nộp lên tòa án

11:41, 15/05/2025

Một thẩm phán liên bang tại San Jose, California mới đây đã yêu cầu Anthropic phản hồi trước cáo buộc chuyên gia của công ty này đã nộp một văn bản pháp lý chứa các thông tin không chính xác do AI tạo ra để bào chữa tại tòa án trong vụ kiện cáo buộc vi phạm bản quyền âm nhạc.

Theo Reuters, luật sư đại diện cho Universal Music Group, Concord và ABKCO trong vụ kiện liên quan đến việc Anthropic bị cáo buộc sử dụng lời bài hát của họ để huấn luyện chatbot Claude đã nói với Thẩm phán U.S. Magistrate Susan van Keulen tại phiên điều trần rằng một nhà khoa học dữ liệu của Anthropic đã trích dẫn một bài báo học thuật không tồn tại để củng cố lập luận của công ty trước các cáo buộc vi phạm bản quyền từ một nhóm các nhà xuất bản âm nhạc.

Thẩm phán Van Keulen vào hôm 13/5 đã yêu cầu Anthropic phản hồi trước ngày 15/5 (giờ địa phương) về cáo buộc này, trong khi phía công ty cho rằng đây là một lỗi trích dẫn vô tình.

Vị thẩm phán đã từ chối yêu cầu của các công ty âm nhạc về việc thẩm vấn ngay lập tức chuyên gia liên quan, nhưng nói rằng cáo buộc này là “một vấn đề rất nghiêm trọng và cần được tìm ra câu trả lời minh bạch. Đồng thời, bà cũng nhấn mạnh “có sự khác biệt rất lớn giữa một trích dẫn bị thiếu và một sự tưởng tượng do AI tạo ra".

Được biết, vụ kiện của các nhà xuất bản âm nhạc là một trong nhiều tranh chấp có giá trị cao giữa các chủ sở hữu bản quyền và các công ty công nghệ về việc bị cáo buộc sử dụng tác phẩm của các chủ sở hữu bản quyền để huấn luyện hệ thống trí tuệ nhân tạo khi chưa được cấp phép.

Trong văn bản bị nghi vấn, chuyên gia Olivia Chen đã trích dẫn một bài báo từ tạp chí American Statistician nhằm lập luận về các thông số cụ thể để xác định tần suất chatbot Claude tái tạo lời bài hát có bản quyền, điều mà Anthropic gọi là “một hiện tượng hiếm gặp.”

Luật sư của các công ty âm nhạc, ông Matt Oppenheim, từ hãng luật Oppenheim + Zebrak, cho biết trong phiên điều trần rằng ông đã xác nhận với một trong những tác giả được nêu tên và với tạp chí rằng bài báo đó không hề tồn tại. Do đó, lập luận từ phía công ty công nghệ là “hoàn toàn bịa đặt.”

Oppenheim cho biết ông không cho rằng chuyên gia Olivia Chen cố tình tạo ra trích dẫn giả, “nhưng chúng tôi tin rằng rất có thể bà Chen đã sử dụng công cụ AI Claude của Anthropic để xây dựng lập luận và tìm kiếm nguồn dẫn chứng hỗ trợ”.

Luật sư của Anthropic, ông Sy Damle từ hãng luật Latham & Watkins, đã phản đối trong phiên điều trần rằng bên nguyên đơn đã “đánh úp” họ bằng việc không nêu cáo buộc này sớm hơn. Ông cho biết trích dẫn là không chính xác nhưng cũng liên quan đến một bài báo được tồn tại thực tế.

Được biết, đây không phải là vụ việc đầu tiên. Trong thời gian gần đây, một số luật sư đã bị chỉ trích hoặc xử phạt bởi tòa án vì đã vô tình trích dẫn các thông tin về vụ án không tồn tại hoặc thông tin sai lệch do AI "ảo tưởng" tạo ra trong các hồ sơ pháp lý của họ.