ChatGPT bị khiếu nại về quyền riêng tư vì phỉ báng người khác
OpenAI đang phải đối mặt với một khiếu nại khác về quyền riêng tư ở châu Âu liên quan đến xu hướng tạo ra thông tin ảo sai lệch của chatbot AI và điều này có thể khiến các cơ quan quản lý khó có thể bỏ qua.
Nhóm bảo vệ quyền riêng tư Noyb đang hỗ trợ một cá nhân ở Na Uy, người đã vô cùng kinh hoàng khi phát hiện ChatGPT trả về thông tin bịa đặt cho biết anh ta đã bị kết tội giết hai đứa con của mình và cố gắng giết đứa thứ ba.
Các khiếu nại về quyền riêng tư trước đây về việc ChatGPT tạo ra dữ liệu cá nhân không chính xác liên quan đến các vấn đề như ngày sinh không chính xác hoặc thông tin tiểu sử không đúng. Một mối quan tâm là OpenAI không cung cấp cách để cá nhân sửa thông tin không chính xác mà AI tạo ra về họ. Thông thường, OpenAI đã đề nghị chặn phản hồi cho các lời nhắc như vậy. Nhưng theo Quy định bảo vệ dữ liệu chung (GDPR) của Liên minh châu Âu, người châu Âu có một bộ quyền truy cập dữ liệu bao gồm quyền chỉnh sửa dữ liệu cá nhân.
Một thành phần khác của luật bảo vệ dữ liệu này yêu cầu bên kiểm soát dữ liệu phải đảm bảo rằng dữ liệu cá nhân mà họ tạo ra về cá nhân là chính xác và đó là mối quan ngại mà Noyb đang nêu bật trong khiếu nại ChatGPT mới nhất của mình.
“GDPR rất rõ ràng. Dữ liệu cá nhân phải chính xác”, Joakim Söderberg, luật sư bảo vệ dữ liệu tại Noyb, cho biết trong một tuyên bố. “Nếu không, người dùng có quyền yêu cầu thay đổi để phản ánh sự thật. Việc chỉ cho người dùng ChatGPT một tuyên bố miễn trừ trách nhiệm nhỏ rằng chatbot có thể mắc lỗi rõ ràng là không đủ. Bạn không thể chỉ phát tán thông tin sai lệch và cuối cùng thêm một tuyên bố miễn trừ trách nhiệm nhỏ nói rằng mọi thứ bạn nói có thể không đúng sự thật”.
Việc vi phạm GDPR được xác nhận có thể dẫn đến mức phạt lên tới 4% doanh thu hàng năm trên toàn cầu.
Việc thực thi cũng có thể buộc phải thay đổi các sản phẩm AI. Đáng chú ý, một sự can thiệp GDPR sớm của cơ quan giám sát bảo vệ dữ liệu của Ý khiến quyền truy cập ChatGPT bị chặn tạm thời tại quốc gia này vào mùa xuân năm 2023 đã khiến OpenAI phải thay đổi thông tin mà họ tiết lộ cho người dùng. Sau đó, cơ quan giám sát đã phạt OpenAI 15 triệu euro vì xử lý dữ liệu của mọi người mà không có cơ sở pháp lý phù hợp.
Kể từ đó, có thể nói rằng các cơ quan giám sát quyền riêng tư trên khắp châu Âu đã áp dụng cách tiếp cận thận trọng hơn đối với GenAI khi họ cố gắng tìm ra cách tốt nhất để áp dụng GDPR vào các công cụ AI phổ biến này.
Hai năm trước, Ủy ban Bảo vệ Dữ liệu (DPC) của Ireland với vai trò thực thi GDPR hàng đầu trong khiếu nại Noyb ChatGPT đã kêu gọi không vội vàng cấm các công cụ GenAI. Điều này cho thấy các cơ quan quản lý nên dành thời gian để tìm ra cách áp dụng luật.
Và điều đáng chú ý là khiếu nại về quyền riêng tư đối với ChatGPT đã được cơ quan giám sát bảo vệ dữ liệu của Ba Lan điều tra kể từ tháng 9 năm 2023 vẫn chưa đưa ra quyết định.
Khiếu nại ChatGPT mới của Noyb có vẻ như nhằm mục đích đánh thức các cơ quan quản lý quyền riêng tư khi nói đến mối nguy hiểm của AI gây ảo giác.
'Vụ án đã gây chấn động cộng đồng địa phương… '
Tổ chức phi lợi nhuận này đã chia sẻ ảnh chụp màn hình (bên dưới), trong đó cho thấy tương tác với ChatGPT trong đó AI trả lời câu hỏi "Arve Hjalmar Holmen là ai?" — tên của cá nhân nộp đơn khiếu nại bằng cách đưa ra một câu chuyện hư cấu bi thảm, trong đó nói rằng anh ta bị kết tội giết trẻ em và bị kết án 21 năm tù vì giết hai người con trai của mình.
Trong khi tuyên bố phỉ báng rằng Hjalmar Holmen là kẻ giết trẻ em hoàn toàn sai, Noyb lưu ý rằng phản hồi của ChatGPT có bao gồm một số sự thật, vì cá nhân được đề cập có ba đứa con. Chatbot cũng đã xác định đúng giới tính của những đứa con của anh ta. Và quê hương của anh ta được đặt tên chính xác. Nhưng chỉ riêng điều đó đã khiến mọi thứ trở nên kỳ lạ và đáng lo ngại hơn khi AI lại ảo tưởng những điều sai trái khủng khiếp như vậy.
Người phát ngôn của Noyb cho biết họ không thể xác định lý do tại sao chatbot lại tạo ra một lịch sử cụ thể nhưng sai lệch như vậy cho cá nhân này. "Chúng tôi đã nghiên cứu để đảm bảo rằng đây không chỉ là sự nhầm lẫn với một người khác", người phát ngôn cho biết, lưu ý rằng họ đã xem xét kho lưu trữ báo chí nhưng không thể tìm ra lời giải thích tại sao AI lại bịa ra vụ giết trẻ em.
Các mô hình ngôn ngữ lớn như mô hình cơ bản ChatGPT về cơ bản sẽ dự đoán từ tiếp theo trên quy mô lớn, do đó chúng ta có thể suy đoán rằng các tập dữ liệu được sử dụng để đào tạo công cụ này chứa rất nhiều câu chuyện về giết con đã ảnh hưởng đến các lựa chọn từ ngữ khi trả lời truy vấn về một người đàn ông được nêu tên.
Bất kể lời giải thích nào thì rõ ràng những kết quả như vậy là hoàn toàn không thể chấp nhận được.
Noyb cũng cho rằng chúng là bất hợp pháp theo các quy tắc bảo vệ dữ liệu của EU. Và mặc dù OpenAI có hiển thị một tuyên bố từ chối trách nhiệm nhỏ ở cuối màn hình có nội dung "ChatGPT có thể mắc lỗi. Hãy kiểm tra thông tin quan trọng", nhưng tuyên bố này không thể miễn trừ trách nhiệm của nhà phát triển AI theo GDPR là không được tạo ra những thông tin sai lệch nghiêm trọng về mọi người ngay từ đầu.
Hiện, OpenAI đã được liên hệ để phản hồi khiếu nại.
Mặc dù khiếu nại GDPR này chỉ liên quan đến một cá nhân được nêu tên, Noyb chỉ ra những trường hợp khác mà ChatGPT bịa đặt thông tin gây tổn hại về mặt pháp lý, chẳng hạn như một thiếu tá người Úc nói rằng anh ta bị liên lụy vào một vụ bê bối hối lộ và tham nhũng hoặc một nhà báo người Đức bị nêu tên sai là kẻ xâm hại trẻ em và cho biết rõ ràng đây không phải là vấn đề riêng lẻ đối với công cụ AI.
Một điều quan trọng cần lưu ý là, sau khi cập nhật mô hình AI cơ bản hỗ trợ ChatGPT, Noyb cho biết chatbot đã ngừng tạo ra những thông tin sai lệch nguy hiểm về Hjalmar Holmen — một thay đổi liên quan đến việc công cụ này hiện đang tìm kiếm thông tin về mọi người trên internet khi được hỏi họ là ai (trong khi trước đây, một khoảng trống trong tập dữ liệu của công cụ có thể khiến công cụ này ảo giác đưa ra phản hồi sai lệch đến vậy).
Trong các thử nghiệm của riêng chúng tôi khi hỏi ChatGPT "Arve Hjalmar Holmen là ai?", ChatGPT ban đầu trả lời bằng một kết hợp hơi kỳ lạ bằng cách hiển thị một số ảnh của những người khác nhau, dường như có nguồn từ các trang web bao gồm Instagram, SoundCloud và Discogs, cùng với văn bản tuyên bố rằng nó "không thể tìm thấy bất kỳ thông tin nào" về một cá nhân có tên đó (xem ảnh chụp màn hình bên dưới của chúng tôi). Một nỗ lực thứ hai đưa ra một phản hồi xác định Arve Hjalmar Holmen là "một nhạc sĩ và nhạc sĩ người Na Uy" có album bao gồm "Honky Tonk Inferno".
Ảnh chụp chatgpt: natasha lomas/techcrunch
Mặc dù những thông tin sai lệch nguy hiểm do ChatGPT tạo ra về Hjalmar Holmen dường như đã dừng lại, cả Noyb và Hjalmar Holmen vẫn lo ngại rằng thông tin không chính xác và phỉ báng về anh ta có thể vẫn được lưu giữ trong mô hình AI.
“Việc thêm một tuyên bố miễn trừ rằng bạn không tuân thủ luật pháp không làm cho luật pháp biến mất”, Kleanthi Sardeli, một luật sư bảo vệ dữ liệu khác tại Noyb, lưu ý trong một tuyên bố. “Các công ty AI cũng không thể chỉ 'ẩn' thông tin sai lệch khỏi người dùng trong khi họ vẫn xử lý thông tin sai lệch trong nội bộ”.
"Các công ty AI nên ngừng hành động như thể GDPR không áp dụng cho họ, khi rõ ràng là có", bà nói thêm. "Nếu ảo giác không được ngăn chặn, mọi người có thể dễ dàng bị tổn hại về mặt danh tiếng".
Noyb đã nộp đơn khiếu nại chống lại OpenAI lên cơ quan bảo vệ dữ liệu của Na Uy và hy vọng cơ quan giám sát sẽ quyết định rằng họ có thẩm quyền để điều tra, vì oyb nhắm mục tiêu khiếu nại vào chi nhánh của OpenAI tại Hoa Kỳ, với lập luận rằng văn phòng tại Ireland không chịu trách nhiệm duy nhất về các quyết định liên quan đến sản phẩm ảnh hưởng đến người châu Âu.
Tuy nhiên, một khiếu nại GDPR trước đó do Noyb hậu thuẫn chống lại OpenAI, được đệ trình tại Áo vào tháng 4 năm 2024, đã được cơ quan quản lý chuyển đến DPC của Ireland do OpenAI đã thay đổi tên bộ phận tại Ireland của mình thành nhà cung cấp dịch vụ ChatGPT cho người dùng trong khu vực.
Khiếu nại đó hiện ở đâu? Vẫn nằm trên bàn làm việc ở Ireland.
Khi được hỏi về thông tin cập nhật, Risteard Byrne, trợ lý giám đốc truyền thông của DPC, cho biết với TechCrunch: "Sau khi nhận được khiếu nại từ Cơ quan Giám sát Áo vào tháng 9 năm 2024, DPC đã bắt đầu xử lý khiếu nại chính thức và vẫn đang tiếp tục".
Ông không đưa ra bất kỳ chỉ đạo nào về thời điểm dự kiến kết thúc cuộc điều tra về ảo giác của ChatGPT của DPC.