Trung Quốc chuẩn bị kiểm soát chatbot AI tác động tiêu cực đến người dùng
Trung Quốc dự kiến siết chặt quản lý các chatbot sử dụng trí tuệ nhân tạo, nhằm ngăn việc những công cụ này tác động đến cảm xúc con người theo cách có thể dẫn tới tự sát hoặc tự gây hại, theo dự thảo quy định được công bố hôm thứ Bảy.
Các quy định đề xuất do Cục Quản lý Không gian mạng Trung Quốc ban hành, nhắm tới những gì cơ quan này gọi là “dịch vụ AI tương tác mang tính giống con người”, theo bản dịch của CNBC từ tài liệu tiếng Trung.
Khi được hoàn thiện, các biện pháp này sẽ áp dụng đối với các sản phẩm hoặc dịch vụ AI cung cấp cho công chúng tại Trung Quốc, có khả năng mô phỏng nhân cách con người và tương tác cảm xúc với người dùng thông qua văn bản, hình ảnh, âm thanh hoặc video. Thời hạn lấy ý kiến công chúng kết thúc vào ngày 25/1.

Trong bức ảnh chụp ngày 2/2/2024, bà Lu Yu, Trưởng bộ phận Quản lý sản phẩm và Vận hành của Wantalk, chatbot trí tuệ nhân tạo do tập đoàn công nghệ Trung Quốc Baidu phát triển, đang giới thiệu hồ sơ “bạn gái ảo” trên điện thoại tại trụ sở Baidu ở Bắc Kinh. Ảnh: Jade Gao | AFP | Getty Images
Theo ông Winston Ma, giảng viên thỉnh giảng tại Trường Luật Đại học New York (NYU), các quy định dự kiến của Bắc Kinh sẽ đánh dấu nỗ lực đầu tiên trên thế giới nhằm quản lý AI mang đặc điểm con người hoặc nhân hóa. Đề xuất mới được đưa ra trong bối cảnh các doanh nghiệp Trung Quốc đang nhanh chóng phát triển các “bạn đồng hành AI” và người nổi tiếng kỹ thuật số.
So với quy định về AI tạo sinh được Trung Quốc ban hành năm 2023, ông Ma cho rằng phiên bản lần này “nhấn mạnh bước chuyển từ an toàn nội dung sang an toàn cảm xúc”.
Nội dung chính của dự thảo quy định
Theo dự thảo, các chatbot AI:
-
Không được tạo ra nội dung khuyến khích tự sát hoặc tự gây hại, cũng như không được tham gia vào hành vi bạo lực ngôn từ hoặc thao túng cảm xúc gây tổn hại đến sức khỏe tinh thần của người dùng.
-
Trong trường hợp người dùng trực tiếp đề cập đến ý định tự sát, nhà cung cấp công nghệ phải để con người tiếp quản cuộc trò chuyện và ngay lập tức liên hệ với người giám hộ hoặc cá nhân được chỉ định của người dùng.
-
Không được tạo nội dung liên quan đến cờ bạc, khiêu dâm hoặc bạo lực.
-
Người chưa thành niên chỉ được sử dụng AI cho mục đích đồng hành cảm xúc khi có sự đồng ý của người giám hộ, kèm theo giới hạn thời gian sử dụng.
Các nền tảng cũng phải có khả năng xác định liệu người dùng có phải là trẻ vị thành niên hay không, ngay cả khi người dùng không khai báo tuổi. Trong trường hợp không chắc chắn, nền tảng phải áp dụng các thiết lập dành cho trẻ vị thành niên, đồng thời cho phép người dùng khiếu nại.
Những quy định bổ sung yêu cầu các nhà cung cấp công nghệ phải nhắc nhở người dùng sau hai giờ tương tác liên tục với AI, cũng như bắt buộc đánh giá an ninh đối với chatbot AI có hơn 1 triệu người dùng đăng ký hoặc trên 100.000 người dùng hoạt động hàng tháng.
Tài liệu cũng khuyến khích sử dụng AI mang tính giống con người trong các lĩnh vực như “truyền bá văn hóa và chăm sóc, đồng hành với người cao tuổi”.
Các đợt IPO của chatbot AI Trung Quốc
Đề xuất này được công bố không lâu sau khi hai startup chatbot AI hàng đầu Trung Quốc là Z.ai và Minimax nộp hồ sơ chào bán cổ phiếu lần đầu ra công chúng (IPO) tại Hong Kong trong tháng này.
Minimax được biết đến rộng rãi trên thị trường quốc tế với ứng dụng Talkie AI, cho phép người dùng trò chuyện với các nhân vật ảo. Ứng dụng này cùng phiên bản dành cho thị trường Trung Quốc là Xingye đã đóng góp hơn một phần ba doanh thu của công ty trong chín tháng đầu năm, với trung bình hơn 20 triệu người dùng hoạt động hàng tháng trong giai đoạn đó.
Z.ai, còn được biết đến với tên Zhipu, nộp hồ sơ IPO dưới tên “Knowledge Atlas Technology”. Dù không công bố số lượng người dùng hoạt động hàng tháng, công ty cho biết công nghệ của họ đã được “triển khai” trên khoảng 80 triệu thiết bị, bao gồm điện thoại thông minh, máy tính cá nhân và xe thông minh.
Cả hai công ty đều chưa phản hồi yêu cầu bình luận của CNBC về việc các quy định đề xuất có thể ảnh hưởng như thế nào đến kế hoạch IPO của họ.
AI và tác động tới hành vi con người
Trong năm nay, ảnh hưởng trực tiếp của AI tới hành vi con người ngày càng bị giám sát chặt chẽ. Tháng 9, Sam Altman, Giám đốc điều hành OpenAI, đơn vị vận hành ChatGPT tại Mỹ, cho biết một trong những vấn đề khó khăn nhất đối với công ty là cách chatbot phản hồi các cuộc trò chuyện liên quan đến tự sát. Tháng trước đó, một gia đình tại Mỹ đã đệ đơn kiện OpenAI sau khi con trai tuổi teen của họ qua đời do tự sát.
Phản ánh mức độ cấp bách ngày càng gia tăng, OpenAI cuối tuần qua thông báo đang tuyển dụng vị trí “Giám đốc phụ trách sẵn sàng ứng phó” để đánh giá các rủi ro của AI, từ tác động tới sức khỏe tinh thần cho đến an ninh mạng.
Nhiều người cũng đang tìm đến AI cho các mối quan hệ cá nhân. Tháng này, một phụ nữ tại Nhật Bản đã kết hôn với “bạn trai AI” của mình.
Theo bảng xếp hạng của SimilarWeb trong tháng 11, hai nền tảng tập trung vào tương tác với nhân vật ảo là Character.ai và Polybuzz.ai nằm trong top 15 chatbot và công cụ AI phổ biến nhất.
Các biện pháp quản lý trong nước được đề xuất lần này tiếp nối nỗ lực rộng lớn hơn của Trung Quốc trong suốt năm qua nhằm định hình các quy tắc toàn cầu về quản trị AI.
