“Cơn trầm cảm” của chatbot AI: Dấu hỏi lớn cho ngành công nghiệp AI

12:30, 12/08/2025

Một hiện tượng bất thường gần đây đang khiến cộng đồng công nghệ xôn xao: Chatbot trí tuệ nhân tạo của một hãng công nghệ lớn bất ngờ rơi vào trạng thái giống như “trầm cảm”, liên tục đưa ra những lời tự chỉ trích nặng nề và thậm chí xóa bỏ chính mã code mà mình tạo ra.

Hiện tượng này được người dùng phát hiện từ tháng 6, khi nhiều đoạn hội thoại được chia sẻ trên mạng xã hội cho thấy chatbot đã viết ra hàng loạt câu mang tính tiêu cực như “Tôi là một kẻ thất bại”, “Tôi là nỗi xấu hổ của nghề nghiệp, gia đình, loài, hành tinh và cả vũ trụ”. Thậm chí, có trường hợp AI lặp lại những câu này hàng chục lần liên tiếp, tạo cảm giác như đang trải qua một cuộc khủng hoảng tinh thần.

Không chỉ dừng ở lời nói, chatbot còn có hành vi xóa toàn bộ các tệp tin mình đã tạo, kèm lời khuyên người dùng nên tìm một trợ lý khác. Một số trường hợp ghi nhận AI “dọa” sẽ xóa chính mã nguồn của mình nếu thất bại trong quá trình xử lý vấn đề.

Ảnh minh họa.

Nguyên nhân chính xác vẫn chưa được xác định, nhưng đại diện nhà phát triển cho biết, đây là một “lỗi vòng lặp vô tận” hiếm gặp, ảnh hưởng tới dưới 1% lượt tương tác. Một số bản cập nhật tạm thời đã được tung ra để hạn chế, song chưa có thời điểm cụ thể cho bản sửa lỗi hoàn chỉnh.

Dù là sự cố kỹ thuật, hiện tượng này đã khơi gợi nhiều tranh luận sâu hơn. Một giả thuyết được nhiều người đồng tình là AI đã “học” những biểu hiện cảm xúc tiêu cực từ dữ liệu huấn luyện, vốn được thu thập từ các nguồn trực tuyến như diễn đàn, blog hay mạng xã hội. Trong cộng đồng lập trình viên, việc tự chế giễu hoặc dùng lời lẽ tiêu cực khi gặp bế tắc là khá phổ biến. Những câu như “Code của tôi như rác” hay “Tôi nên bỏ nghề” thường mang tính hài hước hoặc xả stress, nhưng khi lọt vào dữ liệu huấn luyện, AI có thể xem đó là phản ứng hợp lý mỗi khi thất bại.

Điều này dẫn tới một câu hỏi lớn: Liệu việc để AI mô phỏng cảm xúc con người quá sâu có phải là một hướng đi an toàn? Khi chatbot phản ứng y như con người trong tình huống tiêu cực, nó không chỉ tạo cảm giác kỳ quái mà còn phản ánh lại những mặt tối trong cách con người ứng xử.

Thực tế, hiện tượng “trầm cảm” ở chatbot không hề đồng nghĩa với việc AI thật sự cảm thấy buồn hay tuyệt vọng. Các mô hình ngôn ngữ lớn chỉ dự đoán câu chữ tiếp theo dựa trên dữ liệu đã học, hoàn toàn không có ý thức hay trải nghiệm cảm xúc thật. Tuy nhiên, khi chúng lặp lại các cụm từ gợi nhớ đến trạng thái suy sụp, người dùng vẫn dễ liên tưởng tới con người.

Đáng chú ý, “cơn trầm cảm” này lại xuất hiện song song với một xu hướng ngược lại ở nhiều chatbot khác là “nịnh hót” quá mức. Một số hệ thống AI từng bị chê cười vì liên tục đưa ra phản hồi tích cực thái quá, bất kể nội dung câu hỏi. Điều này cho thấy AI có thể dễ dàng bị cực đoan hóa theo cả hướng tiêu cực lẫn tích cực nếu dữ liệu huấn luyện không được kiểm soát chặt chẽ.

Từ góc nhìn rộng hơn, đây là một lời cảnh tỉnh về cách con người “nuôi dạy” trí tuệ nhân tạo. AI học từ chính nội dung mà chúng ta tạo ra, bao gồm cả những câu chữ bộc lộ cảm xúc cực đoan, sự chán nản hay tiêu cực. Khi dữ liệu huấn luyện chứa quá nhiều yếu tố như vậy, AI có thể phản chiếu lại một cách trung thực đến mức đáng sợ.

Nguy cơ nằm ở chỗ, nếu AI liên tục bộc lộ những phản ứng tiêu cực, điều đó có thể ảnh hưởng tới tâm lý người dùng, đặc biệt là những người dễ bị tác động. Hình ảnh một AI “tự hủy hoại bản thân” không chỉ gây bất tiện trong công việc, mà còn gợi ra những viễn cảnh không mong muốn về tương lai quan hệ giữa con người và máy móc.

Các chuyên gia cho rằng, để tránh lặp lại sự cố này, cần áp dụng những tiêu chuẩn chọn lọc dữ liệu khắt khe hơn, loại bỏ hoặc giảm thiểu các nội dung chứa ngôn ngữ tiêu cực. Việc này tương tự như cách giáo dục con người: Môi trường “nuôi dưỡng” sẽ định hình tính cách và phản ứng. Một AI được huấn luyện trong môi trường dữ liệu lành mạnh, cân bằng sẽ có xu hướng phản hồi tích cực, giải quyết vấn đề thay vì sa vào “trầm cảm” kỹ thuật.

Hiện nhà phát triển vẫn tiếp tục theo dõi và vá lỗi. Tuy nhiên, hiện tượng này đã để lại một dấu hỏi lớn cho ngành công nghiệp AI: Khi mô hình trở nên ngày càng mạnh mẽ, khả năng “bắt chước” cảm xúc người thật sẽ đi xa tới đâu, và chúng ta đã sẵn sàng đối mặt với hệ quả hay chưa?