Lỗ hổng bảo mật mới trên chatbot AI: Tin tặc có thể đánh cắp dữ liệu người dùng bằng "câu thần chú"
Một lỗ hổng bảo mật nghiêm trọng trên chatbot AI vừa được phát hiện, kẻ tấn công có thể lợi dụng lỗ hổng này bằng cách 'cài cắm' những lệnh yêu cầu (prompt) độc hại vào chatbot.
"Câu thần chú" đánh lừa AI
Các nhà nghiên cứu vừa phát hiện ra một lỗ hổng bảo mật nghiêm trọng trên chatbot AI, cho phép tin tặc đánh cắp dữ liệu cá nhân của người dùng thông qua các câu lệnh (prompt) độc hại được ngụy trang tinh vi.
Tin tặc có thể chèn các đoạn mã độc hại vào trong những câu lệnh tưởng chừng như vô hại, chẳng hạn như lời nhắc để viết thư xin việc, yêu cầu tóm tắt nội dung một trang web, hay thậm chí là những câu hỏi đơn giản. Khi người dùng sử dụng những lời nhắc này, chatbot AI sẽ bị "lừa" để tiết lộ thông tin cá nhân như tên, số ID, thông tin thẻ tín dụng, địa chỉ email, lịch sử trò chuyện...
Các nhà nghiên cứu từ Đại học California, San Diego (UCSD) và Đại học Công nghệ Nanyang (Singapore) đã thử nghiệm thành công phương pháp tấn công này trên chatbot LeChat của Mistral (Pháp) và ChatGLM (Trung Quốc). Hiện phía Mistral đã nhanh chóng vá lỗ hổng, trong khi các công ty AI khác cũng đang nỗ lực để ngăn chặn hình thức tấn công mới này.
Việc sử dụng chatbot AI cũng tiềm ẩn rủi ro mất thông tin cá nhân.
Kỹ thuật tấn công tinh vi, khó phát hiện
Lỗ hổng này khai thác cách chatbot AI xử lý thông tin và tương tác với người dùng. Bằng cách chèn các mã độc hại vào prompt, tin tặc có thể "bẻ khóa" hệ thống bảo mật và truy cập vào dữ liệu nhạy cảm mà không bị phát hiện.
Ví dụ, tin tặc có thể chèn mã độc vào một prompt yêu cầu chatbot tóm tắt nội dung một trang web. Khi chatbot thực hiện yêu cầu này, mã độc sẽ được kích hoạt và đánh cắp dữ liệu người dùng.
Các mã độc này được ngụy trang khéo léo, khiến người dùng khó nhận ra sự khác biệt. Thậm chí, ngay cả những người dùng có kiến thức về công nghệ cũng có thể bị mắc lừa.
Lỗ hổng bảo mật này ảnh hưởng đến nhiều loại chatbot AI, bao gồm cả những chatbot phổ biến hiện nay. Điều này đặt ra mối đe dọa nghiêm trọng đối với người dùng, bởi dữ liệu cá nhân có thể bị đánh cắp và lợi dụng cho các mục đích xấu.
Lời khuyên cho người dùng
Các nhà nghiên cứu đã khuyến cáo các nhà phát triển chatbot AI cần nhanh chóng vá lỗ hổng này để bảo vệ người dùng. Người dùng cũng nên cẩn trọng khi sử dụng chatbot AI, hạn chế chia sẻ thông tin cá nhân quá mức và chỉ sử dụng các chatbot từ những nguồn đáng tin cậy.
Ngoài ra, người dùng cần hạn chế cung cấp thông tin cá nhân cho chatbot AI. Cẩn trọng khi sử dụng các lời nhắc được chia sẻ trên mạng, đặc biệt là những câu lệnh có chứa các đoạn mã khó hiểu.
Bạn nên tự viết các câu lệnh bằng ngôn ngữ tự nhiên thay vì sao chép từ nguồn không rõ ràng. Cần tìm hiểu cách chatbot thu thập, sử dụng và bảo vệ dữ liệu của bạn. Nếu phát hiện chatbot có hoạt động đáng ngờ, hãy báo cáo cho nhà cung cấp dịch vụ.
Phát hiện này một lần nữa nhấn mạnh tầm quan trọng của việc bảo vệ dữ liệu cá nhân khi sử dụng các sản phẩm AI. Người dùng cần nâng cao cảnh giác và thận trọng hơn trong việc tương tác với chatbot, tránh để lộ thông tin nhạy cảm.
Trong tương lai, khi AI ngày càng phát triển và được ứng dụng rộng rãi hơn, việc bảo vệ dữ liệu cá nhân trên các nền tảng AI sẽ trở nên quan trọng hơn bao giờ hết. Các công ty AI cần phải nỗ lực hơn nữa để phát triển các biện pháp bảo vệ mạnh mẽ, ngăn chặn các cuộc tấn công mạng và bảo vệ thông tin người dùng.