Cảnh báo thủ đoạn lừa đảo nhân bản giọng nói bằng AI

07:21, 21/09/2024

Starling Bank, một ngân hàng tại Anh, mới đây đã phát đi thông tin cảnh báo về việc hàng triệu khách hàng có nguy cơ trở thành nạn nhân của các vụ lừa đảo sử dụng trí tuệ nhân tạo (AI) để nhân bản giọng nói và sử dụng với mục đích phi pháp.

Theo Starling Bank, các đối tượng lừa đảo côn nghệ cao có thể sử dụng AI để sao chép giọng nói của một người chỉ từ 3 giây âm thanh mà người dùng để lộ.

Sau đó, những đối tượng này sẽ xác định bạn bè và thành viên gia đình của người đó và sử dụng giọng nói được sao chép bằng AI để tạo nên một cuộc gọi điện thoại để lừa tiền.

Theo Starling Bank, những đối tượng lừa đảo này có khả năng "làm giả giọng nói của hàng triệu người".

Một cuộc khảo sát hơn 3.000 người lớn mà ngân hàng đã tiến hành với Mortar Research vào tháng trước cho thấy hơn 1/4 số người được hỏi cho biết họ đã bị nhắm mục tiêu bởi một vụ lừa đảo nhân bản giọng nói AI trong 12 tháng qua.

Cuộc khảo sát cũng cho thấy 46% số người được hỏi cho biết, chưa từng biết về những vụ lừa đảo như vậy và 8% sẽ gửi số tiền theo yêu cầu của bạn bè hoặc thành viên gia đình, ngay cả khi họ nghĩ rằng cuộc gọi có vẻ lạ.

Giám đốc an ninh thông tin tại Starling Bank, Lisa Grahame, cho biết, mọi người hiện nay vẫn thường xuyên đăng các nội dung trực tuyến có ghi âm giọng nói của họ mà không bao giờ nghĩ rằng điều đó khiến họ có gia tăng nguy cơ trở thành nạn nhân của các vụ lừa đảo.

Ngân hàng khuyến cáo mọi người hãy chú ý đến cụm từ “an toàn” với những người thân yêu của họ - một cụm từ đơn giản, ngẫu nhiên, dễ nhớ và khác với các mật khẩu khác của họ - có thể được sử dụng để xác minh danh tính của họ qua điện thoại.

Ngân hàng cũng khuyến nghị không nên chia sẻ một số từ “an toàn” qua tin nhắn văn bản, điều này có thể khiến những kẻ lừa đảo dễ dàng phát hiện ra hơn, nhưng nếu chia sẻ theo cách này, tin nhắn cần được xóa sau khi người kia đã nhìn thấy.

Khi AI ngày càng bắt chước giọng nói của con người như thật, mối lo ngại ngày càng tăng về khả năng gây nguy cơ cho con người, chẳng hạn như giúp tội phạm truy cập vào tài khoản ngân hàng và phát tán thông tin sai lệch.

Đầu năm nay, OpenAI, nhà sản xuất chatbot AI tạo ra ChatGPT, đã công bố công cụ sao chép giọng nói Voice Engine, nhưng không tiết lộ thời điểm cung cấp rộng rãi, với lý do "có khả năng sử dụng sai giọng nói tổng hợp".