[VTV] Lừa đảo mạo danh gương mặt, giọng nói

Gần đây rộ lên hình thức lừa đảo chiếm đoạt tài sản rất tinh vi như sau: Các đối tượng lừa đảo sử dụng công nghệ Deepfake tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực để thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Làm thế nào nào để nhận diện hình thức lừa đảo này và cần làm gì để không trở thành nạn nhân?

Mời các bạn theo dõi nhận định của ông Vũ Ngọc Sơn – Giám đốc Công nghệ, Công ty Công nghệ An ninh mạng Quốc gia Việt Nam (NCS) chia sẻ trong chương trình Thời sự toàn cảnh, phát sóng trên VTV1 ngày 13/03/2024 tại đây.