Cảnh giác với thủ đoạn lợi dụng công nghệ Deepfake để lừa đảo

Công an Nhân dân – Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo mới, hết sức tinh vi khiến không ít người dùng “sập bẫy”. Đó là đối tượng lợi dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo) để tạo ra các đoạn video với hình ảnh, khuôn mặt nhân vật giống hệt như hình ảnh của người dùng muốn giả mạo để yêu cầu “nạn nhân” chuyển tiền.

Thủ đoạn lừa đảo này được dự báo sẽ “nở rộ” trong thời gian tới, các chuyên gia khuyến cáo người dùng cần hết sức cảnh giác để tránh bị mất tiền oan.

Cách đây khoảng 1 tuần, chị Nguyễn Thị Thanh Hà ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai qua Faecbook đề nghị chuyển tiền với nội dung “tài khoản em còn đủ 17 triệu không, chuyển cho anh qua đây, sáng mai anh gửi lại sớm được không?”. Sau khi nhắn tin, tài khoản này còn gọi video qua Facebook cho chị Hà với thời lượng khoảng 8-10 giây. Trong video hiện lên hình ảnh của anh trai chị Hà dù hình ảnh video không thực sự sắc nét.

Mặc dù trong lòng cảm thấy có chút băn khoăn vì từ trước đến nay anh trai ít khi hỏi vay một số tiền lớn như vậy song thấy hình ảnh video qua Facebook chính là anh trai nên chị Hà cũng tự loại bỏ nghi ngờ. Sau khi yêu cầu gửi số tài khoản để chuyển tiền, thấy tên tài khoản không phải là tên anh trai mà là một người khác, chị Hà liền gọi điện thoại để xác minh thì được biết anh trai chị vừa bị hack Facebook.

deepfake-lua.jpeg -0
Trước việc kẻ xấu lợi dụng công nghệ Deepfake để lừa đảo, người dùng cần xác minh kỹ thông tin trước khi chuyển tiền. Ảnh minh họa

Không may mắn như chị Hà, chị Nguyễn Hải Ly đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook với nội dung “Cho mình mượn tạm 10 triệu đồng vì đang có việc cần gấp” và yêu cầu chuyển thẳng số tiền đó vào tài khoản của người thứ 3 để “đỡ mất công phải chuyển đi chuyển lại. Lúc nào chuyển xong thì chỉ cần chụp hình ảnh gửi cho mình”.

Nghi ngờ Facebook người bạn bị chiếm tài khoản nên chị Ly đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị Ly thấy mặt nhưng hình ảnh hơi mờ. Khi chị Ly hỏi sao hình ảnh mờ thì bên kia trả lời “đang vùng sóng yếu”. Thấy hình ảnh bạn, chị Ly đã tin tưởng và chuyển 10 triệu đồng vào tài khoản. Sau khi chuyển tiền, chị Ly gọi điện thoại cho bạn thì mới biết mình bị lừa.

Theo các chuyên gia công nghệ, trong tình huống trên đối tượng đã sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật – giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Để tránh bị “sập bẫy”, các chuyên gia khuyến cáo và đề nghị người dùng cần nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Sau đó phải thực hiện ngay thao tác kiểm tra bằng cách gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber).

Thông tin thêm về thủ đoạn này, chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam (NCS) cho biết: Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.

Cũng theo ông Sơn, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo, nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Vì thế, người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru, không ngắt nghỉ…

Theo dự đoán của các chuyên gia của BKAV, việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng sẽ có thể gia tăng trong thời gian tới. Do đó, người dùng cần bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp, kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Bên cạnh đó, cũng nên tìm hiểu về công nghệ Deepfake để nhận biết được các đặc điểm nhằm phân biệt giữa video và hình ảnh thật và giả mạo.

Nguồn: Công an Nhân dân