Công nghệ

Deepfake ngày càng tinh vi, nguy cơ lừa đảo người dùng tăng cao

T.H 15/11/2023 - 09:23

Trước đây có thể nhận biết các video deepfake qua ngữ điệu, cử động môi và sự trùng khớp giữa nhân vật, bối cảnh, âm thanh. Hiện đã có những công cụ giúp tạo video giống thật đến 70-80%, dễ nhầm lẫn khi nhìn bằng mắt thường.

2l6a1236.jpg
Ông Nguyễn Phú Lương - Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin thuộc Bộ TT&TT

Đó là chia sẻ của ông Nguyễn Phú Lương - Phó Giám đốc Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), Cục An toàn thông tin, Bộ Thông tin và Truyền thông (TT&TT) - tại họp báo thường kỳ tháng 11/2023 vừa được Bộ Thông tin và Truyền thông tổ chức.

Theo ông Nguyễn Phú Lương, khi thật – giả ngày càng khó phân biệt, ai cũng có thể trở thành mục tiêu tấn công của tội phạm. Do vậy, Phó Giám đốc NCSC khuyến cáo người dân luôn kiểm chứng và kiểm tra lại mọi thông tin trực tuyến. Mỗi người cần hình thành thói quen thận trọng, cảnh giác và tư duy “fact check” (kiểm chứng sự thực) trên không gian mạng. Lấy thông tin từ các nguồn chính thức và đáng tin cậy như các cơ quan, đơn vị và nền tảng tin tức đáng tin cậy. Ngoài ra, không chia sẻ nếu chưa chắc chắn 100% về tính xác thực của nó.

Ông Nguyễn Phú Lương điểm tên một số công cụ của những hãng công nghệ lớn như Intel Fake Catcher hay Microsoft Video Authenticator, có thể kiểm chứng video sử dụng deepfake hay không. Các công cụ này sử dụng thuật toán AI tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của tệp hình ảnh, video, âm thanh.

Việc tạo ra video deepfake dễ dàng, trong khi đó gần như chưa có giải pháp nào để chặn lọc.

"Bối cảnh chung trên thế giới là gặp khó khăn trong việc chặn lọc những video deepfake khỏi không gian mạng. Giải pháp hiện tại là cố gắng tuyên truyền, khuyến cáo người dân thận trọng với mọi thông tin tiếp cận được, luôn tuân thủ các nguyên tắc về an toàn thông tin", ông Nguyễn Phú Lương cho biết.

Đầu tiên, người dùng mạng cần tìm cách kiểm chứng mọi thông tin nhận được bằng cách kiểm tra chéo giữa các nguồn khác nhau. Trong trường hợp nhận được video từ người thân với tình huống hoặc yêu cầu bất ngờ, hãy cố gắng kéo dài cuộc gọi video call để biết chắc đang nói chuyện với người thật chứ không phải đoạn video dựng sẵn.

Sau đó, người dùng cần xác minh lại qua các kênh khác, ưu tiên các kênh trực tiếp hoặc gọi điện thoại qua mạng viễn thông.

Trong hầu hết các trường hợp, hình thức lừa đảo trực tuyến này nhằm lừa đảo tài chính. Do đó, khi người dân nhận được các cuộc gọi video liên quan đến yêu cầu chuyển tiền, vay mượn thì cần xác nhận kỹ và trong mọi trường hợp không chuyển tiền cho các số tài khoản lạ, kể cả tài khoản có tên giống với tên người thân, bạn bè.

Theo ông Nguyễn Phú Lương, có một số công cụ kiểm chứng video có phải deepfake hay không, ví dụ như Intel Fake Catcher hay Microsoft Video Authenticator.

Ngoài ra, khi nhìn bằng mắt thường có thể thấy khuôn mặt nhân vật trong video deepfake ít biểu cảm, ánh sáng kỳ lạ và bóng đổ không đúng vị trí, nhân vật không có các hành động đưa tay lên gãi mặt hoặc dụi mắt, vì các hành động này sẽ gây lỗi cho AI.

(0) Bình luận
Nổi bật
Đừng bỏ lỡ
Deepfake ngày càng tinh vi, nguy cơ lừa đảo người dùng tăng cao
POWERED BY ONECMS - A PRODUCT OF NEKO