Thời gian gần đây, trên không gian mạng xuất hiện một phương thức lừa đảo chiếm đoạt tài sản rất tinh vi bằng cách sử dụng công nghệ Deepfake - công nghệ ứng dụng trí tuệ nhân tạo (AI), để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả người ngoài đời thực với độ chính xác rất cao.
Deepfake là một kỹ thuật tổng hợp hình ảnh con người dựa trên AI, sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô, có khả năng học hỏi từ dữ liệu phi cấu trúc - chẳng hạn như khuôn mặt người.
Deepfake thậm chí có thể thu thập dữ liệu về các chuyển động vật lý của con người.
Với khả năng học hỏi dữ liệu khuôn mặt, hình ảnh và cả giọng nói của con người, Deepfake được sử dụng để tạo ra các sản phẩm công nghệ lừa đảo như: Gọi điện mượn tiền người thân, tạo tin giả và các chiêu trò độc hại để tống tiền.
Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội, sau đó sử dụng công nghệ này để tạo sẵn những video gọi về cho người thân vay tiền, hoặc giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí, hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu.
Trước tình trạng này, các chuyên gia về bảo mật đã đưa ra những lời khuyên nhằm phòng tránh trước các tính huống xấu có thể xảy ra, cụ thể:
(1) Nâng cao bảo mật các tài khoản trực tuyến;
(2) Xác minh tin nhắn thoại, cuộc gọi video với mục đích vay tiền hoặc mượn tài sản cá nhân;
(3) Không truy cập vào bất kỳ đường link nào với những cấu trúc lạ;
(4) Hạn chế quyền truy cập vào giọng nói và hình ảnh cá nhân để đề phòng kẻ gian sử dụng các bản ghi âm, hình ảnh hoặc cảnh quay để tạo ra những sản phẩm giả;
(5) Hạn chế sự hiện diện trên mạng xã hội để ngăn chặn việc dữ liệu hình ảnh, âm thanh bị sao chép.
Các phương pháp có thể phát hiện Deepfake
- Chuyển động giật cục, như một đoạn video lỗi.
- Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo.
- Thay đổi tông màu da liên tục.
- Video có những sự nhấp nháy lạ thường.
- Khẩu hình miệng không đồng bộ với lời nói.
- Hiện lên các đồ vật kỹ thuật số trong hình ảnh.
- Âm thanh và/hoặc video chất lượng thấp.
- Nhân vật nói liên tục, không chớp mắt.
Cơ quan công an cũng đã khuyến cáo người dân nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.
Trường hợp nghi ngờ giả mạo cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.