Chống lại deepfake ở Úc: Khởi đầu bằng thông tin xác thực nội dung
Việc sản xuất deepfake đang tăng tốc với tốc độ hơn 1.500% ở Úc, buộc các tổ chức phải tạo và áp dụng các tiêu chuẩn như thông tin xác thực nội dung.
Ngày càng có sự đồng thuận về cách thức giải quyết thách thức của deepfake trong truyền thông và doanh nghiệp, được tạo ra thông qua các công nghệ như AI. Đầu năm nay, Google đã thông báo họ sẽ tham gia Liên minh Chứng minh và Xác thực Nội dung (Coalition for Content Provenance and Authenticity) với tư cách là thành viên ban chỉ đạo - các tổ chức khác trong C2PA bao gồm OpenAI, Adobe, Microsoft, AWS và RIAA. Với mối lo ngại ngày càng tăng về thông tin sai lệch và giả mạo AI, các chuyên gia CNTT sẽ muốn chú ý hơn đến công việc của cơ quan này và đặc biệt là Thông tin xác thực nội dung, khi ngành chính thức hóa các tiêu chuẩn quản lý cách quản lý dữ liệu hình ảnh và video.
Thông tin xác thực nội dung là gì?
Thông tin xác thực nội dung (Content Credentials) là một dạng siêu dữ liệu kỹ thuật số mà người tạo có thể đính kèm vào nội dung của họ để đảm bảo nhận dạng phù hợp và thúc đẩy tính minh bạch. Siêu dữ liệu có bằng chứng thể hiện sự sửa đổi này bao gồm thông tin về người sáng tạo và quy trình sáng tạo được nhúng trực tiếp vào nội dung tại thời điểm xuất hoặc tải xuống. Thông tin xác thực nội dung có cơ hội tốt nhất để đạt được cách ghi nhãn nội dung được thống nhất và tiêu chuẩn hóa toàn cầu.
Việc sử dụng Thông tin xác thực nội dung mang lại một số lợi ích. Nó sẽ giúp xây dựng uy tín và niềm tin với khán giả bằng cách cung cấp thêm thông tin về người sáng tạo và quá trình sáng tạo. Sự minh bạch này có thể hỗ trợ chống lại thông tin gây hiểu lầm và thông tin cố tình gây nhầm lẫn trực tuyến. Bằng cách gắn thông tin nhận dạng và liên hệ vào nội dung sản xuất của mình, người sáng tạo có thể giúp người khác tìm thấy và kết nối với họ dễ dàng hơn, nâng cao khả năng hiển thị và nhận biết của họ. Tương tự, việc xác định và hủy nền tảng hoặc xóa nội dung không hợp pháp sẽ trở nên dễ dàng hơn.
Deepfake là một thách thức
Úc, giống như phần lớn phần còn lại của thế giới, đang phải vật lộn với sự gia tăng nhanh chóng của gian lận deepfake. Báo cáo gian lận danh tính thường niên lần thứ ba của Sumsub cho thấy số vụ deepfake ở Úc đã tăng 1.530% trong năm qua và mức độ tinh vi của những hoạt động này cũng ngày càng tăng.
Tình hình trở nên đáng lo ngại đến mức chính phủ gần đây đã công bố chiến lược chống lại một số ví dụ cụ thể về deepfake và sau đó thiết lập các biện pháp để xử lý như bất kỳ dạng nội dung bất hợp pháp nào khác.
Deepfake là nguồn thông tin sai lệch đặc biệt mạnh mẽ vì mắt người có thể bị đánh lừa rất nhanh. Nghiên cứu cho thấy rằng chỉ mất 13 mili giây để xác định một hình ảnh - khung thời gian ngắn hơn nhiều so với khoảng thời gian cần thiết để xử lý và xác định tính hợp lệ. Nói cách khác, deepfake là một rủi ro như vậy bởi vì chúng có thể có tác động đối với một người trước khi chúng có thể được phân tích và loại bỏ.
Ví dụ: cơ quan khoa học hàng đầu của Úc, CSIRO, đã công bố thông tin về “cách phát hiện một deepfake” và hướng dẫn đó yêu cầu phân tích sâu rộng.
“Nếu là video, bạn có thể kiểm tra xem âm thanh có được đồng bộ hóa chính xác với chuyển động của môi hay không. Lời nói có phù hợp với khuôn miệng không? Những điều khác cần kiểm tra là chớp mắt hoặc nhấp nháy không tự nhiên quanh mắt, ánh sáng hoặc bóng kỳ lạ và nét mặt không phù hợp với giọng điệu cảm xúc của bài phát biểu”, chuyên gia CSIRO, Tiến sĩ Kristen Moore, cho biết trong hướng dẫn.
Chính phủ và khu vực tư nhân cần cùng nhau chống lại deepfake
Việc chính phủ biến deepfake thành bất hợp pháp là một bước tích cực trong việc bảo vệ những người sẽ là nạn nhân của chúng. Tuy nhiên, ngành CNTT sẽ cần phải là ngành phát triển các cách xác định và quản lý nội dung này.
Đã có những trường hợp nổi tiếng về các nhân vật kinh doanh lớn như Dick Smith và Gina Rinehart “yêu cầu” các tổ chức như Meta phải chủ động hơn trong việc ngăn chặn các trò gian lận AI, sau khi những hình ảnh giống họ được sử dụng trong các tác phẩm deepfake.
Theo lưu ý của Ủy ban An toàn Điện tử Úc, “sự phát triển của các cải tiến nhằm giúp xác định các hành vi giả mạo sâu vẫn chưa theo kịp bản thân công nghệ”. Về phần mình, chính phủ Úc đã cam kết chống lại nạn deepfake bằng các biện pháp:
- Nâng cao nhận thức về deepfake để người dân Úc được cung cấp cái nhìn tổng quan hợp lý và dựa trên bằng chứng về vấn đề này, đồng thời được thông tin đầy đủ về các lựa chọn có sẵn cho họ.
- Hỗ trợ những người là mục tiêu thông qua hệ thống báo cáo khiếu nại. Bất kỳ người dân Úc nào có ảnh hoặc video đã bị thay đổi kỹ thuật số và chia sẻ trực tuyến đều có thể liên hệ với Ủy ban An toàn Điện tử Úc để được trợ giúp xóa bỏ.
- Ngăn chặn tác hại thông qua việc phát triển nội dung giáo dục về deepfake để người dân Úc có thể đánh giá nghiêm túc nội dung trực tuyến và tự tin hơn khi điều hướng thế giới trực tuyến.
- Hỗ trợ ngành công nghiệp thông qua sáng kiến An toàn theo Thiết kế, giúp các công ty và tổ chức nhúng vấn đề an toàn vào các sản phẩm và dịch vụ của họ.
- Hỗ trợ các nỗ lực của ngành nhằm giảm thiểu hoặc hạn chế việc phân phối lại các deepfake có hại bằng cách khuyến khích phát triển chính sách, điều khoản dịch vụ và tiêu chuẩn cộng đồng về deepfake, các chính sách sàng lọc và xóa để quản lý các deepfake lạm dụng và bất hợp pháp, các phương pháp xác định và gắn cờ các deepfake trong cộng đồng.
Cuối cùng, để tầm nhìn này thành công, cần có sự hỗ trợ từ ngành, với các tổ chức cung cấp công nghệ và đầu tư sâu nhất vào AI. Đây là nơi Thông tin xác thực nội dung xuất hiện.
Các bước cần thực hiện để giúp chống lại deepfake
Thông tin xác thực nội dung là cơ hội tốt nhất để hình thành các tiêu chuẩn chống lại deepfake. Vì cách tiếp cận này được định hướng theo ngành và được hỗ trợ bởi sức nặng của những công ty lớn nhất trong ngành nội dung, điều đó có nghĩa là nội dung bất hợp pháp có thể bị gắn cờ trên phần lớn internet - tương tự như cách các trang web chứa đầy vi-rút có thể bị gắn cờ đến mức chúng trở nên thực sự không thể tìm thấy trên các công cụ tìm kiếm.
Vì lý do này, các chuyên gia CNTT và những người khác làm việc với AI để tạo nội dung sẽ muốn hiểu Thông tin xác thực nội dung giống như cách các nhà phát triển Web hiểu về bảo mật, SEO và các tiêu chuẩn dự kiến sẽ bảo vệ nội dung khỏi bị gắn cờ. Các bước nên thực hiện bao gồm:
- Triển khai Thông tin xác thực Nội dung : Trước hết, các chuyên gia CNTT cần đảm bảo tổ chức của họ tích cực áp dụng và tích hợp Thông tin xác thực Nội dung vào quy trình làm việc để đảm bảo tính xác thực và khả năng truy xuất nguồn gốc của nội dung.
- Ủng hộ sự minh bạch: Cả bên trong và bên ngoài, với các đối tác và khách hàng, ủng hộ các tổ chức minh bạch về việc sử dụng AI và áp dụng các thực hành đạo đức trong việc tạo và phân phối nội dung.
- Hỗ trợ quy định: Tương tác với các cơ quan trong ngành và cơ quan chính phủ để định hình các chính sách và quy định nhằm giải quyết các thách thức do deepfake đặt ra. Điều này bao gồm việc tham gia vào các yêu cầu khác nhau mà chính phủ sẽ thực hiện về AI để giúp định hình chính sách.
- Hợp tác: Làm việc với các chuyên gia và tổ chức khác để phát triển các phương pháp và công cụ được tiêu chuẩn hóa nhằm xác định và giảm thiểu rủi ro liên quan đến deepfake.
- Chuẩn bị chiến lược ứng phó: Có sẵn kế hoạch khi phát hiện deepfake, bao gồm các bước để giảm thiểu thiệt hại và liên lạc với các bên liên quan.
- Tận dụng các nguồn lực của cộng đồng: Cuối cùng, cần tận dụng các nguồn lực từ cộng đồng an ninh mạng và các cơ quan chính phủ như Ủy ban An toàn Điện tử để luôn cập nhật và chuẩn bị.
Không còn nghi ngờ gì nữa, deepfake sẽ là một trong những thách thức quan trọng nhất mà ngành công nghệ và các chuyên gia CNTT sẽ cần phải tìm ra câu trả lời. Thông tin xác thực nội dung cung cấp một điểm khởi đầu tuyệt vời mà ngành có thể hướng tới.
(theo TechRepublic)