Hệ thống watermark ánh sáng của Cornell đối mặt với thách thức kỹ thuật bất chấp lời hứa chống deepfake

Nhóm Cộng đồng BigGo
Hệ thống watermark ánh sáng của Cornell đối mặt với thách thức kỹ thuật bất chấp lời hứa chống deepfake

Các nhà nghiên cứu tại Cornell đã phát triển một hệ thống ẩn mã bí mật trong những biến động ánh sáng gần như không thể nhìn thấy để phát hiện video giả mạo. Mặc dù khái niệm này nghe có vẻ hứa hẹn, cộng đồng công nghệ đã nêu ra những lo ngại đáng kể về hiệu quả thực tế và thách thức triển khai trong thế giới thực.

Hệ thống hoạt động bằng cách nhúng watermark vào các nguồn sáng có thể lập trình như màn hình máy tính và đèn chiếu sáng phòng. Những watermark này mang thông tin có dấu thời gian có thể tiết lộ khi nào cảnh quay video đã bị thao túng hoặc được tạo ra bởi AI. Các nhà nghiên cứu đã thiết kế những biến động này để bắt chước tiếng ồn ánh sáng tự nhiên, khiến chúng khó phát hiện nếu không có mã bí mật.

Chi tiết triển khai kỹ thuật:

  • Kích thước chip watermark: xấp xỉ kích thước tem bưu chính
  • Tương thích với các nguồn sáng có thể lập trình (màn hình máy tính, một số loại đèn chiếu sáng phòng)
  • Có thể hỗ trợ tối đa 3 mã riêng biệt cho các nguồn sáng khác nhau trong cùng một cảnh
  • Hoạt động trong môi trường ngoài trời và với những người có màu da khác nhau
  • Sử dụng các nghiên cứu về nhận thức của con người để làm cho các dao động trở nên không thể nhận biết được
Các nhà nghiên cứu Cornell ăn mừng hệ thống đổi mới được phát triển để ẩn mã bí mật trong ánh sáng, nhằm chống lại các video giả mạo
Các nhà nghiên cứu Cornell ăn mừng hệ thống đổi mới được phát triển để ẩn mã bí mật trong ánh sáng, nhằm chống lại các video giả mạo

Nén video có thể loại bỏ hoàn toàn lớp bảo vệ

Một trong những lo ngại cấp bách nhất được cộng đồng nêu ra tập trung vào khả năng tương thích với nén video. Các codec video tiêu dùng được thiết kế đặc biệt để loại bỏ những thay đổi nhỏ, không thể nhận thấy nhằm giảm kích thước tệp. Vì watermark dựa vào những biến đổi độ sáng tinh tế mà con người khó có thể nhận ra, các thuật toán nén tiêu chuẩn có thể sẽ loại bỏ hoàn toàn những tín hiệu bảo vệ này. Điều này tạo ra xung đột cơ bản giữa cơ chế cốt lõi của công nghệ và cách video thường được xử lý và chia sẻ trực tuyến.

Những Hạn Chế Chính Được Xác Định:

  • Các codec nén video có thể loại bỏ dữ liệu watermark
  • Dễ bị tấn công replay khi các mẫu ánh sáng bị sao chép
  • Yêu cầu cơ sở hạ tầng chiếu sáng chuyên dụng để áp dụng rộng rãi
  • Không thể ngăn chặn tất cả các hình thức thao túng video
  • Phụ thuộc vào các bên thứ ba đáng tin cậy để xác minh

Tấn công replay gây ra lỗ hổng bảo mật

Các chuyên gia kỹ thuật đã xác định các kịch bản tấn công replay tiềm ẩn, nơi những kẻ độc hại có thể trích xuất các mẫu ánh sáng từ video hợp pháp và áp dụng chúng vào nội dung giả mạo. Vì những biến động watermark tách biệt với nội dung video thực tế, ai đó về mặt lý thuyết có thể sao chép những chữ ký ánh sáng này và phủ lên cảnh quay đã bị thao túng. Điều này sẽ cho phép video giả xuất hiện xác thực khi được kiểm tra bằng hệ thống xác minh.

Lo ngại về niềm tin và thẩm quyền

Hệ thống nêu ra câu hỏi về việc ai kiểm soát quá trình xác minh và liệu mọi người có tin tưởng vào kết quả hay không. Vì người xem không thể trực tiếp xác minh watermark, họ phải dựa vào các công cụ bên thứ ba hoặc tuyên bố chính thức để xác định tính xác thực. Sự phụ thuộc vào các cơ quan đáng tin cậy này có thể có vấn đề, đặc biệt là do sự hoài nghi hiện tại đối với các tổ chức truyền thông và tổ chức kiểm tra thông tin.

Nếu bạn thậm chí đang cân nhắc việc bỏ công sức để thiết lập những đèn kỳ lạ này và các thuật toán chuyên biệt cho sự kiện mà bạn đang tổ chức, chỉ cần quay video của riêng bạn về sự kiện đó và đăng lên.

Phạm vi hạn chế và triển khai thực tế

Công nghệ này sẽ yêu cầu việc áp dụng rộng rãi thiết bị chiếu sáng chuyên biệt để thực sự hiệu quả. Mặc dù các nhà nghiên cứu đã chỉ ra rằng đèn cũ có thể được cải tiến với các chip máy tính nhỏ, điều này vẫn đại diện cho một khoản đầu tư cơ sở hạ tầng đáng kể. Hệ thống có thể sẽ bị giới hạn ở các địa điểm cao cấp như tòa nhà chính phủ hoặc studio tin tức lớn, thay vì cung cấp bảo vệ rộng rãi chống lại deepfake trong các tình huống hàng ngày.

Cuộc thảo luận cộng đồng cho thấy rằng mặc dù nghiên cứu của Cornell đại diện cho một cách tiếp cận kỹ thuật thú vị, vẫn còn những rào cản đáng kể trước khi watermark dựa trên ánh sáng có thể trở thành một biện pháp phòng thủ đáng tin cậy chống lại thao túng video. Cuộc chạy đua vũ trang giữa những người tạo nội dung và những kẻ tìm cách lừa dối tiếp tục, với mỗi biện pháp bảo vệ mới có khả năng sinh ra các phương pháp lách luật mới.

Tham khảo: Hiding secret codes in light protects against fake videos