Công cụ tạo video AI Veo 3 của Google bị lợi dụng để tạo nội dung phân biệt chủng tộc bất chấp các biện pháp an toàn

Nhóm Cộng đồng BigGo
Công cụ tạo video AI Veo 3 của Google bị lợi dụng để tạo nội dung phân biệt chủng tộc bất chấp các biện pháp an toàn

Công cụ tạo video AI mới nhất của Google , Veo 3 , đã trở thành một công cụ bất ngờ để tạo ra nội dung có hại. Bất chấp các chính sách an toàn toàn diện và các biện pháp bảo vệ của công ty, người dùng vẫn tìm ra cách để tạo ra các video phân biệt chủng tộc và bài Do Thái lan truyền trên các nền tảng mạng xã hội như TikTok và YouTube .

Tình huống này làm nổi bật một thách thức ngày càng tăng trong phát triển AI: cân bằng giữa tự do sáng tạo và an toàn nội dung. Trong khi Google đã đầu tư mạnh mẽ vào việc ngăn chặn việc lạm dụng các công cụ AI của mình, chất lượng đầu ra tinh vi của Veo 3 đã khiến nó trở nên đặc biệt hấp dẫn đối với những người muốn tạo ra nội dung gây tranh cãi.

Đặc điểm nội dung:

  • Độ dài video: Tối đa 8 giây
  • Watermark: Watermark " Veo " xác nhận nguồn gốc từ mô hình AI của Google
  • Loại nội dung: Các khuôn mẫu phân biệt chủng tộc nhắm vào người da đen, người nhập cư và cộng đồng Do Thái
  • Chất lượng: Đầu ra hoàn hảo từng pixel với các dấu hiệu rõ ràng của việc tạo sinh bằng AI

Nền kinh tế tương tác thúc đẩy nội dung có hại

Các cuộc thảo luận cộng đồng cho thấy rằng nhiều video này không nhất thiết được tạo ra bởi những kẻ phân biệt chủng tộc cam kết, mà là bởi những người tạo nội dung đuổi theo các chỉ số tương tác. Bối cảnh mạng xã hội hiện đại thưởng cho nội dung gây tranh cãi bằng lượt xem, bình luận và chia sẻ - tạo ra một hệ thống khuyến khích sai lệch nơi mà tài liệu gây sốc tạo ra doanh thu.

Nó thậm chí không phải là 'chủ nghĩa phân biệt chủng tộc' thực sự, nó giống như một câu câu like hơn, nơi mà quan điểm càng phản cảm và điên rồ, thì càng có khả năng thu hút sự chú ý và thậm chí có thể khiêu khích phản ứng.

Thực tế kinh tế này có nghĩa là miễn là các nền tảng thưởng cho sự tương tác hơn chất lượng, những người tạo nội dung sẽ tiếp tục tìm cách tạo ra nội dung thu hút sự chú ý, bất kể tác động xã hội của nó. Vấn đề mở rộng ra ngoài chủ nghĩa phân biệt chủng tộc đến bất kỳ chủ đề nào kích thích phản ứng cảm xúc mạnh mẽ.

Hạn chế kỹ thuật của các hệ thống an toàn AI

Cộng đồng đã xác định những điểm yếu cụ thể trong các biện pháp an toàn AI hiện tại. Các lời nhắc mơ hồ và khả năng không thể hiểu được hình ảnh phân biệt chủng tộc tinh vi của AI cho phép người dùng lách qua các bộ lọc nội dung. Ví dụ, sử dụng động vật thay vì con người trong một số bối cảnh nhất định có thể trượt qua các hệ thống phát hiện tự động tìm kiếm các vi phạm rõ ràng.

Những hạn chế kỹ thuật này cho thấy rằng các phương pháp tiếp cận hiện tại đối với an toàn AI có thể về cơ bản là không đầy đủ. Các hệ thống dựa vào nhận dạng mẫu và lọc từ khóa, nhưng sự sáng tạo của con người trong việc tìm ra các cách khắc phục thường vượt quá sự tinh vi của các biện pháp bảo vệ này.

Các nền tảng gặp khó khăn trong kiểm duyệt

Cả TikTok và Google đều có các chính sách rõ ràng cấm phát ngôn thù hận và nội dung phân biệt chủng tộc. Tuy nhiên, việc thực thi vẫn không nhất quán và mang tính phản ứng thay vì chủ động. Khối lượng tải lên hàng ngày khổng lồ của TikTok khiến việc kiểm duyệt thời gian thực gần như không thể, trong khi các bộ lọc nội dung của Google dường như không đủ để ngăn chặn việc tạo ra các video có vấn đề ban đầu.

Quy mô của các nền tảng mạng xã hội hiện đại tạo ra một thách thức kiểm duyệt vốn có. Ngay cả với các hệ thống đánh giá nội dung hỗ trợ AI, khối lượng tải lên khổng lồ có nghĩa là nội dung có hại thường lan truyền rộng rãi trước khi được phát hiện và gỡ bỏ.

Phản hồi chính sách:

  • TikTok : Hơn một nửa số tài khoản bị trích dẫn đã bị cấm trước khi báo cáo của MediaMatters được công bố
  • Google : Chính sách cấm sử dụng toàn diện nghiêm cấm ngôn từ thù hận và quấy rối
  • Khoảng cách thực thi: Các chính sách đã tồn tại nhưng việc triển khai vẫn chưa đủ

Những tác động rộng lớn hơn đối với phát triển AI

Tình huống này đặt ra những câu hỏi cơ bản về việc phát triển và triển khai các công cụ AI mạnh mẽ. Một số thành viên cộng đồng cho rằng bản thân công nghệ không phải là vấn đề - chủ nghĩa phân biệt chủng tộc đã tồn tại từ lâu trước khi có các trình tạo video AI. Những người khác cho rằng các công cụ này khuếch đại các vấn đề xã hội hiện có bằng cách làm cho việc tạo ra và phân phối nội dung có hại ở quy mô lớn trở nên dễ dàng hơn.

Cuộc tranh luận phản ánh một căng thẳng rộng lớn hơn trong ngành công nghệ giữa đổi mới và trách nhiệm. Khi khả năng AI tiếp tục phát triển nhanh chóng, thách thức ngăn chặn việc lạm dụng trở nên ngày càng phức tạp và cấp bách.

Sự cố với Veo 3 phục vụ như một cảnh báo về những hậu quả không mong muốn của các công cụ AI mạnh mẽ. Trong khi công nghệ có các ứng dụng sáng tạo hợp pháp, việc lạm dụng nó chứng minh sự cần thiết của các biện pháp an toàn tinh vi hơn và có lẽ là những thay đổi cơ bản về cách các nền tảng mạng xã hội khuyến khích tạo nội dung.

Tham khảo: TikTok is being flooded with racist AI videos generated by Google's Veo 3