Quy định AI mới của EU gây tranh cãi về sự đánh đổi giữa đổi mới và quy định

Nhóm Cộng đồng BigGo
Quy định AI mới của EU gây tranh cãi về sự đánh đổi giữa đổi mới và quy định

Liên minh châu Âu đã công bố bộ quy tắc ứng xử toàn diện dành cho các công ty AI, tạo tiền đề cho những cuộc thảo luận sôi nổi về việc liệu các quy định nghiêm ngặt sẽ bảo vệ người tiêu dùng hay kìm hãm tiến bộ công nghệ. Những quy định mới này, sẽ có hiệu lực tự nguyện từ ngày 2 tháng 8 và bắt buộc vào tháng 8 năm 2026, nhắm vào các nhà phát triển AI lớn như Google, Meta và OpenAI với các yêu cầu minh bạch và an toàn chưa từng có.

Cộng đồng công nghệ đang bị chia rẽ sâu sắc về những phát triển này. Trong khi một số người coi EU đang có cách tiếp cận tiến bộ đối với quản trị AI, những người khác lo ngại về việc khu vực này sẽ tụt lại phía sau hơn nữa trong cuộc đua AI toàn cầu.

Mốc thời gian quan trọng:

  • 2 tháng 8, 2025: Việc tuân thủ tự nguyện bắt đầu đối với các công ty AI lớn
  • Tháng 8, 2026: Việc thực thi đầy đủ Đạo luật AI của EU bắt đầu
  • 5-10 ngày: Khung thời gian bắt buộc để báo cáo các sự cố AI nghiêm trọng cho Văn phòng AI của EU
Một cuộc họp của các nhà hoạch định chính sách thảo luận về tác động của các quy định AI mới tại Liên minh châu Âu
Một cuộc họp của các nhà hoạch định chính sách thảo luận về tác động của các quy định AI mới tại Liên minh châu Âu

Bảo vệ bản quyền trở thành tâm điểm

Một trong những yêu cầu gây tranh cãi nhất là buộc các công ty AI phải cam kết không bao giờ sử dụng tài liệu vi phạm bản quyền để huấn luyện mô hình của họ. Điều này thách thức trực tiếp các thực tiễn hiện tại của ngành, nơi các công ty như Meta đã sử dụng các bộ dữ liệu sách không được phép và bảo vệ thực tiễn này bằng cách tuyên bố rằng từng cuốn sách riêng lẻ có giá trị huấn luyện tối thiểu.

Các quy định mới yêu cầu các công ty tạo ra hệ thống nội bộ để xử lý khiếu nại bản quyền và cho phép những người sáng tạo nội dung từ chối tham gia vào các bộ dữ liệu huấn luyện AI. Điều này đại diện cho một sự thay đổi đáng kể so với cách tiếp cận xin lỗi sau mà nhiều công ty AI hiện đang áp dụng.

Yêu cầu minh bạch có thể định hình lại việc phát triển AI

Các quy định đòi hỏi sự tiết lộ chưa từng có từ các công ty AI về quy trình huấn luyện của họ. Các công ty phải tiết lộ thông tin chi tiết về nguồn dữ liệu của họ, giải thích các quyết định thiết kế quan trọng và chỉ rõ liệu họ có sử dụng dữ liệu công cộng, dữ liệu người dùng hay dữ liệu tổng hợp để huấn luyện hay không.

Việc thúc đẩy minh bạch này cũng mở rộng đến cơ sở hạ tầng kỹ thuật. Các công ty phải tiết lộ tổng mức tiêu thụ năng lượng của họ cho cả việc huấn luyện và vận hành các mô hình AI, cho phép các cơ quan quản lý giám sát tác động môi trường. Họ cũng phải tôn trọng các paywall của trang web và tệp robots.txt hạn chế việc thu thập dữ liệu tự động.

Các Tiết Lộ Bắt Buộc:

  • Nguồn dữ liệu huấn luyện chi tiết và lý do sử dụng
  • Tổng mức tiêu thụ năng lượng cho việc huấn luyện và suy luận
  • Các lựa chọn thiết kế mô hình chính và lý do biện minh
  • Các biện pháp bảo vệ an ninh mạng
  • Theo dõi và báo cáo các sự cố nghiêm trọng

Giám sát an toàn và báo cáo sự cố

Bộ quy tắc thiết lập các giao thức an toàn nghiêm ngặt yêu cầu các công ty giám sát các sự cố nghiêm trọng bao gồm vi phạm an ninh mạng, gián đoạn cơ sở hạ tầng và tổn hại tiềm tàng đến sức khỏe con người. Các công ty chỉ có 5-10 ngày để báo cáo những sự cố như vậy cho Văn phòng AI của EU.

Những biện pháp an toàn này cũng bao gồm các yêu cầu ngăn chặn jailbreaking - những nỗ lực vượt qua các kiểm soát an toàn AI - và duy trì bảo vệ an ninh mạng đầy đủ trong toàn bộ hệ thống của họ.

Cộng đồng chia rẽ về tác động đổi mới

Cộng đồng công nghệ vẫn chia rẽ sâu sắc về việc liệu những quy định này sẽ giúp ích hay có hại cho việc phát triển AI. Những người ủng hộ cho rằng việc tuân thủ quy định từ ngày đầu tạo ra lợi thế cạnh tranh cho các hệ thống AI tuân thủ EU, đặc biệt là đối với các công ty nhắm vào thị trường châu Âu.

Ồ, chúng tôi không thể giải thích được, đó là một hộp đen. Vậy thì hãy giải thích cách bạn tạo ra nó, nếu không thì không được.

Những người chỉ trích lo ngại rằng các yêu cầu tuân thủ nặng nề sẽ đẩy việc phát triển AI ra khỏi châu Âu hoàn toàn, khiến khu vực này phụ thuộc vào các hệ thống AI nước ngoài trong khi đổi mới địa phương bị ảnh hưởng. Họ chỉ ra việc EU thiếu các công ty công nghệ lớn có thể so sánh với những gã khổng lồ Mỹ như bằng chứng cho thấy các quy định có thể phản tác dụng.

Cơ cấu hình phạt:

  • Lên đến 7% doanh thu hàng năm: Mức phạt tối đa cho các vi phạm Đạo luật AI
  • Lên đến 3% doanh thu hàng năm: Mức phạt cho các công ty phát triển mô hình AI tiên tiến
  • Loại bỏ khỏi thị trường: Các mô hình AI có thể bị rút khỏi thị trường EU do không tuân thủ

Các mô hình mã nguồn mở đối mặt với tương lai không rõ ràng

Các quy định mới tạo ra những thách thức đặc biệt cho các mô hình AI mã nguồn mở, nơi những người sáng tạo không thể kiểm soát cách mô hình của họ được sử dụng hoặc theo dõi đầu ra của chúng. Cộng đồng vẫn đang tranh luận về việc liệu những yêu cầu này có hiệu quả cấm phát triển AI mã nguồn mở hay trách nhiệm chuyển sang các công ty sử dụng những mô hình này trong sản phẩm của họ.

Cách tiếp cận thực thi vẫn chưa rõ ràng, với một số người cho rằng người dùng các mô hình mã nguồn mở sẽ trở thành người chịu trách nhiệm tuân thủ thay vì các nhà phát triển ban đầu.

Nhìn về phía trước

Khi ngày tuân thủ tự nguyện tháng 8 năm 2025 đang đến gần, ngành AI đối mặt với một điểm quyết định quan trọng. Các công ty chấp nhận các quy tắc tự nguyện có thể được hưởng lợi từ việc giảm gánh nặng hành chính sau này, trong khi những công ty kháng cự có thể phải đối mặt với các quy trình tuân thủ tốn kém hơn khi việc thực thi bắt đầu vào năm 2026.

Mức cược rất cao, với các khoản phạt tiềm năng có thể lên đến 7% doanh thu hàng năm đối với các vi phạm. Khung quy định này có thể định hình lại cơ bản cách các công ty AI hoạt động, không chỉ ở châu Âu mà trên toàn cầu, khi chi phí tuân thủ và yêu cầu minh bạch ảnh hưởng đến các thực tiễn phát triển trên toàn thế giới.

Tham khảo: Everything tech giants will hate about the EU's new AI rules