Anthropic đạt thỏa thuận bồi thường 1,5 tỷ đô la Mỹ vì sử dụng sách lậu để huấn luyện mô hình AI Claude

Nhóm biên tập BigGo
Anthropic đạt thỏa thuận bồi thường 1,5 tỷ đô la Mỹ vì sử dụng sách lậu để huấn luyện mô hình AI Claude

Ngành công nghiệp trí tuệ nhân tạo đang đối mặt với một bước ngoặt quan trọng khi Anthropic đồng ý trả 1,5 tỷ đô la Mỹ để giải quyết vụ kiện vi phạm bản quyền lớn. Vụ án đột phá này tập trung vào việc công ty sử dụng sách lậu để huấn luyện mô hình ngôn ngữ lớn Claude của mình, đánh dấu khoản bồi thường bản quyền lớn nhất trong lịch sử Hoa Kỳ đồng thời thiết lập những tiền례 quan trọng cho các thực hành phát triển AI.

Cốt lõi của thách thức pháp lý

Vụ kiện được đệ trình vào tháng 8 năm 2024, cáo buộc Anthropic đã có hệ thống tải xuống và sử dụng khoảng 500.000 cuốn sách có bản quyền mà không xin phép để huấn luyện các mô hình AI Claude. Hành động pháp lý này mô tả đây là hành vi trộm cắp quy mô lớn các tác phẩm có bản quyền, tạo thành một thành phần thiết yếu trong mô hình kinh doanh của Anthropic. Các nguyên đơn lập luận rằng khả năng của Claude đã trực tiếp làm suy yếu sinh kế của các tác giả bằng cách cho phép người dùng tạo nội dung tự động và với chi phí thấp, nội dung mà các nhà văn sẽ được trả tiền để tạo ra. Vụ án này làm nổi bật căng thẳng cơ bản trong phát triển AI giữa tiến bộ công nghệ và quyền sở hữu trí tuệ.

Mức phạt tiềm năng so với thực tế

  • Mức bồi thường thiệt hại tối đa theo luật định cho mỗi tác phẩm: 150.000 USD
  • Số lượng sách bị vi phạm bản quyền: 7 triệu cuốn
  • Mức phạt tối đa về mặt lý thuyết: 1,05 nghìn tỷ USD
  • Thỏa thuận thực tế: 1,5 tỷ USD
  • Thỏa thuận chiếm: ~0,14% mức phạt tiềm năng tối đa

Điều khoản thỏa thuận và tác động tài chính

Theo thỏa thuận được đề xuất, Anthropic sẽ trả khoảng 3.000 đô la Mỹ cho mỗi tác giả trong số 500.000 tác giả bị ảnh hưởng. Mặc dù tổng số tiền đại diện cho mức cao lịch sử đối với các thỏa thuận bản quyền, nó chỉ chiếm một phần tương đối nhỏ so với định giá 183 tỷ đô la Mỹ của Anthropic. Công ty gần đây đã huy động được nhiều tiền hơn trong một vòng gọi vốn duy nhất so với toàn bộ số tiền thỏa thuận này. Đối với các tác giả cá nhân, khoản thanh toán 3.000 đô la Mỹ thấp hơn so với khoản tạm ứng sách thông thường, đặt ra câu hỏi về việc liệu khoản bồi thường có giải quyết đầy đủ thiệt hại bị cáo buộc đối với các tác phẩm sáng tạo và tiềm năng thu nhập trong tương lai của họ hay không.

Phân tích thỏa thuận

  • Tổng số tiền thỏa thuận: 1,5 tỷ USD
  • Số lượng tác giả bị ảnh hưởng: 500.000
  • Khoản thanh toán cho mỗi tác giả: 3.000 USD
  • Định giá hiện tại của Anthropic : 183 tỷ USD
  • Thỏa thuận chiếm tỷ lệ phần trăm định giá: ~0,8%

Các điều khoản thỏa thuận quan trọng

Thỏa thuận bao gồm một điều khoản quan trọng cho phép Anthropic giữ lại các mô hình Claude đã được huấn luyện mà không cần sửa đổi hoặc xóa. Công ty chỉ cần phá hủy các tệp thư viện số vi phạm được sử dụng để huấn luyện, không phải bản thân các hệ thống AI. Sự sắp xếp này có hiệu lực biến thỏa thuận thành một khoản phí cấp phép có hiệu lực ngược thay vì một biện pháp trừng phạt. Thỏa thuận chỉ bao gồm các tác phẩm bị lậu và sử dụng trước ngày 25 tháng 8 năm 2025, để lại các thực hành huấn luyện trong tương lai phụ thuộc vào các cân nhắc pháp lý riêng biệt.

Các Điều Khoản Thỏa Thuận Chính

  • Anthropic được giữ nguyên các mô hình Claude đã được huấn luyện
  • Chỉ phải tiêu hủy các tệp thư viện số vi phạm bản quyền
  • Không yêu cầu sửa đổi hoặc huấn luyện lại mô hình
  • Thỏa thuận bao gồm các tác phẩm được sử dụng trước ngày 25 tháng 8 năm 2025
  • Không yêu cầu thừa nhận tội lỗi

Tiền lệ pháp lý và ranh giới sử dụng hợp lý

Phán quyết của Thẩm phán William Alsup tại Quận phía Bắc California đã thiết lập những phân biệt quan trọng trong các thực hành huấn luyện AI. Tòa án xác định rằng việc sử dụng sách có bản quyền được thu thập hợp pháp để huấn luyện AI cấu thành việc sử dụng hợp lý, trong khi việc sử dụng các bản sao lậu vượt qua ranh giới vi phạm. Phán quyết này cho thấy rằng các công ty AI có thể tiếp tục huấn luyện trên tài liệu có bản quyền miễn là họ thu thập nó thông qua các kênh hợp pháp. Quyết định này tạo ra một con đường rõ ràng cho việc phát triển AI trong tương lai đồng thời thiết lập ranh giới xung quanh các phương pháp thu thập dữ liệu có thể chấp nhận được.

Tác động toàn ngành

Thỏa thuận này có thể thiết lập 3.000 đô la Mỹ mỗi tác phẩm như một chuẩn mực cho việc cấp phép bản quyền trong tương lai trong huấn luyện AI. Tiền lệ này có thể ảnh hưởng đến các vụ kiện đang diễn ra chống lại các công ty AI lớn khác, bao gồm Microsoft, OpenAI và Google. Tuy nhiên, tác động có thể bị hạn chế vì không phải tất cả các vụ kiện bản quyền chống lại các công ty AI đều đạt được tình trạng kiện tập thể, điều quan trọng đối với phạm vi của thỏa thuận này. Phán quyết củng cố rằng các công ty AI phải cân nhắc cẩn thận các nguồn dữ liệu của họ đồng thời cho thấy rằng việc thu thập hợp pháp tài liệu huấn luyện cung cấp sự bảo vệ pháp lý mạnh mẽ.

Tính toán chiến lược và triển vọng tương lai

Quyết định giải quyết của Anthropic có thể phản ánh quản lý rủi ro chiến lược hơn là sự cần thiết tài chính. Công ty đối mặt với các hình phạt tối đa tiềm năng là 150.000 đô la Mỹ cho mỗi tác phẩm bị vi phạm, có thể dẫn đến hơn 1 nghìn tỷ đô la Mỹ thiệt hại cho 7 triệu cuốn sách trong các bộ dữ liệu lậu. Thỏa thuận cho phép Anthropic tiếp tục hoạt động mà không làm gián đoạn khả năng AI cốt lõi của mình đồng thời thiết lập các hướng dẫn rõ ràng hơn cho các thực hành ngành. Vụ án này chứng minh rằng mặc dù vi phạm bản quyền trong huấn luyện AI mang lại chi phí đáng kể, các công ty có thể giảm thiểu rủi ro thông qua việc cấp phép thích hợp và thu thập hợp pháp tài liệu huấn luyện.