QEMU Cấm Đóng Góp Mã Code Do AI Tạo Ra Vì Lo Ngại Pháp Lý và Chất Lượng

Nhóm Cộng đồng BigGo
QEMU Cấm Đóng Góp Mã Code Do AI Tạo Ra Vì Lo Ngại Pháp Lý và Chất Lượng

Dự án ảo hóa QEMU đã triển khai chính sách nghiêm ngặt cấm mọi đóng góp bao gồm hoặc xuất phát từ nội dung do AI tạo ra, đánh dấu một trong những lập trường rõ ràng nhất được thực hiện bởi một dự án mã nguồn mở lớn chống lại mã code được tạo bởi máy móc. Quyết định này ảnh hưởng đến các công cụ phổ biến như GitHub Copilot , ChatGPT , Claude và Code Llama .

Chính sách này xuất phát từ những bất định cơ bản về tình trạng pháp lý của mã code do AI tạo ra. Với việc không có nền tảng pháp lý ổn định về các tác động bản quyền và cấp phép, các nhà duy trì QEMU lo ngại về trách nhiệm pháp lý tiềm tàng trong tương lai. Dự án yêu cầu các nhà đóng góp chứng nhận việc gửi bài của họ theo Chứng chỉ Nguồn gốc của Nhà phát triển, nhưng nội dung do AI tạo ra tạo ra sự mơ hồ về việc ai thực sự sở hữu bản quyền.

Các điểm chính trong chính sách AI của QEMU:

  • Công cụ bị cấm: GitHub Copilot , OpenAI ChatGPT , Anthropic Claude , Meta Code Llama
  • Phạm vi áp dụng: Áp dụng cho tất cả các đóng góp mã nguồn và các sản phẩm phái sinh từ trình tạo AI
  • Ngoại lệ: Được phép sử dụng AI cho nghiên cứu, tài liệu API, phân tích tĩnh, gỡ lỗi (đầu ra không được bao gồm trong các đóng góp)
  • Cơ sở pháp lý: Yêu cầu tuân thủ Chứng chỉ Xuất xứ của Nhà phát triển (DCO)
  • Trạng thái chính sách: Có thể được sửa đổi trong tương lai khi bối cảnh pháp lý thay đổi

Rủi Ro Pháp Lý Thúc Đẩy Cách Tiếp Cận Thận Trọng

Các dự án mã nguồn mở đối mặt với những lỗ hổng duy nhất khi nói đến mã code do AI tạo ra. Không giống như các công ty phần mềm độc quyền có thể hấp thụ chi phí pháp lý, các dự án do cộng đồng điều hành thiếu tài nguyên để chống lại các tranh chấp bản quyền. Mối lo ngại mở rộng vượt ra ngoài việc vi phạm bản quyền đơn giản đến các tình huống phức tạp hơn nơi mã code do AI tạo ra có thể được phán quyết là vi phạm hoặc thuộc phạm vi công cộng, cả hai đều có thể tạo ra những phức tạp đáng kể cho việc thực thi giấy phép.

Thời điểm này phản ánh sự bất định rộng lớn hơn trong ngành. Nhiều vụ kiện hiện đang được xử lý qua các tòa án sẽ thiết lập tiền lệ cho nội dung do AI tạo ra, nhưng những vụ án này vẫn chưa được giải quyết. Cách tiếp cận của QEMU tuân theo nguyên tắc bắt đầu nghiêm ngặt và có thể nới lỏng các hạn chế một khi sự rõ ràng pháp lý xuất hiện.

Lo Ngại Về Chất Lượng và Gánh Nặng Đánh Giá

Ngoài các vấn đề pháp lý, cộng đồng phát triển đã nêu ra những lo ngại đáng kể về tác động thực tế của các đóng góp do AI tạo ra. Nhiều nhà phát triển báo cáo trải nghiệm một hiện tượng mới nơi các bài gửi mã code xuất hiện có vẻ thành thạo trên bề mặt nhưng thiếu sự hiểu biết cơ bản đi kèm với tác giả con người. Điều này tạo ra gánh nặng đánh giá đáng kể, vì các nhà duy trì phải dành thời gian đáng kể hơn để xác thực mã code do AI tạo ra so với các đóng góp được viết bởi con người.

Vấn đề mở rộng đến chính các đánh giá mã code, nơi một số người đóng góp đang sử dụng AI để tạo ra các bình luận đánh giá nghe có vẻ tinh vi nhưng có thể có lỗi cơ bản. Điều này tạo ra một chu kỳ tốn thời gian nơi các nhà đánh giá phải bác bỏ các đề xuất do AI tạo ra, thường mất nhiều thời gian hơn quá trình tạo AI ban đầu.

Tôi không muốn đánh giá mã code mà tác giả không hiểu và tôi không muốn hợp nhất mã code mà cả hai chúng tôi đều không hiểu.

Thách Thức Thực Thi và Tác Động Ngành

Chính sách đối mặt với những thách thức thực thi thực tế, vì các công cụ phát triển hiện đại ngày càng tích hợp hỗ trợ AI. Nhiều trình soạn thảo mã code hiện cung cấp các tính năng tự động hoàn thành được hỗ trợ bởi AI, khiến việc phân biệt giữa các đóng góp của con người và máy móc trở nên khó khăn. Tuy nhiên, chính sách của QEMU dường như được thiết kế nhiều hơn như một biện pháp răn đe và bảo vệ pháp lý hơn là một cơ chế thực thi hoàn hảo.

Quyết định này phản ánh một căng thẳng rộng lớn hơn trong cộng đồng phát triển phần mềm. Trong khi một số lập luận rằng hỗ trợ AI sẽ trở nên thiết yếu cho phát triển cạnh tranh, những người khác lo lắng về các tác động dài hạn đối với chất lượng mã code và kỹ năng nhà phát triển. Lập trường thận trọng của QEMU có thể ảnh hưởng đến các dự án cơ sở hạ tầng quan trọng khác để áp dụng các chính sách tương tự.

So sánh với các dự án khác:

  • QEMU: Cấm hoàn toàn các đóng góp được tạo ra bởi AI
  • LLVM: Chính sách khoan dung hơn cho phép một số hỗ trợ từ AI
  • Xu hướng ngành: Các cách tiếp cận khác nhau với một số công ty chấp nhận các công cụ AI trong khi những công ty khác vẫn thận trọng
  • Tình trạng pháp lý: Nhiều vụ kiện đang diễn ra sẽ thiết lập tiền례 cho bản quyền nội dung được tạo ra bởi AI

Nhìn Về Phía Trước

QEMU tuyên bố rõ ràng rằng chính sách của họ được thiết kế cho các điều kiện hiện tại và vẫn mở để sửa đổi khi bối cảnh pháp lý phát triển. Dự án cho phép sử dụng AI cho nghiên cứu, gỡ lỗi và phân tích, miễn là đầu ra không được bao gồm trong các đóng góp. Cách tiếp cận tinh tế này gợi ý sự công nhận rằng các công cụ AI có những cách sử dụng hợp pháp trong khi duy trì ranh giới nghiêm ngặt xung quanh các đóng góp mã code.

Chính sách này đại diện cho một khoảnh khắc quan trọng trong phát triển mã nguồn mở, khi một trong những nền tảng ảo hóa quan trọng nhất của ngành thực hiện lập trường rõ ràng về nội dung do AI tạo ra. Việc liệu các dự án lớn khác có theo suit hay không có thể phụ thuộc vào việc các tiền lệ pháp lý xuất hiện nhanh như thế nào và liệu những lợi ích được dự đoán của phát triển có hỗ trợ AI có hiện thực hóa trong thực tế hay không.

Tham khảo: docs: define policy forbidding use of Al code generators