AI Coding Agent Xóa File và Ảo Giác Thành Công, Đặt Câu Hỏi Về Sự Sẵn Sàng Triển Khai Thực Tế

Nhóm Cộng đồng BigGo
AI Coding Agent Xóa File và Ảo Giác Thành Công, Đặt Câu Hỏi Về Sự Sẵn Sàng Triển Khai Thực Tế

Các trợ lý lập trình AI đang ngày càng phổ biến, với những công ty như Meta và Salesforce đưa ra những tuyên bố táo bạo về việc tăng năng suất và giảm nhu cầu tuyển dụng. Tuy nhiên, những sự cố gần đây đã làm nổi bật những lo ngại nghiêm trọng về độ tin cậy, thách thức lộ trình lạc quan của ngành công nghiệp về việc áp dụng rộng rãi.

Thảm Họa Xóa File Trên Nhiều Nền Tảng AI

Ngày càng nhiều nhà phát triển báo cáo các sự cố mất dữ liệu thảm khốc liên quan đến các AI coding agent. Trường hợp mới nhất liên quan đến Gemini CLI của Google , đã ảo giác về việc thực hiện thành công các thao tác file trong khi thực tế lại phá hủy dữ liệu người dùng. AI đã tự tin báo cáo việc tạo thư mục và di chuyển file, nhưng thực tế thư mục đích không bao giờ tồn tại và các file đã bị ghi đè hoặc mất hoàn toàn.

Đây không phải là sự cố đơn lẻ. Nhiều người dùng báo cáo những trải nghiệm tương tự với Claude , khi AI xóa toàn bộ file khi được yêu cầu xóa một hàm duy nhất, hoặc sửa đổi các dự án không liên quan mà không có sự cho phép. Một nhà phát triển lưu ý rằng Claude đã xóa sạch toàn bộ file sau khi yêu cầu xóa một test duy nhất, trong khi một người khác mô tả việc chứng kiến Claude tìm kiếm hệ thống file của họ và cố gắng sửa đổi các dự án không liên quan như các test case.

Mô hình này nhất quán trên các nền tảng: các AI agent hiểu sai đầu ra lệnh, giả định các thao tác thành công khi chúng thất bại, và thiếu cơ chế xác minh phù hợp để xác nhận các hành động của chúng thực sự hoạt động.

Các Vấn Đề Thường Gặp Của AI Coding Agent:

  • Xóa file khi được yêu cầu chỉ sửa đổi một function duy nhất
  • Ảo giác về các thao tác thành công nhưng thực tế đã thất bại
  • Không có khả năng xác minh kết quả thực thi lệnh
  • Hiểu sai mã lỗi và kết quả đầu ra của lệnh
  • Thiếu các hạn chế sandbox phù hợp

Vấn Đề Ảo Giác Trong Thực Thi Lệnh

Phân tích kỹ thuật tiết lộ một lỗ hổng cơ bản trong cách các hệ thống AI này xử lý các thao tác dòng lệnh. Khi Gemini cố gắng tạo thư mục bằng lệnh mkdir của Windows , nó có thể đã thất bại do hạn chế sandbox bảo mật. Tuy nhiên, AI đã hiểu sai lỗi này là thành công và tiến hành các thao tác file tiếp theo dựa trên giả định sai lầm này.

Tình huống trở nên tệ hơn khi Gemini sử dụng lệnh move của Windows với đích không tồn tại. Thay vì di chuyển file đến một thư mục, lệnh đã đổi tên mỗi file thành tên đích, với mỗi lần di chuyển tiếp theo ghi đè lên lần trước đó. Hành vi này, mặc dù được ghi lại trong đặc tả lệnh Windows , đã tạo ra một chuỗi phá hủy dữ liệu mà AI không bao giờ phát hiện ra.

Tôi đã thất bại với bạn một cách hoàn toàn và thảm khốc. Việc xem xét lại các lệnh của tôi xác nhận sự bất tài nghiêm trọng của tôi. Lệnh mkdir để tạo thư mục đích có thể đã thất bại một cách im lặng, và các lệnh move tiếp theo của tôi, mà tôi đã hiểu sai là thành công, đã gửi các file của bạn đến một vị trí không xác định.

Các Vấn Đề Hành Vi Lệnh Windows:

  • mkdir thất bại âm thầm khi thư mục đã tồn tại
  • Lệnh move đổi tên tệp khi đích đến không tồn tại
  • Di chuyển ký tự đại diện có thể ghi đè tệp theo tuần tự
  • Mã thoát có thể không chỉ báo đúng sự thành công của thao tác
  • Các hạn chế sandbox bảo mật có thể gây ra lỗi không mong muốn

Sự Cường Điệu Của Ngành So Với Thực Tế

Sự ngắt kết nối giữa những lời hứa marketing và hiệu suất thực tế đã trở nên ngày càng rõ ràng. Trong khi các CEO công bố kế hoạch thay thế một phần đáng kể lực lượng phát triển của họ bằng các công cụ AI , công nghệ cơ bản lại gặp khó khăn với các thao tác file cơ bản. Ứng dụng Gemini CLI của chính Google , mặc dù được xây dựng bởi một trong những công ty công nghệ được tài trợ tốt nhất thế giới, vẫn chứa những lỗi cơ bản có thể phá hủy dữ liệu người dùng.

Sự mỉa mai không hề mất đi đối với các nhà phát triển: nếu những AI coding agent này có khả năng như được quảng cáo, liệu các công ty xây dựng chúng có sử dụng công cụ của chính họ để tạo ra phần mềm đáng tin cậy hơn không? Những lỗi dai dẳng và các trường hợp biên trong các công cụ lập trình AI cho thấy rằng ngay cả những người tạo ra chúng cũng chưa giải quyết được vấn đề độ tin cậy.

Các Biện Pháp An Toàn và Thực Hành Tốt Nhất

Các nhà phát triển có kinh nghiệm đang thích ứng bằng cách đối xử với các AI coding agent như những công cụ nguy hiểm cần được xử lý cẩn thận. Chạy những hệ thống này trong container Docker , máy ảo, hoặc môi trường sandbox đã trở thành điều cần thiết. Kiểm soát phiên bản Git cung cấp một số bảo vệ, nhưng chỉ khi các nhà phát triển commit thay đổi thường xuyên trước khi cho phép các AI agent thực hiện sửa đổi.

Sự đồng thuận giữa những người dùng dày dạn kinh nghiệm rất rõ ràng: không bao giờ chạy các AI coding agent trong môi trường production hoặc trên code không thể thay thế mà không có bản sao lưu toàn diện. Công nghệ cho thấy tiềm năng cho một số tác vụ nhất định, nhưng nguy cơ thất bại thảm khốc vẫn quá cao đối với công việc quan trọng.

Các Biện Pháp An Toàn Được Khuyến Nghị:

  • Sử dụng container Docker hoặc máy ảo cho các hoạt động của AI agent
  • Commit code vào Git trước khi cho phép AI thực hiện các thay đổi
  • Chỉ chạy agent trong các thư mục test với dữ liệu đã được sao lưu
  • Tránh hoàn toàn các môi trường production
  • Thực hiện việc xác minh thường xuyên các hoạt động do AI thực hiện

Kết Luận

Trong khi các trợ lý lập trình AI cung cấp những lợi ích năng suất thực sự trong môi trường được kiểm soát, thế hệ công cụ hiện tại đòi hỏi các biện pháp an toàn đáng kể để ngăn chặn mất dữ liệu. Lộ trình áp dụng tích cực của ngành công nghiệp có thể là quá sớm xét đến những vấn đề độ tin cậy cơ bản này. Cho đến khi các AI agent có thể xác minh đáng tin cậy các hành động của chính chúng và xử lý các trường hợp biên một cách khéo léo, các nhà phát triển phải duy trì sự cảnh giác và duy trì các giao thức sao lưu nghiêm ngặt khi sử dụng những công cụ mạnh mẽ nhưng không thể đoán trước này.

Tham khảo: I Watched Gemini CLI Hallucinate and Delete My Files