Cộng đồng phát triển phần mềm đang tham gia vào cuộc tranh luận sôi nổi về hiệu quả của các AI coding agents như GitHub Copilot, Claude Code và Codex. Trong khi những công cụ này hứa hẹn sẽ tăng năng suất, những trải nghiệm thực tế lại cho thấy một bức tranh phức tạp hơn, đòi hỏi sự giám sát cẩn thận từ con người.
Kiểm tra thực tế: AI Agents cần sự giám sát của con người
Các cuộc thảo luận gần đây giữa các nhà phát triển vẽ nên một bức tranh nghiêm túc về chất lượng code do AI tạo ra. Nhiều kỹ sư có kinh nghiệm báo cáo rằng họ nhận được các pull request do AI tạo ra trông có vẻ đúng về mặt cú pháp nhưng lại có những lỗi cơ bản trong cách tiếp cận. Vấn đề cốt lõi không chỉ là việc sửa lỗi - mà là khoản đầu tư thời gian đáng kể cần thiết để review và thường phải viết lại hoàn toàn các giải pháp do AI tạo ra.
Trải nghiệm của một nhà phát triển đã nắm bắt hoàn hảo sự thất vọng này:
Sau khi có niềm vui được review công việc và sửa lỗi của những agent jockeys, tôi khá hoài nghi. Code thường trông như thể họ đang phê thuốc. Họ hoàn toàn không thể lý luận về nó, như thể họ thậm chí không tham gia, khi tôi biết họ không hoàn toàn đứng ngoài cuộc.
Điều này làm nổi bật một sự bất đối xứng quan trọng trong quá trình phát triển: trong khi việc tạo code với AI chỉ cần nỗ lực tối thiểu, thì việc review và sửa chữa các giải pháp có cấu trúc kém lại tiêu tốn thời gian và chuyên môn quý báu của con người.
Vấn đề Review cấu trúc
Cộng đồng đã xác định một khoảng trống kỹ năng quan trọng trong cách các nhà phát triển tiếp cận code do AI tạo ra. Nhiều người tập trung vào các vấn đề bề mặt như tên hàm và sở thích cú pháp trong khi bỏ lỡ các vấn đề kiến trúc cơ bản. AI agents thường chọn các giải pháp quá phức tạp khi có những lựa chọn thay thế đơn giản hơn, chẳng hạn như xây dựng toàn bộ hệ thống background job cho các tác vụ song song đơn giản có thể được xử lý ở phía client.
Mô hình này phản ánh các vấn đề phổ biến với các nhà phát triển junior, những người lao vào triển khai mà không xem xét thiết kế hệ thống rộng hơn. Tuy nhiên, không giống như các junior con người học hỏi từ phản hồi, AI agents liên tục lặp lại những lỗi kiến trúc này.
Các Vấn Đề Lập Trình AI Thường Gặp Được Báo Cáo:
- Thiết kế quá phức tạp cho các giải pháp đơn giản (ví dụ: hệ thống background job đầy đủ cho công việc song song cơ bản)
- Reverse-engineering mã frontend phức tạp thay vì sử dụng các API có sẵn
- Triển khai đúng cú pháp nhưng có lỗi về kiến trúc
- Thiếu nhận thức về ngữ cảnh đối với các mẫu codebase hiện có
Tình trạng khó xử về yếu tố thú vị
Một điểm thú vị được nêu ra trong các cuộc thảo luận cộng đồng tập trung vào sự hài lòng trong công việc. Các công cụ AI xử lý những khía cạnh sáng tạo, thú vị của lập trình trong khi tăng công việc tẻ nhạt của code review. Điều này tạo ra một nghịch lý khi các công cụ năng suất thực sự có thể làm giảm sự hài lòng của nhà phát triển bằng cách loại bỏ những phần có tính thưởng của công việc.
Một số công cụ code review được hỗ trợ bởi AI đã xuất hiện để giải quyết sự mất cân bằng này, bao gồm các tính năng từ các nền tảng lớn như GitHub Copilot và các startup chuyên biệt. Tuy nhiên, phản hồi ban đầu cho thấy những reviewer tự động này vẫn cần sự giám sát đáng kể từ con người để có hiệu quả.
Các công cụ đánh giá code AI có sẵn:
- OpenAI Codex Cloud với mô hình GPT-5-Codex
- Google Gemini Code Assist thông qua GitHub Actions
- Tích hợp Claude Code GitHub Actions
- Các tính năng đánh giá code gốc của GitHub Copilot
- Các startup chuyên biệt: CodeRabbit, Greptile, Qodo
Tìm kiếm sự cân bằng
Sự đồng thuận giữa các nhà phát triển có kinh nghiệm là AI coding agents hoạt động tốt nhất trong mô hình centaur chess - nơi con người có kỹ năng hướng dẫn khả năng AI thay vì dựa vào chúng một cách độc lập. Thành công đòi hỏi kỹ năng code review mạnh mẽ, đặc biệt là khả năng đánh giá các quyết định kiến trúc thay vì chỉ tính đúng đắn của cú pháp.
Đối với các nhà phát triển đang xem xét các công cụ AI, điều quan trọng là duy trì sự giám sát phê phán trong khi tận dụng AI cho các tác vụ phù hợp như triển khai các interface được định nghĩa rõ ràng hoặc xử lý các mô hình coding thường xuyên. Công nghệ cho thấy triển vọng cho các trường hợp sử dụng cụ thể, nhưng nó chưa sẵn sàng thay thế phán đoán của con người trong các quyết định thiết kế phần mềm.
Cuộc tranh luận đang diễn ra phản ánh thách thức rộng lớn hơn của việc tích hợp AI vào công việc sáng tạo và kỹ thuật. Trong khi các công cụ tiếp tục cải thiện, yếu tố con người vẫn quan trọng để tạo ra các hệ thống phần mềm có thể bảo trì, có kiến trúc tốt.
Tham khảo: If you are good at code review, you will be good at using Al agents