Các nhà phát triển vượt qua giới hạn của JetBrains AI Assistant với công cụ Proxy LLM tùy chỉnh

BigGo Editorial Team
Các nhà phát triển vượt qua giới hạn của JetBrains AI Assistant với công cụ Proxy LLM tùy chỉnh

Trong bối cảnh phát triển có sự hỗ trợ của AI đang phát triển nhanh chóng, các lập trình viên đang tìm ra những cách sáng tạo để vượt qua giới hạn của các công cụ AI tích hợp. Một dự án mã nguồn mở mới có tên ProxyAsLocalModel đã xuất hiện như một giải pháp cho các nhà phát triển muốn sử dụng các mô hình ngôn ngữ lớn (LLMs) ưa thích của họ với JetBrains AI Assistant, vượt qua hạn ngạch miễn phí hạn chế của nền tảng.

Mở rộng JetBrains AI Assistant ngoài các tùy chọn mặc định

ProxyAsLocalModel đóng vai trò như cầu nối giữa các API LLM của bên thứ ba và các IDE của JetBrains bằng cách tạo proxy cho các dịch vụ này như các mô hình cục bộ tương thích với AI Assistant. Công cụ này giải quyết một vấn đề phổ biến trong giới lập trình viên: JetBrains AI Assistant cung cấp hạn ngạch miễn phí hạn chế nhanh chóng cạn kiệt, trong khi chỉ hỗ trợ các mô hình cục bộ từ LM Studio và Ollama. Bằng cách tạo một proxy mô phỏng các điểm cuối cục bộ được hỗ trợ này, các nhà phát triển có thể tận dụng các dịch vụ LLM thay thế mà họ đã mua, như OpenAI, Claude, Gemini, Qwen, Deepseek, Mistral và SiliconFlow.

Dự án này đặc biệt đáng chú ý về mặt triển khai kỹ thuật sử dụng Kotlin, Ktor và kotlinx.serialization, cho phép khả năng tương thích đa nền tảng thông qua biên dịch hình ảnh gốc GraalVM. Cách tiếp cận này tránh được các SDK chính thức nặng về phản chiếu (reflection) khiến việc biên dịch hình ảnh gốc trở nên khó khăn, dẫn đến thời gian khởi động nhanh hơn và sử dụng ít bộ nhớ hơn.

Các nhà cung cấp LLM được hỗ trợ trong ProxyAsLocalModel

  • Proxy từ: OpenAI, Claude, DashScope (Alibaba Qwen), Gemini, Deepseek, Mistral, SiliconFlow
  • Proxy dưới dạng: LM Studio, Ollama
  • Hỗ trợ API: Chỉ API hoàn thành trò chuyện theo dòng

Cải tiến JetBrains AI Assistant (Phiên bản 2025)

  • Tùy chọn bật/tắt ở cấp độ dự án
  • Cài đặt tùy chọn cho mô hình cục bộ và trực tuyến
  • Hỗ trợ các nhà cung cấp LLM chính (OpenAI, Claude, Gemini)
  • Tích hợp tốt hơn với IDE

Sự phát triển của JetBrains AI Assistant và trải nghiệm người dùng

Các cuộc thảo luận cộng đồng cho thấy phản hồi về JetBrains AI Assistant có sự cải thiện nhưng còn nhiều ý kiến khác nhau. Các phiên bản đầu bị chỉ trích vì những hạn chế và xu hướng viết lại toàn bộ tệp thay vì tập trung vào các hàm hoặc khối mã cụ thể.

Tôi đã thử sử dụng AI assistant khi nó ra mắt nhưng có vẻ như tôi quá ngốc để hiểu cách sử dụng nó đúng cách. Tôi cố gắng nhờ nó viết các hàm đơn lẻ hoặc các khối mã ngắn cho tôi, nhưng nó luôn bắt đầu viết lại toàn bộ tệp từ đầu, điều này quá chậm.

Tuy nhiên, các bản cập nhật gần đây đã cải thiện đáng kể khả năng của công cụ này. Phiên bản 2025 cung cấp khả năng kiểm soát cấp dự án tốt hơn, hỗ trợ các nhà cung cấp LLM lớn như OpenAI, Claude và Gemini, và cải thiện tích hợp với quy trình làm việc IDE. Người dùng báo cáo thành công với việc đánh giá mã, tạo các điểm cuối REST, viết kiểm thử và khám phá các thư viện không quen thuộc. Việc giới thiệu Junie, hệ thống mới hơn của JetBrains, cũng nhận được phản hồi tích cực vì giải quyết được các vấn đề phức tạp mà các LLM khác gặp khó khăn.

Giải pháp thay thế và cân nhắc pháp lý

Trong khi ProxyAsLocalModel cung cấp một cách tiếp cận để mở rộng khả năng của JetBrains AI Assistant, các thành viên cộng đồng đã đề xuất các giải pháp thay thế như OpenRouter, cung cấp quyền truy cập vào hàng trăm mô hình thông qua một điểm cuối duy nhất mà không phát sinh chi phí bổ sung ngoài giá công khai của các nhà cung cấp. Các dự án tương tự khác được đề cập bao gồm enchanted-ollama-openrouter-proxy và LiteLLM Gateway.

Một vấn đề quan trọng được nêu ra trong cuộc thảo luận là những hàm ý pháp lý tiềm ẩn của việc sử dụng các dịch vụ AI thương mại cho phát triển. Một số người dùng chỉ ra rằng nhiều nhà cung cấp dịch vụ AI bao gồm các điều khoản không cạnh tranh trong điều khoản dịch vụ của họ, có thể khiến các doanh nghiệp gặp rủi ro pháp lý nếu họ sử dụng các dịch vụ này để phát triển các sản phẩm cạnh tranh. Điều này đặt ra câu hỏi về các trường hợp sử dụng phù hợp cho các công cụ AI này trong môi trường chuyên nghiệp.

Khi phát triển có sự hỗ trợ của AI tiếp tục trưởng thành, các công cụ như ProxyAsLocalModel đại diện cho nỗ lực của cộng đồng trong việc tùy chỉnh và tối ưu hóa quy trình làm việc của họ, ngay cả khi các nền tảng cơ bản phát triển. Đối với các nhà phát triển tìm cách tối đa hóa năng suất của họ với các IDE của JetBrains, các giải pháp proxy này cung cấp một cách để tận dụng các dịch vụ LLM ưa thích trong khi điều hướng các ràng buộc của các triển khai đặc thù theo nền tảng.

Tham khảo: ProxyAsLocalModel