Một triển khai mới của khái niệm Code Mode của Cloudflare đang thu hút sự chú ý trong cộng đồng phát triển, mang đến một cách tiếp cận thay thế về cách các hệ thống AI tương tác với các công cụ và dịch vụ. Thay vì phải vật lộn với nhiều lệnh gọi công cụ trực tiếp, hệ thống này cung cấp cho các mô hình ngôn ngữ lớn (LLM) một công cụ duy nhất cho phép chúng viết code TypeScript hoặc JavaScript để hoàn thành các tác vụ phức tạp.
Code Mode MCP Server đại diện cho một sự thay đổi trong tư duy về khả năng của AI. Thay vì buộc AI phải thực hiện các lệnh gọi công cụ riêng lẻ thông qua các giao diện truyền thống, nó cung cấp một công cụ chính có tên execute_code
chạy trong một môi trường sandbox. AI viết code thực hiện các yêu cầu HTTP để truy cập vào các máy chủ MCP (Model Context Protocol) khác nhau thông qua một hệ thống proxy.
Tính năng bảo mật:
- Sandbox Deno chỉ có quyền truy cập mạng
- Không có quyền truy cập hệ thống tệp, môi trường hoặc hệ thống
- Thời gian chờ thực thi 30 giây
- Truy cập máy chủ MCP được kiểm soát thông qua proxy
- Tự động dọn dẹp tệp tạm thời
Cộng đồng nhìn thấy tiềm năng trong phương pháp ưu tiên code
Các nhà phát triển đang thảo luận về việc liệu cách tiếp cận này có giải quyết được những hạn chế thực sự trong việc sử dụng công cụ AI hiện tại hay không. Cuộc trò chuyện trong cộng đồng cho thấy các chiến lược khác nhau đang xuất hiện để làm việc với những điểm mạnh của AI thay vì đi ngược lại chúng. Một số nhà phát triển đang mô hình hóa các công cụ của họ theo các API thường được sử dụng mà các hệ thống AI đã được đào tạo rộng rãi, sử dụng các mẫu quen thuộc như công cụ glob để khám phá cấu trúc và các chức năng tìm kiếm.
Cuộc thảo luận làm nổi bật một quan sát thú vị về hệ sinh thái - triển khai cụ thể này sử dụng cả ba runtime JavaScript chính: Bun cho code chính, Deno cho sandbox, và Node để chạy các máy chủ MCP. Lựa chọn này phản ánh trạng thái phân mảnh hiện tại của hệ sinh thái JavaScript.
Yêu cầu hệ thống:
- Bun (phiên bản mới nhất)
- Deno (cho sandbox thực thi mã)
- Client tương thích MCP ( Claude Desktop , Cursor , VS Code với Copilot )
Triển khai kỹ thuật và lợi ích quy trình làm việc
Hệ thống hoạt động bằng cách khởi động một proxy HTTP trên localhost để chuyển tiếp các yêu cầu đến các máy chủ MCP thực tế. Khi AI cần thực hiện các tác vụ, nó viết code sử dụng các lệnh gọi fetch()
tiêu chuẩn thay vì học các cú pháp công cụ cụ thể. Code này có thể nối nhiều thao tác một cách tự nhiên, xử lý dữ liệu giữa các lệnh gọi và xử lý các quy trình làm việc phức tạp trong một lần thực thi.
Các thành viên cộng đồng đặc biệt hào hứng về tiềm năng cho các hệ thống AI xây dựng và tái sử dụng thư viện code theo thời gian. Một nhà phát triển đã đề cập đến việc triển khai một hệ thống bộ nhớ cho phép AI lưu trữ các đoạn code và quy trình làm việc hữu ích, tạo ra một kho lưu trữ ngày càng phát triển của các mẫu tự động hóa.
Sau này tôi muốn xem điều gì sẽ xảy ra nếu bạn cung cấp cho LLM một repo để lưu trữ các đoạn code và chức năng hữu ích với các bình luận để sử dụng sau này. Vì vậy, bản thân LLM sẽ lưu các quy trình làm việc, có thể import chúng vào môi trường Deno và nối chúng lại với nhau.
Các Endpoint Proxy Có Sẵn:
GET /mcpservers
- Liệt kê các MCP server có sẵnGET /mcp/[server]/tools
- Liệt kê các công cụ cho server cụ thểPOST /mcp/call
- Gọi công cụ với JSON body: {server, tool, args}
Bảo mật và các cân nhắc thực tế
Triển khai này bao gồm một số biện pháp bảo mật để giải quyết các mối quan ngại về việc thực thi code. Hệ thống chạy code trong một sandbox Deno chỉ có quyền truy cập mạng, ngăn chặn việc truy cập hệ thống tệp hoặc hệ thống. Nó bao gồm thời gian chờ thực thi 30 giây và tự động dọn dẹp các tệp tạm thời.
Tuy nhiên, một số thành viên cộng đồng bày tỏ sự hoài nghi về cách tiếp cận này. Những người chỉ trích cho rằng việc thêm một lớp tạo code sẽ tạo ra sự phức tạp không cần thiết khi các lệnh gọi công cụ được thiết kế có chủ ý để đơn giản. Cũng có những mối quan ngại rộng hơn về sự phụ thuộc vào các nhà cung cấp cơ sở hạ tầng và khả năng bị ràng buộc với nhà cung cấp.
Cuộc tranh luận phản ánh một câu hỏi lớn hơn trong phát triển AI: liệu nên điều chỉnh các công cụ để hoạt động tốt hơn với những hạn chế hiện tại của AI, hay cải thiện các hệ thống AI để hoạt động tốt hơn với các giao diện công cụ hiện có. Khi khả năng AI tiếp tục phát triển, cả hai cách tiếp cận đều có thể có vị trí của chúng trong các tình huống khác nhau.
Code Mode MCP Server có sẵn dưới dạng một dự án mã nguồn mở, cho phép các nhà phát triển thử nghiệm với cách tiếp cận này và đóng góp vào cuộc thảo luận đang diễn ra về các mẫu tương tác AI-công cụ tối ưu.
Tham khảo: Code Mode MCP Server