Một đề xuất mới về việc chuẩn hóa giao diện mô hình AI thông qua phương pháp máy ảo đã gây ra cuộc tranh luận sôi nổi trong cộng đồng các nhà phát triển, với nhiều người đặt câu hỏi liệu việc trừu tượng hóa được đề xuất có thực sự giải quyết được những thách thức bảo mật thực tế mà các ứng dụng AI đang đối mặt hay không.
Đề xuất này, lấy cảm hứng từ thành công của Java Virtual Machine , gợi ý việc tạo ra một lớp giao diện chuẩn hóa giữa các mô hình AI và ứng dụng. Model Virtual Machine này sẽ xử lý các hoạt động như gọi công cụ, quản lý ngữ cảnh và kiểm soát bảo mật, có khả năng cho phép phương pháp viết một lần, chạy mọi nơi cho các ứng dụng AI.
Các Hoạt Động Chính Được Đề Xuất Cho VM Mô Hình AI:
- Chứng nhận, tải và gỡ bỏ mô hình
- Gọi mô hình theo ngữ cảnh
- Phân tích cú pháp và xác thực đầu ra
- Chứng nhận và quản lý công cụ
- Quản lý bộ nhớ cho lịch sử ngữ cảnh
- Xử lý đầu vào của người dùng
- Các cấu trúc điều khiển tiêu chuẩn (điều kiện, tuần tự)
Lo ngại về bảo mật trở thành tâm điểm
Cộng đồng nhà phát triển đã nêu ra những lo ngại đáng kể về cách tiếp cận bảo mật của đề xuất này. Nhiều người cho rằng vấn đề cơ bản không phải là kiểm soát mô hình AI có thể truy cập những công cụ nào, mà là quản lý phạm vi và ý định của những hành động đó. Ví dụ, một hệ thống đặt chỗ AI có thể cần truy cập vào các trang web du lịch và công cụ thanh toán, nhưng nên được hạn chế không được chọn những tuyến đường bất tiện chỉ để tiết kiệm tiền. Tương tự, một hệ thống HR nên cho phép các quản lý xem dữ liệu phúc lợi nhân viên trong khi duy trì các dấu vết kiểm toán nghiêm ngặt và ngăn chặn truy cập trái phép vào thông tin của nhân viên khác.
Điều này làm nổi bật sự khác biệt quan trọng giữa quyền cấp công cụ và ủy quyền theo ngữ cảnh - cùng một công cụ có thể phù hợp trong các tình huống khác nhau với các mức độ truy cập và giám sát khác nhau.
Các phương pháp thay thế thu hút sự chú ý
Một số nhà phát triển đã chỉ ra các công nghệ hiện có có thể giải quyết những thách thức này một cách hiệu quả hơn. WebAssembly ( WASM ) với khả năng sandbox đã nổi lên như một giải pháp thay thế phổ biến, cung cấp khả năng cô lập bảo mật tích hợp mà không cần cơ sở hạ tầng hoàn toàn mới. Một số người gợi ý rằng các thành phần WASI đã cung cấp phần lớn chức năng mà VM được đề xuất nhằm mục đích cung cấp.
Những người khác ủng hộ việc đối xử với các mô hình AI như các tiến trình userspace không đáng tin cậy trong các hệ điều hành hiện có, thay vì tạo ra các lớp ảo hóa mới. Cách tiếp cận này sẽ tận dụng hàng thập kỷ nghiên cứu bảo mật và các kỹ thuật cô lập đã được chứng minh.
Các Công nghệ và Dự án Liên quan:
- OpenAI Structured Tool Calling: API gọi hàm dựa trên JSON
- Anthropic's MCP (2024): Giao thức giao diện phổ quát cho trợ lý AI
- FIDES ( Microsoft Research ): Các chính sách luồng thông tin cho bảo mật agent
- ACAA: Kiểm soát truy cập kiểu hệ điều hành cho các agent AI
- WebAssembly/WASI: Mô hình sandbox-by-default cho việc thực thi an toàn
![]() |
---|
Một biểu diễn nghệ thuật về những thách thức phức tạp trong việc bảo mật các công nghệ AI, làm nổi bật sự phức tạp của việc quản lý các quy trình không đáng tin cậy |
Thực tế ngành công nghiệp so với lý thuyết học thuật
Một sự phân chia đáng chú ý đã xuất hiện giữa những lợi ích lý thuyết của đề xuất và những thách thức triển khai thực tế. Một số nhà phát triển lưu ý rằng các triển khai AI thương mại tiên tiến đã tích hợp nhiều tính năng được đề xuất, bao gồm cô lập và kiểm soát quyền. Tuy nhiên, họ nhấn mạnh rằng khó khăn thực sự không nằm ở việc kiềm chế bản thân mô hình AI, mà là cấp cho nó quyền truy cập thích hợp vào các tài nguyên nhạy cảm trong khi duy trì bảo mật.
Mô hình phù hợp cho bảo mật LLM là một userspace không đáng tin cậy, không phải toàn bộ một 'OS'.
Cuộc thảo luận cũng đã tiết lộ sự hoài nghi về việc đối xử với các mô hình AI như các nền tảng tính toán phổ quát. Nhiều nhà phát triển cho rằng các phương pháp lập trình truyền thống thường vượt trội hơn các giải pháp AI về tốc độ, độ chính xác và hiệu quả chi phí cho các tác vụ cụ thể.
Kết luận
Trong khi đề xuất AI Model Virtual Machine giải quyết những lo ngại chính đáng về chuẩn hóa và bảo mật trong các ứng dụng AI, cộng đồng nhà phát triển vẫn còn chia rẽ về con đường tốt nhất phía trước. Cuộc tranh luận phản ánh những câu hỏi rộng lớn hơn về cách tích hợp khả năng AI một cách an toàn vào các hệ sinh thái phần mềm hiện có mà không cần kỹ thuật quá mức hoặc tạo ra sự phức tạp không cần thiết. Khi các ứng dụng AI tiếp tục phát triển, việc tìm ra sự cân bằng phù hợp giữa đổi mới và các thực tiễn bảo mật đã được chứng minh có thể sẽ vẫn là một thách thức trung tâm cho ngành công nghiệp.
Tham khảo: AI Models Need a Virtual Machine