Mối lo ngại về bảo mật gia tăng khi các AI agent trình duyệt đối mặt với lỗ hổng tấn công prompt injection

Nhóm Cộng đồng BigGo
Mối lo ngại về bảo mật gia tăng khi các AI agent trình duyệt đối mặt với lỗ hổng tấn công prompt injection

Các AI agent trình duyệt đang trở thành những công cụ ngày càng phổ biến có thể tự động điều hướng các trang web, điền biểu mẫu và thực hiện các tác vụ trực tuyến lặp đi lặp lại giống như con người. Tuy nhiên, cộng đồng công nghệ đang nêu lên những lo ngại nghiêm trọng về các lỗ hổng bảo mật của chúng, đặc biệt là xung quanh các cuộc tấn công prompt injection có thể làm tổn hại đến tài khoản người dùng và dữ liệu nhạy cảm.

Các lỗ hổng bảo mật chính trong Browser AI Agents:

  • Các cuộc tấn công tiêm prompt có thể thao túng hành vi của agent
  • Truy cập không hạn chế vào phiên duyệt web và tài khoản người dùng
  • Khả năng thực hiện các yêu cầu thay đổi trạng thái mà không có ủy quyền phù hợp
  • Tiềm năng truy cập vào hệ thống tệp cục bộ và tài nguyên mạng
  • Thiếu kiểm soát quyền hạn chi tiết so với các hệ thống dựa trên API

Cần có sandboxing đầy đủ vượt ra ngoài các giải pháp hiện tại

Sự đồng thuận của cộng đồng rất rõ ràng rằng các biện pháp bảo mật hiện tại không đáp ứng được những gì cần thiết cho các AI agent trình duyệt. Các chuyên gia bảo mật cho rằng các phương pháp sandboxing nhẹ không đủ khi xử lý các hệ thống AI có thể bị thao túng thông qua các cuộc tấn công prompt injection. Mối lo ngại là những agent này có thể truy cập vào các tệp cục bộ, tải xuống lượng dữ liệu khổng lồ hoặc thực hiện các hành động trái phép trên tài khoản người dùng.

prompt injection sẽ không biến mất trong thời gian tới, vì vậy chúng ta phải đối xử với agent như mã tùy ý

Vấn đề cơ bản là không giống như các tích hợp API truyền thống nơi quyền hạn có thể được kiểm soát chặt chẽ thông qua các API key, các browser agent thường yêu cầu quyền truy cập rộng để hoạt động hiệu quả. Điều này tạo ra một khoảng trống bảo mật đáng kể mà các tác nhân độc hại có thể khai thác.

Sự do dự của người dùng phản ánh những lo ngại bảo mật rộng lớn hơn

Nhiều người dùng tiềm năng đang có cách tiếp cận thận trọng, hoàn toàn tránh các AI browser agent cho đến khi các vấn đề bảo mật được giải quyết. Sự do dự này phản ánh sự hiểu biết rộng lớn hơn trong cộng đồng công nghệ rằng việc kết nối các hệ thống AI với tài khoản cá nhân và dữ liệu nhạy cảm mang theo những rủi ro đáng kể. Bối cảnh bảo mật hiện tại đơn giản là chưa đủ trưởng thành để cung cấp mức độ tin cậy mà người dùng cần.

Một số người dùng thậm chí còn đi xa đến mức hoàn toàn vô hiệu hóa các tính năng AI trong trình duyệt của họ, coi chúng như những mối đe dọa bảo mật tiềm tàng hơn là những công cụ hữu ích. Cách tiếp cận phòng thủ này làm nổi bật cách các lo ngại bảo mật đang tích cực hạn chế việc áp dụng những gì có thể là các công cụ năng suất có giá trị.

Thách thức trong việc đối xử với đầu ra AI như dữ liệu không đáng tin cậy

Một hiểu biết quan trọng từ cuộc thảo luận của cộng đồng tập trung vào nhu cầu đối xử với các đầu ra của AI agent như dữ liệu có thể độc hại thay vì các hướng dẫn đáng tin cậy. Điều này đại diện cho một sự thay đổi cơ bản trong cách chúng ta nghĩ về tích hợp AI trong quy trình làm việc. Thay vì cung cấp cho các agent quyền hạn rộng từ đầu, các hệ thống cần được thiết kế với giả định rằng các đầu ra AI có thể bị xâm phạm.

Giải pháp có thể liên quan đến việc tạo ra các môi trường thực thi đáng tin cậy nơi chỉ các hành động được phê duyệt rõ ràng mới có thể được thực hiện, tương tự như cách thực thi mã được sandbox trong các môi trường phát triển. Điều này sẽ yêu cầu những thay đổi đáng kể đối với cách các framework tự động hóa trình duyệt hiện tại hoạt động.

Các thành phần của Cellmate Framework:

  • Agent Sitemap: Ánh xạ các hành động trình duyệt cấp thấp thành các ý nghĩa ngữ nghĩa cấp cao
  • Policy Enforcement: Hoạt động ở cấp độ yêu cầu HTTP để trung gian hoàn toàn
  • Policy Specification: Cho phép các nhà phát triển định nghĩa các quy tắc bảo mật có thể kết hợp
  • Runtime Monitoring: Chặn và xác thực tất cả các yêu cầu do agent khởi tạo
  • Browser Extension: Triển khai nhẹ không phụ thuộc vào lựa chọn agent

Tác động thị trường và phát triển tương lai

Các thách thức bảo mật mà các AI agent trình duyệt đang đối mặt có những tác động rộng lớn hơn đối với ngành công nghiệp. Các công ty phát triển những công cụ này đang bị kẹt giữa nhu cầu của người dùng về khả năng tự động hóa mạnh mẽ và nhu cầu đảm bảo bảo mật. Sự căng thẳng này có thể đang ảnh hưởng đến các chiến lược kinh doanh, với một số nền tảng có thể định vị mình để được mua lại bởi các tổ chức lớn hơn có nguồn lực để giải quyết những thách thức bảo mật phức tạp này.

Tình trạng hiện tại cho thấy rằng việc áp dụng rộng rãi các AI agent trình duyệt có thể bị trì hoãn cho đến khi các framework bảo mật mạnh mẽ được phát triển và chứng minh trong các tình huống thực tế. Cho đến lúc đó, công nghệ này vẫn đầy hứa hẹn nhưng rủi ro đối với việc sử dụng phổ biến.

Tham khảo: ceLLMate: Sandboxing Browser AI Agents