Thông báo của Google DeepMind về CodeMender, một tác nhân AI được thiết kế để tự động sửa chữa các lỗ hổng bảo mật phần mềm, đã châm ngòi cho cuộc thảo luận sôi nổi trong cộng đồng công nghệ về tương lai của an ninh mạng. Trong khi công cụ này hứa hẹn giúp các nhà phát triển vá lỗi bảo mật nhanh hơn bao giờ hết, các chuyên gia đang nêu lên mối lo ngại về những hậu quả không mong muốn và sự xuất hiện của các vector tấn công được hỗ trợ bởi AI.
CodeMender sử dụng các mô hình AI tiên tiến để xác định và vá các lỗ hổng bảo mật trong mã phần mềm. Hệ thống đã đóng góp 72 bản sửa lỗi bảo mật cho các dự án mã nguồn mở trong suốt 6 tháng phát triển. Tuy nhiên, công cụ này vẫn đang trong giai đoạn nghiên cứu mà không có lịch trình phát hành công khai, dẫn đến sự thất vọng trong số các nhà phát triển háo hức muốn thử nghiệm khả năng của nó.
Thống kê chính của CodeMender:
- 72 bản vá lỗi bảo mật đóng góp cho các dự án mã nguồn mở trong 6 tháng
- Dự án lớn nhất được vá: 4,5 triệu dòng mã
- Tình trạng hiện tại: Nghiên cứu nội bộ với yêu cầu xem xét của con người
- Công nghệ: Dựa trên các mô hình Gemini DeepThink
- Công cụ: Trình gỡ lỗi, trình duyệt mã nguồn, xác thực tự động
![]() |
---|
Giới thiệu CodeMender : Một tác nhân AI được thiết kế để tăng cường bảo mật phần mềm bằng cách tự động sửa chữa các lỗ hổng bảo mật |
Cuộc chạy đua bảo mật AI sắp tới
Mối lo ngại quan trọng nhất nổi lên từ các cuộc thảo luận cộng đồng tập trung vào khả năng xảy ra một cuộc chiến leo thang giữa các hệ thống AI. Các nhà nghiên cứu bảo mật lo lắng rằng các tác nhân độc hại có thể triển khai các tác nhân AI để đưa các lỗ hổng tinh vi vào các thư viện phần mềm phổ biến, trong khi các công cụ AI phòng thủ như CodeMender hoạt động để phát hiện và sửa chữa chúng.
Kịch bản này trở nên đặc biệt đáng lo ngại khi xem xét quy mô của việc phát triển phần mềm hiện đại. Không giống như các mối đe dọa bảo mật truyền thống nhắm vào các dự án cao cấp, các cuộc tấn công tự động có thể nhắm vào mọi thư viện mã nguồn mở, bất kể quy mô hay mức độ phổ biến. Gánh nặng kinh tế của việc phòng thủ chống lại các mối đe dọa tự động rộng rãi như vậy có thể áp đảo các nhà duy trì mã nguồn mở vốn đã thiếu tài nguyên.
Thách thức về niềm tin và xác minh
Một vấn đề quan trọng được cộng đồng nêu ra liên quan đến vấn đề cơ bản về niềm tin vào các thay đổi mã được tạo ra bởi AI. Các mô hình ngôn ngữ hiện tại không thể được làm cho đáng tin cậy về bản chất, tạo ra một tình thế khó xử cho các nhà duy trì dự án phải đánh giá các bản vá mà không biết liệu chúng có xuất phát từ những người đóng góp hợp pháp hay từ những kẻ tấn công AI tinh vi.
Thách thức này vượt ra ngoài việc phát hiện đơn giản. Ngay cả với các quy trình xem xét của con người, các hệ thống AI cuối cùng có thể trở nên tinh vi đủ để tạo ra mã dễ bị tổn thương nhưng có vẻ vô hại đối với những người đánh giá là con người. Điều này có thể buộc các dự án mã nguồn mở phải thực hiện các chính sách đóng góp hạn chế hơn, có khả năng kìm hãm bản chất hợp tác của việc phát triển mã nguồn mở.
Thực tế kinh tế đối với mã nguồn mở
Cuộc thảo luận tiết lộ một thực tế kinh tế khắc nghiệt mà hệ sinh thái mã nguồn mở đang phải đối mặt. Nhiều nhà duy trì đã phải vật lộn với tài nguyên hạn chế và lao động không được trả lương, khiến việc triển khai các biện pháp bảo mật mạnh mẽ chống lại các mối đe dọa được hỗ trợ bởi AI trở nên khó khăn.
Các nhà duy trì đơn giản là không có tiền để theo kịp các tác nhân nhà nước nước ngoài. Thậm chí họ còn không có tiền mua thức ăn vào thời điểm này, và phải làm một công việc khác để có thể làm mã nguồn mở trong thời gian rảnh rỗi.
Sự mất cân bằng tài nguyên này cho thấy rằng trong khi các công ty công nghệ lớn có thể hưởng lợi từ các công cụ bảo mật AI, các dự án nhỏ hơn có thể ngày càng dễ bị tổn thương trước các cuộc tấn công tự động mà họ không đủ khả năng để phòng thủ.
Ví dụ về Tăng cường Bảo mật:
- Vá lỗi chủ động: Tự động xác định và khắc phục các lỗ hổng bảo mật hiện có
- Viết lại phòng ngừa: Áp dụng các cải tiến bảo mật như chú thích
_Nonnull-safety
- Ngăn chặn tràn bộ đệm: Kiểm tra giới hạn được thực thi bởi trình biên dịch
- Tác động lịch sử: Có thể đã ngăn chặn CVE-2023-4863 (lỗ hổng libwebp được sử dụng trong các cuộc tấn công 0-day)
Sự lạc quan thận trọng giữa những lo ngại
Bất chấp những thách thức, một số thành viên cộng đồng bày tỏ sự lạc quan rằng các công cụ AI phòng thủ có thể có những lợi thế vốn có so với những công cụ tấn công. Lý thuyết cho rằng việc phát hiện và sửa chữa các lỗ hổng có thể dễ dàng hơn việc tạo ra và khai thác chúng, đặc biệt nếu các công cụ bảo mật được áp dụng rộng rãi.
Tuy nhiên, kịch bản lạc quan này phụ thuộc rất nhiều vào việc áp dụng rộng rãi các biện pháp phòng thủ và giả định rằng kinh tế học an ninh mạng sẽ có lợi cho những người phòng thủ hơn những kẻ tấn công. Thực tế có thể phức tạp hơn, với các kết quả khác nhau cho các loại dự án phần mềm và tổ chức khác nhau.
Cuộc tranh luận xung quanh CodeMender phản ánh những câu hỏi rộng lớn hơn về vai trò của AI trong an ninh mạng và phát triển phần mềm. Trong khi công nghệ này mang lại những khả năng đầy hứa hẹn để cải thiện bảo mật phần mềm, những lo ngại của cộng đồng làm nổi bật nhu cầu xem xét cẩn thận các chiến lược triển khai và những hậu quả không mong muốn tiềm ẩn. Khi các công cụ AI trở nên tinh vi hơn, cộng đồng phát triển phần mềm sẽ cần phải cân bằng giữa đổi mới với bảo mật và duy trì tinh thần hợp tác đã thúc đẩy thành công của mã nguồn mở.
Tham khảo: Introducing CodeMender: an AI agent for code security