Trong một diễn biến leo thang đáng kể của các mối đe dọa mạng, Google đã xác định được một thế hệ phần mềm độc hại mới chủ động sử dụng trí tuệ nhân tạo để thay đổi động mã nguồn và hành vi của chính nó trong quá trình thực thi. Sự phát triển này đánh dấu một bước chuyển từ việc kẻ tấn công sử dụng AI cho mục đích nâng cao năng suất sang việc triển khai tích cực các công cụ độc hại được AI hỗ trợ và có khả năng thích ứng trong các hoạt động, tạo ra thứ mà các nhà nghiên cứu an ninh gọi là một giai đoạn mới của việc lạm dụng AI.
Sự Xuất Hiện Của Phần Mềm Độc Hại AI Thích Ứng
Nhóm Tình báo Mối đe dọa của Google đã tiết lộ trong một sách trắng vào ngày 5 tháng 11 rằng các đối thủ đã vượt ra ngoài việc sử dụng AI cho những lợi ích năng suất đơn giản và hiện đang triển khai "phần mềm độc hại mới được kích hoạt bởi AI trong các hoạt động tích cực." Nghiên cứu nêu bật ít nhất hai họ phần mềm độc hại—PromptFlux và PromptSteal—sử dụng các mô hình ngôn ngữ lớn như Gemini trong quá trình triển khai để tạo ra các tập lệnh độc hại và làm mờ mã nguồn của chúng. Điều này đại diện cho một sự thay đổi cơ bản hướng tới thứ mà Google mô tả là "phần mềm độc hại tự trị và thích ứng" có thể thay đổi đặc điểm của nó để tránh bị phát hiện bởi các giải pháp chống vi-rút truyền thống.
Cách PromptFlux Hoạt Động và Tiến Hóa
Mối đe dọa tinh vi nhất trong số này, PromptFlux, hoạt động như một trình thả tập tin VBScript thử nghiệm định kỳ truy vấn AI Gemini của Google để tạo ra các biến thể mã mới, đã được làm mờ. Theo phân tích của Google, phần mềm độc hại này chứa một mô-đun "Thinking Robot" được thiết kế đặc biệt để lấy mã mới từ Gemini, giúp nó tránh né việc phát hiện của phần mềm chống vi-rút. Khả năng này cho phép phần mềm độc hại tạo ra thứ mà các nhà nghiên cứu mô tả là "tập lệnh biến hình" có thể tiến hóa theo thời gian, mặc dù Google lưu ý phiên bản hiện tại vẫn đang trong giai đoạn phát triển ban đầu và chưa thể gây ra thiệt hại đáng kể.
Các Mối Đe Dọa Được Tăng Cường Bởi AI Khác Được Xác Định
Ngoài PromptFlux, cuộc điều tra của Google đã phát hiện ra một số họ phần mềm độc hại được hỗ trợ bởi AI khác thể hiện các khả năng đáng lo ngại. FruitShell thiết lập kết nối điều khiển và kiểm soát từ xa trong khi được thiết kế đặc biệt để vượt qua các hệ thống bảo mật sử dụng LLM. PromptLock có thể tạo và thực thi các tập lệnh độc hại để trích xuất và mã hóa dữ liệu trên các thiết bị Windows, macOS và Linux. QuietVault tập trung vào việc đánh cắp thông tin đăng nhập bằng cách sử dụng AI để tìm kiếm thông tin nhạy cảm trên các hệ thống bị nhiễm, trong khi PromptSteal sử dụng các truy vấn API đến LLM để tạo ra các lệnh khai thác dữ liệu và đánh cắp tài liệu.
Lạm Dụng Mô Hình Gemini Và Các Biện Pháp Đối Phó
Mối đe dọa mở rộng ra ngoài việc triển khai phần mềm độc hại đến cả việc lạm dụng trực tiếp các mô hình AI. Google báo cáo các trường hợp nơi các tác nhân độc hại đóng giả là nhà nghiên cứu hoặc sinh viên trong các kịch bản "capture-the-flag" để lừa Gemini cung cấp thông tin lẽ ra bị chặn. Công ty đã xác định các mối đe dọa từ các nhóm Trung Quốc, Iran và Triều Tiên sử dụng Gemini cho các chiến dịch lừa đảo, khai thác dữ liệu, đánh cắp tiền mã hóa và tạo deepfake. Để đáp trả, Google đã vô hiệu hóa các tài khoản độc hại liên quan, tăng cường các biện pháp bảo vệ mô hình, và sử dụng thông tin chi tiết từ các cuộc tấn công này để cải thiện cả bộ phân loại lẫn chính các mô hình AI.
Bảo Vệ Trước Các Mối Đe Dọa AI Đang Phát Triển
Khi các mối đe dọa được hỗ trợ bởi AI trở nên tinh vi hơn, người dùng cần áp dụng các thực hành bảo mật mới. Các chuyên gia bảo mật khuyến nghị nên coi các hành vi bất thường trong các mô hình AI là những dấu hiệu cảnh báo tiềm năng—nếu một LLM bắt đầu trả lời câu hỏi một cách kỳ lạ, tiết lộ kiến thức nội bộ hệ thống, hoặc cố gắng thực hiện các hành động trái phép, người dùng nên lập tức chấm dứt phiên làm việc. Ngoài ra, việc hạn chế quyền truy cập của AI vào các tài khoản nhạy cảm như ngân hàng, email hoặc tài liệu mật trở nên ngày càng quan trọng, vì AI bị xâm phạm có thể khai thác quyền truy cập này. Duy trì phần mềm chống vi-rút và các ứng dụng AI được cập nhật đảm bảo sự bảo vệ trước các lỗ hổng đã biết khi bối cảnh an ninh mạng đang thay đổi nhanh chóng.
Sự xuất hiện của phần mềm độc hại có khả năng tự viết lại đại diện cho một cột mốc quan trọng trong các mối đe dọa mạng, làm mờ ranh giới giữa các cuộc tấn công do con người vận hành và phần mềm độc hại hoàn toàn tự trị. Khi Google và các nhà cung cấp bảo mật khác đang nỗ lực để tăng cường khả năng phòng thủ, cuộc chiến đang diễn ra giữa bảo mật được hỗ trợ bởi AI và các mối đe dọa được tăng cường bởi AI dường như được định sẵn để định hình chương tiếp theo của an ninh mạng.
