Một nhà nghiên cứu bảo mật đã công bố công khai những gì họ cho là một lỗ hổng nghiêm trọng trong hệ thống của OpenAI có thể cho phép người dùng xem các phản hồi chat dành cho người khác. Nhà nghiên cứu, sử dụng tên requilence, đã báo cáo vấn đề này cho OpenAI vào ngày 29 tháng 5 năm 2025, nhưng cho biết họ chỉ nhận được phản hồi tự động mà không có sự theo dõi từ con người nào tính đến ngày 16 tháng 7.
Dòng thời gian các sự kiện:
- 29 tháng 5, 2025: Lỗ hổng được báo cáo cho OpenAI qua email mã hóa
- Nhận được xác nhận tự động, không có phản hồi từ con người
- 16 tháng 7, 2025: Công bố công khai sau thời gian chờ đợi 45 ngày
- Vấn đề vẫn chưa được vá theo nhà nghiên cứu
Các Tuyên Bố Về Lỗ Hổng và Cuộc Tranh Luận Về Bằng Chứng
Nhà nghiên cứu tuyên bố đã phát hiện một lỗi có thể làm lộ các cuộc trò chuyện chat của người dùng khác, có khả năng bao gồm dữ liệu cá nhân, kế hoạch kinh doanh và mã nguồn độc quyền. Để hỗ trợ cho tuyên bố của mình, họ chỉ ra những gì họ mô tả là các phản hồi bị rò rỉ cho thấy các câu trả lời phù hợp về mặt ngữ cảnh bằng nhiều ngôn ngữ khác nhau với dòng chảy hội thoại mạch lạc.
Bằng chứng thuyết phục nhất được trình bày liên quan đến dữ liệu tài chính của một công ty ít được biết đến. Nhà nghiên cứu tuyên bố họ đã nhận được thông tin tài chính chính xác về một công ty nhỏ có tên không phải tiếng Latin, nhưng khi sau đó họ hỏi ChatGPT cùng thông tin đó mà không bật tính năng tìm kiếm web, hệ thống phản hồi rằng nó không có dữ liệu đó trong bộ dữ liệu huấn luyện. Điều này cho thấy phản hồi ban đầu đến từ một phiên người dùng thực có khả năng tìm kiếm web.
Tuy nhiên, cộng đồng công nghệ vẫn chia rẽ về việc liệu điều này có cấu thành bằng chứng của một lỗ hổng thực sự hay không. Một số người bình luận cho rằng các mô hình ngôn ngữ hiện đại như GPT-4o đủ tinh vi để tạo ra các cuộc hội thoại có vẻ thực tế có thể bị nhầm lẫn với các tương tác người dùng thực. Cuộc tranh luận làm nổi bật một thách thức cơ bản trong việc phân biệt giữa ảo giác AI và rò rỉ dữ liệu thực tế.
Ảo giác: Khi các mô hình AI tạo ra thông tin sai hoặc bịa đặt có vẻ thực tế nhưng không dựa trên dữ liệu thực.
Mối Quan Ngại Về Nền Tảng Bug Bounty
Nhà nghiên cứu đã chọn bỏ qua chương trình bug bounty chính thức của OpenAI trên Bugcrowd, với lý do lo ngại về các thỏa thuận không tiết lộ thông tin hạn chế. Họ lập luận rằng những NDA này ngăn cản các nhà nghiên cứu thảo luận công khai về các phát hiện của họ ngay cả sau khi các vấn đề được giải quyết, điều mà họ coi là trái với các giá trị của cộng đồng bảo mật.
Quyết định này đã khơi mào cuộc thảo luận về các thực hành trong ngành. Trong khi một số người bảo vệ NDA như là quy trình tiêu chuẩn cho các chương trình bug bounty, những người khác chỉ ra rằng các công ty lớn như Google, Microsoft và Mozilla thường chỉ yêu cầu tiết lộ có phối hợp thay vì im lặng vĩnh viễn. Nhà nghiên cứu ủng hộ tính minh bạch trong nghiên cứu bảo mật, lập luận rằng điều này có lợi cho cộng đồng rộng lớn hơn và giữ các công ty có trách nhiệm về việc sửa chữa kịp thời.
Các tiêu chuẩn ngành được tham khảo:
- Khung thời gian tiết lộ 45 ngày ( CERT/CC , ISO/IEC 29147 )
- Tiết lộ phối hợp so với NDA vĩnh viễn
- So sánh với các thực tiễn của Google , Microsoft , Mozilla
Phản Ứng Của Cộng Đồng và Sự Hoài Nghi
Việc tiết lộ đã tạo ra cuộc tranh luận đáng kể trong cộng đồng bảo mật. Một số người khen ngợi nhà nghiên cứu vì đã tuân theo các thực hành tiết lộ có trách nhiệm và chờ đợi khoảng thời gian tiêu chuẩn 45 ngày trước khi công bố. Những người khác đặt câu hỏi về tính hợp lệ của các tuyên bố, lưu ý sự thiếu vắng bằng chứng kỹ thuật hoặc các bước tái tạo.
Mọi thứ đều có lỗ hổng. Câu hỏi là, liệu nhà nghiên cứu này đã chứng minh rằng họ đã phát hiện và khai thác thành công một lỗ hổng như vậy hay không.
Một số thành viên cộng đồng đã tham chiếu đến sự cố trước đây của OpenAI vào tháng 3 năm 2020, khi một lỗi bộ nhớ đệm Redis đã tạm thời làm lộ các tiêu đề chat (mặc dù không phải toàn bộ cuộc hội thoại) cho người dùng khác. Bối cảnh lịch sử này làm tăng thêm sức nặng cho các mối quan ngại về các lỗ hổng tiềm ẩn đồng thời cũng cho thấy rằng OpenAI đã đối mặt với các vấn đề tương tự trước đây.
Khuyến nghị của Nhà nghiên cứu dành cho Người dùng:
- Tránh chia sẻ nội dung nhạy cảm với các mô hình OpenAI cho đến khi có bản sửa lỗi chính thức
- Sử dụng các tính năng phân đoạn dữ liệu khi có sẵn
- Loại bỏ các thông tin định danh cá nhân khỏi lời nhắc
- Theo dõi trang bảo mật OpenAI để cập nhật thông tin
Ý Nghĩa Đối Với Bảo Mật AI
Sự cố này, dù được chứng minh hay không, làm nổi bật những mối quan ngại rộng lớn hơn về bảo mật và quyền riêng tư AI. Khi các mô hình ngôn ngữ trở nên tích hợp nhiều hơn vào quy trình làm việc hàng ngày, tác động tiềm ẩn của việc vi phạm dữ liệu tăng lên đáng kể. Người dùng ngày càng chia sẻ thông tin cá nhân và kinh doanh nhạy cảm với các hệ thống AI, khiến việc cách ly thích hợp giữa các phiên người dùng trở nên quan trọng.
Các khuyến nghị của nhà nghiên cứu bao gồm tránh chia sẻ nội dung nhạy cảm với các mô hình OpenAI cho đến khi có phản hồi chính thức, và họ kêu gọi các thực hành bảo mật tốt hơn trong toàn ngành AI, bao gồm thời gian phản hồi nhanh hơn đối với các báo cáo lỗ hổng và đánh giá bảo mật bên thứ ba thường xuyên.
OpenAI vẫn chưa phản hồi công khai về các tuyên bố này, và tình trạng lỗ hổng vẫn chưa rõ ràng tính đến thời điểm báo cáo này.