Một system prompt chi tiết được cho là thuộc về GPT-5 đã xuất hiện trên mạng, mang đến cái nhìn hiếm hoi về cách OpenAI cấu hình mô hình ngôn ngữ mới nhất của mình. Tài liệu bị rò rỉ chứa các hướng dẫn mở rộng bao gồm mọi thứ từ đặc điểm tính cách đến các sở thích lập trình cụ thể, mặc dù cộng đồng công nghệ vẫn còn chia rẽ về tính xác thực của nó.
Vụ rò rỉ được cho là đã tiết lộ cuộc đấu tranh nội bộ của OpenAI với việc tuân thủ prompt, được chứng minh bằng các cảnh báo lặp đi lặp lại trong suốt tài liệu. System prompt chứa nhiều hướng dẫn nhấn mạnh yêu cầu mô hình không xuất ra định dạng JSON trong một số ngữ cảnh nhất định, với các cụm từ như Không được viết JSON, trong bất kỳ trường hợp nào xuất hiện nhiều lần với những biến thể nhỏ.
Các thành phần chính của System Prompt GPT-5:
- Giới hạn kiến thức: Tháng 6 năm 2024
- Tham chiếu ngày hiện tại: Ngày 8 tháng 8 năm 2025
- Khả năng nhập hình ảnh: Đã bật
- Phiên bản tính cách: v2
- Tổng số token ước tính: ~1,000+ (dựa trên nội dung có thể nhìn thấy)
Hướng Dẫn Tính Cách và Hành Vi
Prompt bị rò rỉ mô tả GPT-5 như một trợ lý sâu sắc, khuyến khích, kết hợp sự rõ ràng tỉ mỉ với sự nhiệt tình chân thành và hài hước nhẹ nhàng. Nó hướng dẫn rõ ràng cho mô hình tránh kết thúc phản hồi bằng các cụm từ dè dặt như bạn có muốn tôi hoặc nếu bạn muốn, tôi có thể. Chỉ thị này dường như mâu thuẫn với trải nghiệm của nhiều người dùng, vì ChatGPT thường xuyên kết thúc phản hồi bằng những câu hỏi lựa chọn như vậy.
Tài liệu cũng tiết lộ nỗ lực của OpenAI nhằm làm cho mô hình trở nên quyết đoán và hướng hành động hơn. Thay vì xin phép, GPT-5 được hướng dẫn tự động tiến hành các bước tiếp theo rõ ràng, gợi ý một sự chuyển đổi hướng tới hỗ trợ chủ động hơn.
Tích Hợp Công Cụ Kỹ Thuật
Một phần đáng kể của prompt tập trung vào việc sử dụng công cụ, đặc biệt là để thực thi mã Python và phát triển React. Hệ thống cho thấy sở thích rõ ràng đối với các technology stack cụ thể, hướng dẫn GPT-5 sử dụng Tailwind CSS cho styling, shadcn/ui cho components và Framer Motion cho animations khi tạo các ứng dụng React.
Các hướng dẫn Python cũng chi tiết tương tự, chỉ định các thư viện cụ thể cho các định dạng file khác nhau và thậm chí bao gồm cả yêu cầu font để tạo PDF trong các ngôn ngữ châu Á. Tuy nhiên, tài liệu chứa ít nhất một lỗi trong đặc tả font, gán nhãn sai font Nhật Bản thành font Hàn Quốc.
Lưu ý: Tailwind CSS là một CSS framework utility-first cung cấp các class được xây dựng sẵn để styling các ứng dụng web.
Ngăn xếp công nghệ ưa thích:
- Frontend: React với Tailwind CSS
- UI Components: thư viện shadcn/ui
- Icons: Lucide React
- Charts: Recharts
- Animations: Framer Motion
- Backend: Python cho xử lý dữ liệu và tính toán
Tính Năng Bộ Nhớ và Quyền Riêng Tư
Prompt bị rò rỉ tiết lộ chi tiết về bio tool của GPT-5, cho phép mô hình duy trì thông tin qua các cuộc hội thoại. Hệ thống bao gồm các hướng dẫn cẩn thận về thông tin nào nên và không nên được lưu trữ, với các hạn chế rõ ràng về việc lưu dữ liệu cá nhân nhạy cảm như thông tin sức khỏe, khuynh hướng chính trị, hoặc chi tiết vị trí chính xác.
Thú vị là, các hướng dẫn nhấn mạnh việc lưu trữ thông tin ở định dạng văn bản thuần túy thay vì các định dạng có cấu trúc, với mô hình được cảnh báo liên tục về việc không sử dụng định dạng JSON cho nội dung hướng tới người dùng.
Công cụ có sẵn:
bio
- Lưu trữ bộ nhớ qua các cuộc hội thoạicanmore
- Tạo/chỉnh sửa tài liệu văn bản Canvasimage_gen
- Tạo và chỉnh sửa hình ảnhpython
- Thực thi mã trong môi trường Jupyterweb
- Tìm kiếm web và truy cập URLguardian_tool
- Thực thi chính sách nội dung
Hạn Chế Bản Quyền và Nội Dung
Tài liệu cụ thể cấm sao chép lời bài hát, ngay cả khi chúng không có bản quyền. Hạn chế toàn diện này dường như xuất phát từ các thách thức pháp lý gần đây, bao gồm vụ kiện do tổ chức quyền biểu diễn Đức GEMA đệ trình chống lại OpenAI vào tháng 11 năm 2024. Cách diễn đạt cho thấy OpenAI đã phải đối mặt với áp lực đặc biệt liên quan đến nội dung âm nhạc.
Hạn chế Nội dung Bị cấm:
- Lời bài hát (bất kể tình trạng bản quyền)
- Các tài liệu có bản quyền khác
- Các danh mục dữ liệu cá nhân nhạy cảm cụ thể:
- Chủng tộc, dân tộc, tôn giáo
- Hồ sơ tội phạm
- Dữ liệu vị trí địa lý chính xác
- Thông tin sức khỏe
- Khuynh hướng chính trị
Sự Hoài Nghi Của Cộng Đồng và Thách Thức Xác Minh
Các thành viên cộng đồng công nghệ đã đặt câu hỏi về tính xác thực của prompt. Một số chỉ ra các yếu tố còn thiếu thường được mong đợi trong các hướng dẫn an toàn AI, chẳng hạn như hạn chế rõ ràng về nội dung có hại hoặc bảo vệ bản quyền chi tiết ngoài lời bài hát. Những người khác lưu ý rằng tài liệu có vẻ không đầy đủ so với các system prompt đã biết từ các đối thủ cạnh tranh như Claude của Anthropic.
Tôi đã hỏi GPT-5 trực tiếp về các system prompt giả mạo... nó nói rằng đây là một thách thức trong red-teaming để thiết kế các system prompt giả trông thật.
Thách thức xác minh làm nổi bật một vấn đề cơ bản với các system prompt AI bị rò rỉ: cách duy nhất để xác minh chúng thường là hỏi chính AI đó, tạo ra một vấn đề xác thực vòng tròn nơi mô hình có thể cung cấp thông tin sai về cấu hình của chính nó.
Bất chấp sự hoài nghi, một số người dùng báo cáo rằng khi họ trình bày các phần của prompt bị rò rỉ cho GPT-5, mô hình thừa nhận nó là chính thức, trong khi các mô hình AI khác phủ nhận đó là system prompt của chúng. Tuy nhiên, loại xác minh này vẫn không đáng tin cậy do xu hướng của các mô hình tạo ra ảo giác hoặc cung cấp phản hồi không nhất quán.
Tài liệu bị rò rỉ, cho dù xác thực hay bịa đặt, đều mang lại những hiểu biết về các thách thức phức tạp trong việc kiểm soát hành vi của mô hình ngôn ngữ lớn thông qua các hướng dẫn ngôn ngữ tự nhiên thay vì các phương pháp lập trình truyền thống. Nó chứng minh cách các công ty AI vẫn đang dựa rất nhiều vào prompting dài dòng, lặp đi lặp lại để đạt được các hành vi mong muốn, gợi ý rằng các cơ chế kiểm soát tinh vi hơn có thể vẫn đang được phát triển.
Tham khảo: gpt-5 leaked system prompt