OpenAI đã công bố nghiên cứu mới giải thích nguyên nhân gốc rễ của hiện tượng ảo giác AI và đề xuất các giải pháp có thể định hình lại cách chúng ta đánh giá các mô hình ngôn ngữ. Công ty cho rằng các phương pháp kiểm tra hiện tại thực sự khuyến khích các hệ thống AI đưa ra những phỏng đoán tự tin thay vì thừa nhận sự không chắc chắn, dẫn đến việc tạo ra nhiều thông tin sai lệch hơn.
Định nghĩa về Ảo giác của OpenAI: Những tuyên bố có vẻ hợp lý nhưng sai sự thật được tạo ra bởi các mô hình ngôn ngữ, khác biệt với việc tạo ra nội dung sáng tạo
![]() |
---|
Tác phẩm trừu tượng này phản ánh sự phức tạp của các hệ thống AI và những khó khăn của chúng với sự không chắc chắn và độ chính xác |
Vấn Đề Trò Chơi Đoán
Vấn đề cốt lõi nằm ở cách các mô hình AI hiện tại được đánh giá. Hầu hết các tiêu chuẩn đánh giá chấm điểm các mô hình dựa hoàn toàn trên độ chính xác - tỷ lệ phần trăm câu hỏi được trả lời đúng. Điều này tạo ra một động cơ sai lệch khi các mô hình được thưởng cho việc đoán bừa thay vì nói tôi không biết. OpenAI so sánh điều này với một bài kiểm tra trắc nghiệm khi để trống câu trả lời đảm bảo được không điểm, nhưng một phỏng đoán ngẫu nhiên có thể may mắn và ghi điểm.
Cộng đồng đã phản ứng với những phản ứng trái chiều về lời giải thích này. Một số người cho rằng vấn đề sâu sắc hơn các phương pháp đánh giá, chỉ ra rằng các mô hình ngôn ngữ ban đầu được thiết kế để tạo nội dung sáng tạo, không phải cung cấp câu trả lời thực tế. Sự căng thẳng cơ bản này giữa tính sáng tạo và độ chính xác có thể khó giải quyết hơn so với những gì OpenAI đề xuất.
Vấn đề đánh giá hiện tại: Hầu hết các bộ tiêu chuẩn chỉ đo lường độ chính xác (tỷ lệ phần trăm đúng), khuyến khích việc đoán mò thay vì thừa nhận sự không chắc chắn
Nguồn Gốc Kỹ Thuật Của Thông Tin Sai Lệch
Nghiên cứu của OpenAI truy tìm nguồn gốc ảo giác về quy trình đào tạo cơ bản được gọi là dự đoán từ tiếp theo. Trong giai đoạn này, các mô hình học từ lượng lớn văn bản nhưng không nhận được nhãn đánh dấu các câu lệnh là đúng hay sai. Chúng chỉ thấy các ví dụ về ngôn ngữ trôi chảy và phải tự tìm ra các mẫu.
Điều này hoạt động tốt cho các mẫu nhất quán như chính tả và ngữ pháp, cải thiện với nhiều dữ liệu đào tạo hơn. Tuy nhiên, các sự kiện tùy ý như ngày sinh của ai đó không thể được học từ các mẫu một mình. Cộng đồng đã lưu ý rằng điều này tạo ra một hạn chế cơ bản - một số thông tin sẽ luôn không thể dự đoán được, dẫn đến các lỗi không thể tránh khỏi trong một số lĩnh vực nhất định.
Nguyên nhân gốc rễ về mặt kỹ thuật: Việc huấn luyện dự đoán từ tiếp theo thiếu nhãn đúng/sai, khiến các sự kiện tùy ý không thể dự đoán được chỉ từ các mẫu
Đề Xuất Cải Cách Đánh Giá
OpenAI đề xuất một giải pháp đơn giản: thay đổi cách chúng ta chấm điểm các mô hình AI. Thay vì chỉ thưởng cho các câu trả lời đúng, việc đánh giá nên phạt nặng hơn các câu trả lời sai tự tin so với việc thể hiện sự không chắc chắn. Một số bài kiểm tra tiêu chuẩn đã sử dụng các phương pháp tương tự, trừ điểm cho các phỏng đoán không chính xác để ngăn cản các câu trả lời ngẫu nhiên.
Tuy nhiên, việc thực hiện giải pháp này đối mặt với những thách thức thực tế. Việc đào tạo các hệ thống AI để nhận ra sự không chắc chắn của chính chúng ở quy mô lớn vẫn còn khó khăn về mặt kỹ thuật. Cộng đồng chỉ ra rằng việc xác định khi nào một mô hình nên nói tôi không biết so với việc cung cấp một phản hồi hữu ích đòi hỏi sự tự nhận thức tinh vi mà các hệ thống hiện tại phần lớn thiếu.
Giải pháp được đề xuất: Phạt nặng hơn những lỗi sai tự tin so với việc thể hiện sự không chắc chắn, tương tự như cách chấm điểm âm trong các kỳ thi chuẩn hóa
Thực Tế Thị Trường So Với Lý Tưởng Kỹ Thuật
Một cuộc tranh luận quan trọng đã nổi lên xung quanh kỳ vọng của người dùng. Nhiều thành viên cộng đồng cho rằng hầu hết người dùng thích các câu trả lời nhanh, tự tin hơn là sự không chắc chắn thận trọng, ngay cả khi những câu trả lời đó có thể sai. Điều này tạo ra một động cơ kinh doanh cho các công ty AI xây dựng các hệ thống đoán thay vì kiềm chế.
Nhiều người dùng LLM không quan tâm đến sự không chắc chắn. Họ không muốn nghe 'tôi không biết' và nếu được đưa ra phản hồi đó sẽ nhanh chóng chuyển sang một dịch vụ thay thế cung cấp cho họ một câu trả lời dứt khoát.
Sự căng thẳng này giữa các thực tiễn kỹ thuật tốt nhất và nhu cầu thị trường có thể chứng tỏ khó giải quyết hơn so với các vấn đề kỹ thuật cơ bản.
Nhìn Về Phía Trước
Nghiên cứu của OpenAI cung cấp sự rõ ràng có giá trị về các cơ chế ảo giác, nhưng con đường phía trước vẫn phức tạp. Công ty thừa nhận rằng ngay cả với các phương pháp đánh giá tốt hơn, một mức độ tạo thông tin sai lệch nhất định sẽ vẫn tồn tại. Mục tiêu không phải là sự hoàn hảo mà là cải thiện đáng kể về độ tin cậy.
Cộng đồng AI rộng lớn hơn tiếp tục tranh luận liệu các giải pháp được đề xuất có giải quyết các hạn chế kiến trúc cơ bản hay chỉ là các triệu chứng bề mặt. Khi các mô hình ngôn ngữ trở nên mạnh mẽ hơn và được triển khai rộng rãi, việc giải quyết các vấn đề độ tin cậy này trở nên ngày càng quan trọng để duy trì niềm tin của công chúng và đảm bảo các ứng dụng an toàn.
Tham khảo: Why language models hallucinate