Một nghiên cứu gần đây từ Penn State University đã tiết lộ rằng hầu hết mọi người gặp khó khăn trong việc xác định định kiến trong dữ liệu huấn luyện AI, làm dấy lên cuộc thảo luận sôi nổi giữa các chuyên gia công nghệ và thành viên cộng đồng. Nghiên cứu được công bố trên Media Psychology phát hiện rằng người dùng thường chỉ nhận thấy định kiến thuật toán khi họ thấy hệ thống tạo ra kết quả thiên lệch, thay vì bằng cách kiểm tra dữ liệu cơ bản tạo ra những định kiến đó.
Điểm mù của Con người trong Phát hiện Định kiến AI
Phát hiện đáng ngạc nhiên nhất của nghiên cứu là những người tham gia liên tục không nhận ra định kiến chủng tộc trong dữ liệu huấn luyện, ngay cả khi sự mất cân bằng ở mức nghiêm trọng. Các nhà nghiên cứu đã trình bày cho người tham gia các kịch bản khác nhau trong đó dữ liệu huấn luyện nhận diện khuôn mặt chứa sự mất cân bằng chủng tộc rõ ràng—chẳng hạn như khuôn mặt người da trắng chiếm đa số trong các danh mục vui vẻ và khuôn mặt người da đen trong các danh mục buồn bã. Bất chấp những mẫu hình rõ ràng này, hầu hết người tham gia không phát hiện ra định kiến cho đến khi họ thấy hệ thống AI hoạt động kém trên các nhóm thiểu số.
Chúng tôi ngạc nhiên khi mọi người không nhận ra rằng chủng tộc và cảm xúc bị nhầm lẫn, rằng một chủng tộc có nhiều khả năng hơn các chủng tộc khác để đại diện cho một cảm xúc cụ thể trong dữ liệu huấn luyện—ngay cả khi nó đang hiện rõ trước mắt họ.
Phát hiện này làm nổi bật một thách thức cơ bản trong phát triển AI: nếu con người không thể phát hiện định kiến trong dữ liệu huấn luyện, họ có nhiều khả năng sẽ tin tưởng vào đầu ra AI khiếm khuyết. Nghiên cứu cho thấy mọi người có xu hướng đánh giá hệ thống AI dựa trên kết quả hiệu suất thay vì kiểm tra chất lượng dữ liệu thúc đẩy những kết quả đó.
Những Phát Hiện Chính:
- Hầu hết người tham gia không phát hiện được thành kiến chủng tộc trong dữ liệu huấn luyện
- Khả năng phát hiện thành kiến được cải thiện khi người tham gia nhìn thấy hiệu suất có thành kiến của AI
- Người tham gia da đen có khả năng nhận diện thành kiến cao hơn, đặc biệt khi nó miêu tả tiêu cực nhóm của chính họ
- Mọi người có xu hướng tin tưởng các hệ thống AI là "trung lập" ngay cả khi bằng chứng cho thấy điều ngược lại
Cộng đồng Tranh luận về Bản chất của Định kiến
Các cuộc thảo luận trong cộng đồng công nghệ đã tiết lộ sự chia rẽ sâu sắc về những gì cấu thành định kiến và cách nó nên được đo lường. Một số bình luận đặt câu hỏi liệu nghiên cứu có đang kiểm tra kiến thức thống kê thay vì phát hiện định kiến hay không, lưu ý rằng việc kỳ vọng người bình thường thực hiện phân tích thống kê tức thời có thể là không thực tế. Những người khác bảo vệ phương pháp luận nghiên cứu, chỉ ra rằng ngay cả những trường hợp định kiến cực đoan—nơi dữ liệu huấn luyện chỉ chứa khuôn mặt người da trắng trong các danh mục vui vẻ và khuôn mặt người da đen trong các danh mục buồn bã—cũng không được hầu hết người tham gia chú ý.
Cuộc trò chuyện đã mở rộng ra ngoài phạm vi của nghiên cứu để thảo luận liệu định kiến AI có phản ánh định kiến xã hội rộng lớn hơn hay không. Như một thành viên cộng đồng lưu ý, hầu hết mọi người không thể xác định định kiến trong cuộc sống thực, chứ đừng nói đến trong AI. Nhận xét này cho thấy rằng thách thức của việc phát hiện định kiến AI có thể là một phần của một mô hình lớn hơn về những hạn chế nhận thức của con người.
Hàm ý Kỹ thuật cho Phát triển AI
Cuộc thảo luận đã tiết lộ những lo ngại thực tế về cách định kiến dữ liệu huấn luyện ảnh hưởng đến hiệu suất AI trong thế giới thực. Một số chuyên gia kỹ thuật đã chia sẻ kinh nghiệm nơi các hệ thống AI thương mại dường như ưu tiên dữ liệu huấn luyện của chúng hơn là thông tin ngữ cảnh do người dùng cung cấp. Một nhà phát triển mô tả cách các trợ lý mã hóa đôi khi sẽ quay trở lại các ví dụ mặc định từ tài liệu thay vì xử lý đúng mã cụ thể trong ngữ cảnh.
Điều này có ý nghĩa quan trọng đối với độ tin cậy của AI trên các lĩnh vực khác nhau. Như một bình luận viên lưu ý, các mô hình ngôn ngữ tiên tiến nhất hoạt động kém trên các ngôn ngữ và framework lập trình ít được đại diện, cho thấy rằng số lượng dữ liệu huấn luyện ảnh hưởng trực tiếp đến chất lượng đầu ra. Định kiến đối với nội dung được đại diện tốt trong dữ liệu huấn luyện tạo ra lợi thế hệ thống cho các công nghệ chủ đạo trong khi làm méo mó các lựa chọn thay thế thích hợp.
Góc nhìn cộng đồng về các loại thiên kiến:
- Thiên kiến dữ liệu huấn luyện: Sự thiếu đại diện của một số nhóm nhất định trong dữ liệu nguồn
- Thiên kiến hiệu suất: Các hệ thống hoạt động tốt hơn cho các nhóm chiếm ưu thế
- Thiên kiến xác nhận: Người dùng tin tưởng vào các kết quả đầu ra của AI phù hợp với niềm tin của họ
- Thiên kiến văn hóa: Các giả định được tích hợp sẵn trong dữ liệu huấn luyện từ các bối cảnh văn hóa cụ thể
Con đường đến với Kiến thức AI Tốt hơn
Các nhà nghiên cứu tham gia vào nghiên cứu dự định tập trung công việc trong tương lai vào việc phát triển các phương pháp tốt hơn để truyền đạt định kiến AI cho người dùng, nhà phát triển và các nhà hoạch định chính sách. Mục tiêu là cải thiện kiến thức truyền thông và AI để mọi người có thể hiểu rõ hơn về cách thuật toán hoạt động và những hạn chế của chúng nằm ở đâu. Các cuộc thảo luận trong cộng đồng cũng phản ánh nhu cầu này, với một số người tham gia kêu gọi các hệ thống AI minh bạch hơn và giáo dục tốt hơn về cách dữ liệu huấn luyện ảnh hưởng đến kết quả.
Thách thức đặc biệt gay gắt bởi vì, như nghiên cứu phát hiện, những người từ các nhóm đa số ít có khả năng phát hiện định kiến ảnh hưởng tiêu cực đến các nhóm thiểu số. Điều này cho thấy rằng các nhóm phát triển đa dạng và nhóm thử nghiệm người dùng có thể là điều cần thiết để xác định và giải quyết định kiến thuật toán trước khi các hệ thống được triển khai.
Tham khảo: Most users cannot identify AI bias, even in training data