"Giải pháp" cho Ảo giác AI Chậm trễ khi Cộng đồng Đặt câu hỏi về Phương pháp Tiếp cận Cơ bản

Nhóm Cộng đồng BigGo
"Giải pháp" cho Ảo giác AI Chậm trễ khi Cộng đồng Đặt câu hỏi về Phương pháp Tiếp cận Cơ bản

Cộng đồng công nghệ đang phản đối những dự đoán lạc quan về việc giải quyết ảo giác AI, khi trải nghiệm thực tế mâu thuẫn với lộ trình của các chuyên gia. Trong khi các nhà nghiên cứu tiếp tục hứa hẹn những giải pháp nhanh chóng cho xu hướng tạo ra thông tin sai lệch của AI, người dùng báo cáo rằng vấn đề này thực tế có thể đang trở nên tồi tệ hơn.

Một diễn giả chính thảo luận về những lo ngại ngày càng tăng về ảo giác AI và sự hoài nghi của cộng đồng công nghệ đối với những lời hứa về các giải pháp nhanh chóng
Một diễn giả chính thảo luận về những lo ngại ngày càng tăng về ảo giác AI và sự hoài nghi của cộng đồng công nghệ đối với những lời hứa về các giải pháp nhanh chóng

Kiểm tra Thực tế về Giải pháp Ảo giác

Khoảng cách giữa dự đoán của chuyên gia và trải nghiệm người dùng đã trở nên ngày càng rõ ràng. Các thành viên cộng đồng lưu ý rằng bất chấp những lời hứa về tiến bộ nhanh chóng, các hệ thống AI vẫn đang gặp khó khăn với độ chính xác. Một người quan sát chỉ ra rằng sau hơn một năm kể từ khi những dự đoán tương tự được đưa ra, ảo giác dường như xuất hiện thường xuyên hơn chứ không phải ít hơn. Sự ngắt kết nối này đặt ra câu hỏi về việc liệu cộng đồng kỹ thuật có hiểu đầy đủ phạm vi của thách thức hay không.

Vấn đề mở rộng ra ngoài những sửa chữa kỹ thuật đơn giản. Một số người dùng cho rằng vấn đề có thể là cơ bản đối với cách thức hoạt động của những hệ thống này, rút ra những điểm tương đồng với nhận thức con người nơi việc bịa đặt cũng là một vấn đề dai dẳng.

Các tuyên bố về mốc thời gian chính so với thực tế

  • Dự đoán ban đầu: Vấn đề ảo giác của AI có thể giải quyết "trong vòng một năm"
  • Quan sát từ cộng đồng: Sau hơn một năm, ảo giác dường như xuất hiện thường xuyên hơn
  • Phương pháp kỹ thuật: Tập trung vào việc bảo tồn khả năng hiệu chuẩn của mô hình trong quá trình tinh chỉnh
  • Bối cảnh tài trợ: Startup Humanising đã huy động được 2,6 triệu USD cho hiệu quả LLM

Tranh luận Thuật ngữ Tiết lộ Những Mối quan tâm Sâu sắc hơn

Cộng đồng vẫn chia rẽ về ngay cả thuật ngữ cơ bản, với một số người cho rằng confabulation mô tả tốt hơn những gì hệ thống AI làm so với hallucination. Tuy nhiên, việc áp dụng rộng rãi hallucination trong diễn ngôn công cộng dường như đã giải quyết cuộc tranh luận này một cách thực tế, nếu không muốn nói là khoa học. Cuộc thảo luận ngôn ngữ học này phản ánh những câu hỏi rộng lớn hơn về cách chúng ta khái niệm hóa hành vi AI và liệu các khung làm việc hiện tại của chúng ta có đầy đủ hay không.

Các Phương pháp Tiếp cận Thay thế Nhận được Sự chú ý

Thay vì theo đuổi một hệ thống AI hoàn hảo duy nhất, một số thành viên cộng đồng đang khám phá liệu nhiều hệ thống có thiên kiến có chủ ý có thể hoạt động tốt hơn cùng nhau hay không. Phương pháp này thừa nhận rằng việc loại bỏ tất cả lỗi có thể không phải là mục tiêu đúng, đặc biệt đối với các nhiệm vụ sáng tạo nơi một mức độ không thể đoán trước nào đó có thể có giá trị.

Cuộc thảo luận cũng đề cập đến thiết kế giao diện người dùng, lưu ý rằng các công cụ tìm kiếm từ lâu đã xử lý kết quả không hoàn hảo bằng cách cung cấp danh sách xếp hạng và trích dẫn thay vì câu trả lời dứt khoát.

Các Phương Pháp Thay Thế Từ Cộng Đồng

  • Nhiều hệ thống AI thiên lệch làm việc cùng nhau thay vì một hệ thống "hoàn hảo" duy nhất
  • Các giải pháp giao diện người dùng: Kết quả được xếp hạng kèm trích dẫn (tương tự như các công cụ tìm kiếm)
  • Chấp nhận "ảo giác" có kiểm soát cho các tác vụ sáng tạo
  • Tập trung vào việc quản lý các hạn chế thay vì loại bỏ chúng

Kết luận

Sự hoài nghi của cộng đồng về những giải pháp nhanh chóng cho ảo giác AI phản ánh sự trưởng thành ngày càng tăng trong việc hiểu những hệ thống này. Trong khi các nhà nghiên cứu tập trung vào giải pháp kỹ thuật, người dùng nhấn mạnh nhu cầu về những cách tốt hơn để làm việc với những hạn chế của AI thay vì mong đợi chúng biến mất hoàn toàn. Phương pháp thực tế này có thể chứng minh có giá trị hơn việc theo đuổi độ chính xác hoàn hảo vẫn còn khó nắm bắt ngay cả trong trí thông minh con người.

Tham khảo: AI hallucinations will be solvable within a year, ex-Google AI researcher says—but that may not be a good thing: 'We want them to propose things that are weird and novel'