Cộng đồng AI thách thức "Bài học cay đắng" khi chi phí quản lý dữ liệu tăng vọt lên hàng tỷ đô la

Nhóm Cộng đồng BigGo
Cộng đồng AI thách thức "Bài học cay đắng" khi chi phí quản lý dữ liệu tăng vọt lên hàng tỷ đô la

Cộng đồng nghiên cứu AI đang tích cực tranh luận về một trong những lý thuyết có ảnh hưởng nhất trong lĩnh vực này khi chi phí triển khai thực tế tiết lộ những phức tạp bất ngờ. Bài học cay đắng của Rich Sutton, lập luận rằng việc mở rộng quy mô tính toán và dữ liệu luôn vượt trội hơn các phương pháp dựa trên kiến thức con người, đang phải đối mặt với sự xem xét kỹ lưỡng từ các nhà thực hành khi họ thấy một thực tế tinh tế hơn đang nổi lên.

Lý thuyết ban đầu đề xuất một sự phân chia rõ ràng giữa hai phương pháp phát triển AI: các phương pháp dựa trên kiến thức con người so với những phương pháp mở rộng quy mô với dữ liệu và sức mạnh tính toán. Lập luận của Sutton rất thuyết phục - trong lịch sử, những đột phá lớn nhất đến từ việc đầu tư nhiều tài nguyên tính toán hơn vào các vấn đề thay vì cẩn thận tạo ra những hiểu biết của con người trong các hệ thống.

Chi phí ẩn của việc mở rộng dữ liệu thuần túy

Tuy nhiên, các cuộc thảo luận trong cộng đồng tiết lộ điều mà một số người gọi là Thực tế khắc nghiệt đằng sau Bài học cay đắng. Trong khi việc mở rộng quy mô có thể hoạt động về mặt lý thuyết, các công ty AI hàng đầu hiện tại đang chi hàng tỷ đô la cho việc quản lý và kiểm soát chất lượng dữ liệu. Đây không chỉ là việc thu thập thêm dữ liệu - mà là việc cẩn thận lựa chọn, xem xét và xử lý thông tin chất lượng cao với sự giám sát rộng rãi của con người.

Sự thay đổi trở nên rõ ràng khi so sánh các hệ thống AI cũ với các hệ thống hiện đại. Các mô hình trước đây cho các tác vụ như phát hiện khuôn mặt có thể hoạt động với bất kỳ hình ảnh khuôn mặt nào, bất kể chất lượng. Các hệ thống AI đối thoại ngày nay yêu cầu các bộ dữ liệu được quản lý cực kỳ kỹ lưỡng để tránh tạo ra các đầu ra có hại hoặc vô dụng. Sự khác biệt nằm ở việc chuyển từ nhận dạng mẫu đơn giản sang tạo ra các trợ lý AI thực sự hữu ích.

So sánh Chi phí: Đầu tư Quản lý Dữ liệu

  • AI truyền thống (trước 2020): Chi phí quản lý dữ liệu tối thiểu, dựa vào các bộ dữ liệu thô
  • LLM hiện đại (2023-2024): Hàng tỷ đến hàng chục tỷ USD được đầu tư vào thu thập, xem xét và xử lý dữ liệu
  • Các dự án quy mô nhỏ: Các mô hình đơn giản thường vượt trội hơn mạng nơ-ron khi dữ liệu bị hạn chế

Vấn đề nhị phân giả tạo

Các nhà phê bình lập luận rằng Bài học cay đắng tạo ra một sự lựa chọn giả tạo giữa kiến thức con người và mở rộng quy mô tính toán. Trong thực tế, không có mô hình học máy nào tồn tại mà không có kiến thức con người - con người thiết kế các kiến trúc, chọn các phương pháp huấn luyện và đánh giá kết quả. Tương tự, không có hệ thống AI hữu ích nào chỉ dựa hoàn toàn vào kiến thức con người được mã hóa cứng mà không có bất kỳ thành phần học tập nào.

Sự tiến hóa của công cụ cờ vua cung cấp một ví dụ hoàn hảo. Stockfish ban đầu sử dụng kiến thức cờ vua rộng rãi được xây dựng bởi các chuyên gia. Leela Chess Zero sau đó đã đánh bại nó bằng cách sử dụng học tăng cường thuần túy mà không có kiến thức cờ vua. Nhưng bước ngoặt cuối cùng đến khi Stockfish kết hợp cả hai phương pháp - thêm mạng nơ-ron vào cơ sở kiến thức hiện có của họ - và dễ dàng giành lại vị trí hàng đầu.

Dòng thời gian phát triển của Chess Engine

  1. Kỷ nguyên Stockfish: Kiến thức cờ vua của con người + thuật toán truyền thống
  2. Leela Chess Zero: Học tăng cường thuần túy, không có kiến thức cờ vua → Đánh bại Stockfish
  3. Stockfish hiện đại: Phương pháp kết hợp (mạng neural + kiến thức con người) → Giành lại vị trí hàng đầu

Phương pháp phổ

Thay vì xem đây là một lựa chọn hoặc này hoặc kia, các nhà thực hành đang áp dụng phương pháp phổ. Họ bắt đầu với các phương pháp rộng, tổng quát sớm trong quá trình phát triển, sau đó dần dần thêm kiến thức và hướng dẫn cụ thể hơn của con người khi cần thiết. Điều này có thể bắt đầu với học tự giám sát trên các bộ dữ liệu lớn, sau đó chuyển sang dữ liệu được quản lý trong các lĩnh vực cụ thể, và cuối cùng bao gồm phản hồi và đánh giá của con người.

Toàn bộ quá trình xây dựng mô hình được hướng dẫn bởi kiến thức lĩnh vực. Các phương pháp áp dụng kiến thức này có thể từ 'trực tiếp' đến 'có ảnh hưởng.'

Phương pháp này nhận ra rằng các giai đoạn khác nhau của phát triển AI được hưởng lợi từ các cân bằng khác nhau giữa tự động hóa và hiểu biết của con người. Chìa khóa là chọn điểm hoạt động phù hợp trên phổ này cho từng phần của quá trình phát triển.

Phương pháp tiếp cận phổ phát triển AI

  • Giai đoạn đầu: Tự giám sát trên các bộ dữ liệu lớn và đa dạng (phương pháp có ảnh hưởng)
  • Giai đoạn giữa: Các bộ dữ liệu được tuyển chọn trong các lĩnh vực cụ thể
  • Giai đoạn cuối: Phản hồi từ con người, đánh giá và tinh chỉnh (phương pháp trực tiếp)
  • Kết quả: Tăng dần việc tích hợp kiến thức con người trong suốt vòng đời phát triển

Ý nghĩa thực tiễn cho các đội nhỏ hơn

Cuộc tranh luận có ý nghĩa đặc biệt đối với các đội bên ngoài các công ty công nghệ lớn. Trong khi Google, OpenAI và các tổ chức tương tự có thể đủ khả năng đầu tư tài nguyên tính toán khổng lồ vào các vấn đề, các đội nhỏ hơn thường thấy rằng việc kết hợp kiến thức lĩnh vực với tài nguyên tính toán khiêm tốn hơn tạo ra kết quả tốt hơn.

Nhiều nhà thực hành báo cáo rằng các mô hình đơn giản, dễ hiểu thường vượt trội hơn các mạng nơ-ron phức tạp khi dữ liệu bị hạn chế. Bí quyết là khớp độ phức tạp của mô hình với thông tin có sẵn - sử dụng đủ sự tinh vi để nắm bắt các mẫu mà không bị overfitting với dữ liệu thưa thớt.

Cuộc thảo luận cho thấy rằng trong khi Bài học cay đắng có thể đúng ở tiên phong của nghiên cứu AI, thực tế thực tiễn cho hầu hết các ứng dụng liên quan đến việc cẩn thận cân bằng hiểu biết của con người với sức mạnh tính toán. Khi lĩnh vực này trưởng thành, thành công ngày càng phụ thuộc vào việc biết khi nào áp dụng từng phương pháp thay vì chọn phe trong một cuộc chiến giả tạo giữa kiến thức con người và học máy.

Tham khảo: The Bitter Lesson is wrong. Well... sort of.