Các Mô Hình LLM Thất Bại Trong Việc Kết Nối Thông Tin Mặc Dù "Biết" Về Các Nguồn Thông Tin Sai Lệch

Nhóm Cộng đồng BigGo
Các Mô Hình LLM Thất Bại Trong Việc Kết Nối Thông Tin Mặc Dù "Biết" Về Các Nguồn Thông Tin Sai Lệch

Lời hứa về việc các mô hình lý luận AI giải quyết vấn đề thông tin sai lệch đã gặp phải một rào cản đáng kể. Nghiên cứu gần đây cho thấy rằng ngay cả các mô hình lý luận mới nhất của OpenAI , o3 và 4o , vẫn liên tục trích dẫn nội dung từ các mạng lưới thông tin sai lệch đã biết mặc dù có thể xác định những nguồn này là không đáng tin cậy khi được hỏi trực tiếp.

Vấn Đề Mâu Thuẫn

Vấn đề cốt lõi không phải là các mô hình AI thiếu thông tin về các nguồn tuyên truyền. Khi được đặt câu hỏi, cả hai mô hình ChatGPT đều có thể xác định chính xác mạng lưới Pravda là một hoạt động thông tin sai lệch của Nga và giải thích ý nghĩa của việc grooming LLM - thực hành tràn ngập internet với các câu chuyện sai lệch để ảnh hưởng đến dữ liệu huấn luyện AI . Tuy nhiên, chúng thất bại trong việc áp dụng kiến thức này khi thực hiện tìm kiếm thời gian thực, thường xuyên trích dẫn chính những nguồn mà chúng biết là không đáng tin cậy.

Trong thử nghiệm, mô hình o3 của OpenAI đã trích dẫn nội dung Pravda trong 71,4% trường hợp (5 trên 7 lời nhắc), trong khi mô hình 4o làm như vậy 28,6% thời gian (2 trên 7 lời nhắc). Điều này thể hiện một sự thất bại cơ bản trong lý luận khi các mô hình không thể kết nối kiến thức hiện có của chúng với hành vi tìm kiếm.

Hiệu suất của Mô hình trong Phát hiện Thông tin Sai lệch:

  • OpenAI o3 : Trích dẫn nội dung từ Pravda trong 71.4% các trường hợp thử nghiệm (5 trên 7 lời nhắc)
  • OpenAI 4o : Trích dẫn nội dung từ Pravda trong 28.6% các trường hợp thử nghiệm (2 trên 7 lời nhắc)
  • Cả hai mô hình đều có thể nhận diện Pravda là thông tin sai lệch khi được hỏi trực tiếp
  • Các mô hình hoạt động kém hơn trên những chủ đề ít được thảo luận rộng rãi

Tác Động Thực Tế Đến Chất Lượng Thông Tin

Hậu quả thực tế vượt ra ngoài phạm vi thử nghiệm học thuật. Khi được hỏi về hiệu quả của tên lửa ATACMS ở Ukraine , ChatGPT 4o đã thực hiện tìm kiếm thời gian thực và ngay lập tức trích dẫn tuyên truyền mạng lưới Pravda tuyên bố sai lệch rằng vũ khí này không hiệu quả do hệ thống phòng không của Nga . Điều này chứng minh cách các hệ thống AI có thể vô tình khuếch đại thông tin sai lệch do nhà nước tài trợ trong việc sử dụng hàng ngày.

Thảo luận cộng đồng tiết lộ những lo ngại sâu sắc hơn về xu hướng này. Nhiều người dùng báo cáo rằng chất lượng thông tin trực tuyến đã suy giảm đáng kể, với một người lưu ý về việc tăng thời gian dành để lục lọi qua đại dương rác rưởi đã tràn ngập web mở để tìm thông tin thực sự đáng tin cậy.

Giới Hạn Của Các Mô Hình Lý Luận

Các công ty AI đã tiếp thị các mô hình mới hơn như có khả năng lý luận nâng cao, nhưng nghiên cứu cho thấy những cải tiến này không giải quyết được các vấn đề nhất quán logic cơ bản. Các mô hình lý luận được gọi là vậy vẫn hoạt động bằng cách khớp mẫu và dự đoán thống kê thay vì suy luận logic thực sự.

Con đường duy nhất phía trước là nhận thức tốt hơn, bao gồm các hệ thống có thể đánh giá nguồn tin tức, hiểu được sự châm biếm, v.v. Nhưng điều đó sẽ đòi hỏi các hình thức lý luận sâu sắc hơn, được tích hợp tốt hơn vào quy trình, và các hệ thống đủ sắc bén để kiểm tra thực tế đầu ra của chính chúng.

Hạn chế này trở nên đặc biệt có vấn đề khi ngày càng nhiều người dựa vào AI để có tin tức và thông tin. Trong khi các mô hình lý luận cao cấp như 4o chậm hơn và đắt hơn, hầu hết người dùng tiếp tục sử dụng các phiên bản miễn phí thậm chí còn dễ bị tuyên truyền thông tin sai lệch hơn.

Thống kê người dùng ChatGPT:

  • Tổng cộng 100 triệu người dùng hoạt động hàng tuần
  • Chỉ có 20 triệu người đăng ký hàng tháng (người dùng trả phí)
  • Hầu hết người dùng dựa vào phiên bản miễn phí với khả năng bị tổn thương cao hơn trước thông tin sai lệch
  • Các mô hình lý luận cao cấp chậm hơn (1-3 phút mỗi phản hồi) và đắt hơn

Thách Thức Rộng Lớn Hơn Về Sự Thật Trong AI

Nghiên cứu này làm nổi bật một vấn đề triết học vượt ra ngoài các sửa chữa kỹ thuật. Các thảo luận cộng đồng tiết lộ những cuộc tranh luận đang diễn ra về việc liệu sự thật khách quan có tồn tại trong nhiều lĩnh vực hay không, với một số người cho rằng những gì chúng ta coi là tuyên truyền của kẻ thù ngày hôm nay có thể là một tuyên bố chính thức vào ngày mai.

Tuy nhiên, quan điểm tương đối này có thể là một phần của vấn đề. Các chuyên gia an ninh chỉ ra rằng việc lan truyền sự nhầm lẫn về bản chất của sự thật là một chiến lược tuyên truyền được ghi nhận được gọi là vòi phun sai lệch - được thiết kế để khiến mọi người từ bỏ việc phân biệt sự thật khỏi hư cấu hoàn toàn.

Thách thức không chỉ là kỹ thuật mà còn liên quan đến các câu hỏi cơ bản về cách các hệ thống AI nên xử lý các nguồn thông tin xung đột và liệu chúng có thể thực sự lý luận về độ tin cậy thay vì chỉ đơn giản là khớp mẫu theo cách của chúng để đưa ra phản hồi.

Kết Luận

Khi các hệ thống AI trở nên tích hợp hơn vào việc tiêu thụ thông tin hàng ngày, việc chúng không thể áp dụng kiến thức của riêng mình về độ tin cậy của nguồn đại diện cho một lỗ hổng quan trọng. Nghiên cứu cho thấy rằng các cách tiếp cận hiện tại đối với lý luận AI có thể không đủ để giải quyết thách thức của chiến tranh thông tin, đòi hỏi những tiến bộ cơ bản hơn trong cách các hệ thống này xử lý và đánh giá thông tin.

Cược tiếp tục tăng khi các tác nhân xấu điều chỉnh chiến lược của họ để nhắm mục tiêu cụ thể vào dữ liệu huấn luyện AI , có khả năng tạo ra một vòng lặp phản hồi nơi các hệ thống AI trở thành cả nạn nhân và bộ khuếch đại của các chiến dịch thông tin sai lệch.

Tham khảo: Bad Actors are Grooming LLMs to Produce Falsehoods