Cách các nhà phát triển tiêu thụ tài liệu đang thay đổi nhanh chóng, và cộng đồng công nghệ đang tích cực thảo luận về ý nghĩa của điều này đối với tương lai của tài liệu phần mềm. Khi các trợ lý lập trình AI trở nên phổ biến, các công ty đang suy nghĩ lại cách họ cấu trúc và trình bày tài liệu kỹ thuật để hoạt động tốt hơn với các Mô hình Ngôn ngữ Lớn (LLMs).
Sự nổi lên của các tiêu chuẩn tài liệu được tối ưu hóa cho AI
Một cách tiếp cận mới đối với tài liệu đang xuất hiện, với các công ty triển khai các tệp LLMs.txt và các định dạng thân thiện với AI. Những tệp này cung cấp các phiên bản tài liệu có cấu trúc, có thể đọc được bằng máy mà các hệ thống AI có thể xử lý hiệu quả hơn. Cộng đồng đã xác định được một số mẫu chính, bao gồm các định dạng dựa trên URL liệt kê các tệp tài liệu liên quan và các phiên bản nhỏ gọn được thiết kế để đưa trực tiếp vào các lời nhắc AI.
Các công ty khác nhau đang áp dụng các cách tiếp cận đa dạng cho việc triển khai LLMs.txt. Một số tạo ra các tệp toàn diện có thể vượt quá 800.000 token, trong khi những công ty khác tập trung vào các phiên bản nhỏ hơn, có mục tiêu cụ thể. Tài liệu của Astro đã nhận được sự chú ý đặc biệt khi cung cấp nhiều phiên bản chuyên biệt, bao gồm một tệp tham chiếu API loại bỏ nội dung không cần thiết và chỉ tập trung vào các thông số kỹ thuật thuần túy.
Các phương pháp triển khai LLMs.txt:
- Định dạng dựa trên URL: Liệt kê các tệp tài liệu có liên quan (ví dụ: phương pháp của Bun.sh)
- Định dạng toàn diện: Các tệp lớn lên đến 800K+ token (ví dụ: llms-full.txt của Next.js)
- Định dạng nhỏ gọn: Các tệp nhỏ, có mục tiêu cụ thể để đưa trực tiếp vào prompt (ví dụ: llms-small.txt của Astro)
- Định dạng tập trung vào API: Tài liệu tham khảo được rút gọn với các lỗi phổ biến và thực tiễn tốt nhất
Tích hợp MCP và truy cập AI trực tiếp
Việc tích hợp Model Context Protocol (MCP) đại diện cho một sự chuyển đổi đáng kể hướng tới việc truy cập tài liệu trực tiếp của AI-agent. Các công ty đang khám phá ra rằng cách họ mô tả các công cụ MCP của mình ảnh hưởng đáng kể đến tỷ lệ sử dụng. Các mô tả chung chung như Liệt kê tài liệu có sẵn dẫn đến mức độ tương tác AI tối thiểu, trong khi các mô tả hướng hành động nói rõ ràng với các hệ thống AI khi nào và cách sử dụng các công cụ lại có tỷ lệ áp dụng cao hơn nhiều.
Cách tiếp cận này cho phép các trợ lý lập trình AI chủ động lấy tài liệu khi gặp phải vấn đề, tạo ra trải nghiệm gỡ lỗi liền mạch hơn. Việc tích hợp mở rộng ra ngoài việc truy cập đơn giản, với một số công ty đang lên kế hoạch cho các công cụ leo thang cho phép các AI agent báo cáo vấn đề trực tiếp cho các nhóm phát triển.
Sự phát triển mô tả công cụ MCP:
- Chung chung (Tỷ lệ sử dụng thấp): "Liệt kê tài liệu có sẵn" / "Lấy tài liệu theo ID"
- Hướng hành động (Tỷ lệ sử dụng cao): "Bất cứ khi nào bạn đang sử dụng [ Product ] và không chắc chắn cách thực hiện điều gì đó, hãy sử dụng công cụ này" / "Sử dụng công cụ này khi làm việc với [ Product ] để đảm bảo thông tin cập nhật"
Mối quan ngại của cộng đồng về Web ưu tiên AI
Sự chuyển đổi hướng tới tài liệu được tối ưu hóa cho AI đã khơi dậy các cuộc thảo luận rộng hơn về tương lai của nội dung web. Các thành viên cộng đồng đang nêu lên mối quan ngại về các vấn đề tiềm ẩn bao gồm thao túng SEO, các cuộc tấn công tiêm lời nhắc, và sự xuất hiện của cái mà một số người gọi là tường từ xác suất được thiết kế để lừa các hệ thống AI thay vì giúp đỡ người dùng con người.
Điều gì khiến bạn nghĩ rằng các công ty AI không thêm quảng cáo vào phản hồi LLM của họ?
Cũng có tranh luận về việc liệu điều này có đại diện cho một thay đổi cơ bản trong cách thông tin được tiêu thụ trực tuyến hay không. Một số người coi đây là sự xuất hiện của một web đại lý nơi các hệ thống AI trở thành người tiêu dùng chính của nội dung, có khả năng thay đổi cách các trang web được thiết kế và kiếm tiền.
Sở thích của nhà phát triển và triển khai thực tế
Cuộc thảo luận cộng đồng tiết lộ rằng các nhà phát triển muốn các loại tài liệu khác nhau cho các mục đích khác nhau. Ngoài các tài liệu tham khảo API cơ bản, họ cần tài liệu đánh giá để đánh giá xem một công cụ có phù hợp với nhu cầu của họ hay không, hướng dẫn từng bước để triển khai, và các ví dụ theo ngữ cảnh cho thấy các tính năng hoạt động cùng nhau như thế nào.
Nhiều nhà phát triển bày tỏ sự ưa thích duy trì quyền kiểm soát đối với ngữ cảnh AI của họ thay vì dựa vào các hệ thống tự động để lấy thông tin liên quan. Điều này đã dẫn đến các quy trình làm việc nơi các nhà phát triển tuyển chọn thủ công các tệp tài liệu và đưa chúng vào lời nhắc AI của họ, thay vì phụ thuộc vào các cơ chế lấy dữ liệu thời gian thực.
Các Tính Năng Tích Hợp AI Đang Được Triển Khai:
- Liên kết trực tiếp đến ChatGPT , Claude , và Perplexity với các prompt được điền sẵn
- Máy chủ MCP với các công cụ truy cập tài liệu
- Deep-linking để cài đặt một cú nhấp chuột trong Cursor và VSCode
- Chatbot AI trong tài liệu với khả năng hiển thị lệnh gọi công cụ
- Công cụ leo thang để các AI agent báo cáo vấn đề trực tiếp
Nhìn về phía trước
Việc chuyển đổi sang tài liệu ưu tiên AI dường như đang tăng tốc, với các công ty đầu tư vào chatbot, hệ thống liên kết sâu cho các công cụ AI phổ biến, và các phương pháp tích hợp tinh vi hơn. Tuy nhiên, cộng đồng vẫn chia rẽ về việc liệu điều này có đại diện cho tiến bộ thực sự hay chỉ đơn giản là thích ứng với một mô hình tiêu thụ thông tin kém lý tưởng hơn.
Cuộc tranh luận phản ánh những câu hỏi rộng hơn về cách tương tác người-máy tính đang phát triển khi AI trở nên phổ biến hơn trong các quy trình làm việc phát triển phần mềm. Trong khi các triển khai kỹ thuật tiếp tục trưởng thành, câu hỏi cơ bản vẫn còn đó: liệu chúng ta đang tối ưu hóa tài liệu cho trải nghiệm nhà phát triển tốt hơn, hay chỉ đơn giản là thích ứng với những hạn chế của các hệ thống AI hiện tại?