Sự Trỗi Dậy Của Phản Hồi Do AI Tạo Ra Và Lý Do Nó Thất Bại Trong Các Nhóm Công Nghệ

Nhóm Cộng đồng BigGo
Sự Trỗi Dậy Của Phản Hồi Do AI Tạo Ra Và Lý Do Nó Thất Bại Trong Các Nhóm Công Nghệ

Khi các nhà phát triển ngày càng chuyển hướng sang sử dụng các công cụ AI như ChatGPT để thực hiện đánh giá mã code và thảo luận kỹ thuật, một làn sóng phản đối ngày càng gia tăng đang xuất hiện trong cộng đồng công nghệ. Việc sao chép và dán các phản hồi do AI tạo ra mà không có ngữ cảnh phù hợp hoặc góc nhìn cá nhân đang tạo ra sự ma sát trong các nhóm phát triển và cả các diễn đàn trực tuyến. Thứ bắt đầu như một công cụ nâng cao năng suất đầy hứa hẹn giờ đây đang tạo ra thứ mà nhiều người mô tả là thư rác kỹ thuật số, làm suy yếu sự cộng tác chân thực và diễn ngôn kỹ thuật.

Đại Dịch Sao Chép-Dán Trong Các Đánh Giá Kỹ Thuật

Xuyên suốt các nhóm phát triển và cộng đồng kỹ thuật, một khuôn mẫu quen thuộc đang nổi lên: ai đó chia sẻ tác phẩm của họ, chỉ để nhận lại một bức tường văn bản được tạo bởi AI. Hiện tượng này trải dài từ các đánh giá mã code, tài liệu thiết kế đến các cuộc thảo luận trực tuyến, nơi người tham gia thay thế phân tích của chính họ bằng đầu ra AI chưa qua xử lý. Vấn đề cốt lõi không nằm ở bản thân việc sử dụng AI, mà là sự thiếu hụt sự tham gia và ngữ cảnh đi kèm với việc chỉ đơn thuần chuyển tiếp các phản hồi do máy móc tạo ra. Các chuyên gia kỹ thuật nhận thấy bản thân họ phải phân tích những lời khuyên chung chung có thể áp dụng hoặc không áp dụng được cho tình huống cụ thể của họ, từ đó tạo ra thêm công việc thay vì cung cấp những hiểu biết thực sự có giá trị.

Khi ai đó trích dẫn phản hồi của một mô hình mà không có bất kỳ bình luận hay xác nhận nào, điều đó chỉ cho thấy rằng người đó đã từ bỏ quá trình tư duy của chính mình.

Các Vấn Đề Phổ Biến Của Phản Hồi AI Trong Các Nhóm Công Nghệ:

  • Các phản hồi được sao chép dán mà không có ngữ cảnh
  • Lời khuyên chung chung bỏ qua các ràng buộc cụ thể
  • Thiếu trách nhiệm giải trình cho các đề xuất
  • Công việc phân tích bổ sung cho người nhận
  • Khả năng xảy ra lỗi tự tin và ảo giác
Những suy ngẫm phê phán về việc sử dụng nội dung do AI tạo ra trong các cuộc thảo luận kỹ thuật làm nổi bật những cạm bẫy của sự tương tác thiếu nghiêm túc
Những suy ngẫm phê phán về việc sử dụng nội dung do AI tạo ra trong các cuộc thảo luận kỹ thuật làm nổi bật những cạm bẫy của sự tương tác thiếu nghiêm túc

Khoảng Trống Trách Nhiệm Trong Phản Hồi Có Sự Hỗ Trợ Của AI

Một trong những mối quan ngại đáng kể nhất được các nhà phát triển nêu ra là khoảng trống trách nhiệm được tạo ra bởi phản hồi do AI tạo ra. Không giống như các thành viên trong nhóm là con người, các công cụ AI không hiểu ngữ cảnh kinh doanh, nợ kỹ thuật hay động lực nhóm. Chúng sẽ không có mặt trong các cuộc họp rút kinh nghiệm khi mọi thứ diễn ra không như ý hoặc trả lời các cuộc gọi lúc 2 giờ sáng khi hệ thống gặp sự cố. Điều này tạo ra một sự không phù hợp cơ bản giữa nguồn gốc của phản hồi và trách nhiệm đối với hậu quả của nó. Người chia sẻ đầu ra AI về cơ bản trở thành một người đưa tin hơn là một người đóng góp có suy nghĩ, tạo khoảng cách giữa họ với những hệ quả từ các đề xuất mà họ đang chuyển tiếp.

Từ Để Tôi Google Giúp Bạn Đến Thư Rác AI

Nhiều thành viên cộng đồng thấy sự tương đồng giữa xu hướng phản hồi bằng AI hiện nay và hiện tượng Để Tôi Google Giúp Bạn trước đây, mặc dù có những điểm khác biệt quan trọng. Trong khi cả hai cách tiếp cận đều có thể mang tính xem thường, các phản hồi AI thường đến từ những người dùng thực sự tin rằng họ đang giúp đỡ hơn là cố ý tỏ ra trịch thượng. Điểm khác biệt then chốt nằm ở bản chất của đầu ra: trong khi các công cụ tìm kiếm cung cấp nhiều nguồn để đánh giá, các hệ thống AI hiện tại thường tạo ra một phản hồi duy nhất, nghe có vẻ uy quyền nhưng có thể chứa đựng những lỗi sai đầy tự tin hoặc những đề xuất không liên quan. Điều này tạo ra thứ mà một số người mô tả là sự tạo ra thông tin vô nghĩa - nội dung nghe có vẻ hợp lý nhưng có thể hoàn toàn tách rời khỏi thực tế hoặc ngữ cảnh.

Khủng Hoảng Xác Minh Và Ô Nhiễm Nhận Thức

Một mối quan ngại sâu sắc hơn nổi lên từ cuộc thảo luận liên quan đến cái mà các triết gia có thể gọi là ô nhiễm nhận thức - sự suy giảm chất lượng của các không gian tri thức thông qua nội dung nghe có vẻ đáng tin cậy nhưng thực tế lại không đáng tin. Các ảo giác của AI và những lỗi sai đầy tự tin đang được đưa vào các cuộc thảo luận kỹ thuật với quy mô lớn, buộc người nhận phải tiêu tốn thêm năng lượng tinh thần để tách biệt sự thật khỏi sự bịa đặt. Vấn đề này càng trầm trọng hơn khi người dùng không xác minh đầu ra AI trước khi chia sẻ nó, về cơ bản là thuê ngoài tư duy phản biện của họ cùng với việc nghiên cứu. Kết quả là thứ mà một bình luận viên mô tả là béo phì tinh thần - xu hướng dựa vào thông tin nhanh chóng, đã qua xử lý thay vì tham gia vào công việc tinh thần cần thiết để đạt được sự hiểu biết thực sự.

Sử dụng AI Hiệu quả so với Không hiệu quả trong Đánh giá: Hiệu quả:

  • Sử dụng AI để xác định các vấn đề tiềm ẩn, sau đó giải thích mức độ liên quan
  • Xác minh các đề xuất của AI trước khi chia sẻ
  • Cung cấp phân tích phù hợp với ngữ cảnh cụ thể
  • Chịu tr책nhiệm cho các khuyến nghị cuối cùng

Không hiệu quả:

  • Chuyển tiếp kết quả thô từ AI mà không lọc
  • Sử dụng AI như một thẩm quyền mà không xác minh
  • Tránh tương tác cá nhân với nội dung
  • Tạo thêm công việc cho đồng nghiệp

Tìm Kiếm Sự Cân Bằng Phù Hợp Với Các Công Cụ AI

Bất chấp những thất vọng, nhiều nhà phát triển thừa nhận rằng các công cụ AI có thể có giá trị khi được sử dụng một cách phù hợp. Sự khác biệt nằm ở chỗ sử dụng AI để nâng cao tư duy so với việc sử dụng nó để tránh tư duy hoàn toàn. Những người dùng hiệu quả coi AI như một trợ lý nghiên cứu giúp thu thập thông tin và khám phá ý tưởng, nhưng họ vẫn áp dụng phán đoán, ngữ cảnh và xác minh của chính mình trước khi chia sẻ thông tin chi tiết với người khác. Một số nhóm đang bắt đầu thiết lập các hướng dẫn cho việc sử dụng AI trong đánh giá mã code, nhấn mạnh rằng mặc dù các đề xuất do AI tạo ra có thể được đưa vào, nhưng người đánh giá vẫn phải cung cấp phân tích của chính họ và chịu trách nhiệm về phản hồi. Cách tiếp cận này duy trì những lợi ích của sự hỗ trợ từ AI trong khi vẫn bảo tồn được sự phán đoán của con người và tính trách nhiệm mà công việc kỹ thuật đòi hỏi.

Cuộc thảo luận xung quanh phản hồi do AI tạo ra phản ánh những câu hỏi rộng hơn về cách chúng ta tích hợp các công nghệ mới vào công việc hợp tác. Khi các công cụ trở nên có khả năng hơn, giá trị sẽ chuyển dịch từ việc chỉ đơn thuần tạo ra thông tin sang việc áp dụng sự phán đoán, ngữ cảnh và trách nhiệm. Các nhóm hiệu quả nhất dường như là những nhóm sử dụng AI như một công cụ để tăng cường hơn là thay thế - tận dụng khả năng của nó trong khi vẫn duy trì các yếu tố con người về sự hiểu biết, trách nhiệm và sự tham gia chân thành, những thứ làm cho sự hợp tác trở nên có ý nghĩa.

Tham khảo: ChatGPT said this Is Lazy