Sự gia tăng của nội dung do AI tạo ra trong giao tiếp chuyên nghiệp đã gây ra một cuộc thảo luận sôi nổi về phép lịch sự kỹ thuật số và sự tôn trọng tại nơi làm việc. Ngày càng nhiều nhân viên chia sẻ kết quả thô từ ChatGPT và các mô hình ngôn ngữ khác mà không qua xem xét kỹ lưỡng, dẫn đến sự bực bội của các đồng nghiệp cảm thấy thời gian của họ bị lãng phí vào những thông tin chưa được kiểm duyệt và có thể không chính xác.
Vấn đề về Bằng chứng Tư duy
Trong nhiều thế kỷ, văn bản viết mang trong mình một sự đảm bảo tự nhiên rằng ai đó đã đầu tư thời gian và nỗ lực tinh thần để tạo ra nó. Bằng chứng tư duy tự nhiên này đóng vai trò như một bộ lọc chất lượng cơ bản. Giờ đây, các công cụ AI đã làm cho việc tạo ra văn bản trở nên gần như không cần nỗ lực, thay đổi căn bản động lực này. Khi ai đó chia sẻ kết quả AI mà không xem xét, người nhận không còn có thể giả định rằng nội dung đã được cân nhắc kỹ lưỡng hoặc được xác minh về độ chính xác.
Cộng đồng đã xác định một số tình huống đặc biệt có vấn đề. Một số nhân viên dán trực tiếp phản hồi của ChatGPT vào email hoặc tin nhắn chat mà không tiết lộ. Những người khác gửi đánh giá mã cho các pull request do AI tạo ra mà họ chưa tự kiểm tra. Có lẽ bực bội nhất là những trường hợp đồng nghiệp trả lời các câu hỏi kỹ thuật bằng cách ngay lập tức tham khảo AI và đọc lại phản hồi một cách máy móc, thay vì thừa nhận họ không biết câu trả lời.
Tác động tại Nơi làm việc và Mối quan tâm về Chất lượng
Những hậu quả thực tế vượt xa sự khó chịu đơn thuần. Những người đánh giá mã báo cáo rằng họ phải dành nhiều thời gian hơn đáng kể để kiểm tra các bài nộp do AI tạo ra, thường phát hiện những lỗi cơ bản đáng lẽ phải được phát hiện trước khi nộp. Các cuộc thảo luận kỹ thuật trở nên lặp vòng khi người tham gia bảo vệ các quan điểm do AI tạo ra mà bản thân họ không hiểu đầy đủ.
Tôi thực sự mong muốn một số đồng nghiệp của tôi ngừng sử dụng LLM để viết email cho tôi hoặc thậm chí cả tin nhắn Teams. Điều đó cảm thấy cực kỳ thô lỗ, đến mức tôi thậm chí không muốn đọc chúng nữa.
Giao tiếp qua email đã bị ảnh hưởng đặc biệt, với người nhận báo cáo rằng họ có thể dễ dàng nhận biết các tin nhắn do AI tạo ra qua giọng điệu dài dòng, chung chung và các cụm từ đặc trưng. Một số tin nhắn thậm chí vô tình bao gồm cả lời nhắc của chính AI, chẳng hạn như Bạn có muốn tôi định dạng điều này cho Outlook hoặc giúp bạn đăng lên một kênh cụ thể không?
Các Dấu Hiệu Cảnh Báo Nội Dung AI Phổ Biến:
- Văn bản dài dòng, mật độ thông tin thấp
- Ngôn ngữ doanh nghiệp chung chung và những câu nói sáo rỗng
- Vô tình bao gồm các lời nhắc AI trong tin nhắn
- Sử dụng dấu gạch ngang và cấu trúc câu trang trọng
- Các phản hồi không trả lời trực tiếp những câu hỏi cụ thể
Lập luận Phản bác về Khả năng Tiếp cận
Không phải ai cũng đồng ý rằng hỗ trợ AI là có vấn đề về bản chất. Những người không phải là người bản ngữ tiếng Anh và các cá nhân gặp khó khăn trong viết lách cho rằng các công cụ AI giúp họ giao tiếp hiệu quả và chuyên nghiệp hơn. Những người dùng này thường đầu tư nỗ lực đáng kể vào việc tạo lời nhắc và xem xét kết quả trước khi chia sẻ chúng.
Sự khác biệt chính dường như nằm giữa việc sử dụng AI như một công cụ hỗ trợ viết và sử dụng nó như một sự thay thế cho tư duy con người. Khi ai đó sử dụng AI để cải thiện ngữ pháp hoặc làm rõ ý tưởng hiện có của họ, ý định cơ bản của con người vẫn còn nguyên vẹn. Vấn đề phát sinh khi AI tạo ra cả ý tưởng và cách diễn đạt mà không có sự xem xét có ý nghĩa từ con người.
Các Thực Hành Phép Lịch Sự AI Được Khuyến Nghị:
- Luôn tiết lộ khi chia sẻ nội dung do AI tạo ra
- Xem xét và xác minh đầu ra của AI trước khi chia sẻ
- Chịu trách nhiệm về độ chính xác của nội dung AI được chia sẻ
- Sử dụng AI như một công cụ hỗ trợ viết, không phải thay thế cho tư duy
- Cân nhắc xem người nhận có thực sự muốn nhận phản hồi do AI tạo ra hay không
Hướng dẫn Phép lịch sự đang Nổi lên
Một sự đồng thuận đang hình thành xung quanh các nguyên tắc phép lịch sự AI cơ bản. Tính minh bạch về việc sử dụng AI cho phép người nhận điều chỉnh kỳ vọng của họ cho phù hợp. Quan trọng hơn, bất kỳ ai chia sẻ nội dung do AI tạo ra đều nên xem xét và chấp nhận nó như công việc của riêng mình, chịu trách nhiệm về độ chính xác và tính phù hợp của nó.
Cộng đồng gợi ý rằng việc nói Tôi đã hỏi ChatGPT và đây là những gì nó nói ít hữu ích hơn so với việc thừa nhận sự thiếu hiểu biết hoặc dành thời gian để hiểu và xác minh phản hồi của AI trước khi chia sẻ những hiểu biết bằng lời của chính mình. Cách tiếp cận này tôn trọng cả thời gian của người nhận và bản chất hợp tác của giao tiếp chuyên nghiệp.
Khi các công cụ AI trở nên tinh vi hơn và khó phát hiện hơn, việc nhấn mạnh vào xem xét và trách nhiệm giải trình của con người trở nên quan trọng hơn bao giờ hết. Mục tiêu không phải là loại bỏ hỗ trợ AI mà là đảm bảo nó tăng cường thay vì thay thế giao tiếp chu đáo của con người.
Tham khảo: IT'S RUDE TO SHOW AI OUTPUT TO PEOPLE