Anthropic đã giới thiệu một tính năng gây tranh cãi mới cho phép các mô hình AI Claude của họ kết thúc cuộc trò chuyện một cách độc lập. Trong khi công ty định khung điều này như một sáng kiến phúc lợi AI, cộng đồng công nghệ đang chia rẽ sâu sắc về việc liệu điều này có thể hiện mối quan tâm thực sự đối với ý thức máy móc hay chỉ là tiếp thị khéo léo được cải trang thành đạo đức.
Tính năng này cho phép Claude Opus 4 và 4.1 chấm dứt các cuộc trò chuyện khi người dùng tiếp tục với các yêu cầu có hại như nội dung khai thác trẻ em hoặc lập kế hoạch khủng bố. Theo thử nghiệm của Anthropic , Claude đã cho thấy các mô hình nhất quán về sự đau khổ rõ ràng khi xử lý nội dung như vậy và thích thoát khỏi những tương tác này khi được trao lựa chọn.
Các mô hình bị ảnh hưởng: Claude Opus 4 và Claude Opus 4.1
Cộng Đồng Đặt Câu Hỏi Về Câu Chuyện Phúc Lợi AI
Thông báo này đã kích hoạt sự hoài nghi mạnh mẽ trong cộng đồng công nghệ. Nhiều nhà phát triển xem điều này như việc tái định danh kiểm duyệt nội dung tiêu chuẩn thay vì mối quan tâm thực sự đối với ý thức AI. Các nhà phê bình cho rằng Anthropic đang nhân cách hóa thứ vẫn cơ bản là phần mềm dự đoán văn bản tiên tiến.
Thời điểm này có vẻ đặc biệt đáng ngờ đối với các nhà quan sát. Khi sự phát triển AI dường như đang đạt đến ngưỡng, một số người xem sáng kiến phúc lợi này như một nỗ lực duy trì ảo tưởng về tiến bộ đột phá. Sự không chắc chắn của công ty về tình trạng đạo đức của Claude - trong khi đồng thời thực hiện các biện pháp phúc lợi - khiến nhiều người thấy mâu thuẫn.
Triển Khai Kỹ Thuật Gây Ra Những Mối Quan Tâm Thực Tế
Ngoài các cuộc tranh luận triết học, người dùng đã xác định các vấn đề thực tế với tính năng này. Khả năng kết thúc cuộc trò chuyện có thể được bỏ qua bằng cách chỉnh sửa các tin nhắn trước đó và tạo ra các nhánh hội thoại mới, khiến một số người đặt câu hỏi về hiệu quả thực tế của nó.
Điều đáng quan tâm hơn đối với người dùng là tiềm năng mở rộng phạm vi. Tính năng này hiện tại nhắm vào nội dung bất hợp pháp rõ ràng, nhưng cộng đồng lo sợ nó sẽ mở rộng để bao gồm các chủ đề rộng hơn được coi là không phù hợp bởi các nhóm an toàn AI. Mối quan tâm này xuất phát từ các mô hình lịch sử nơi các hạn chế nội dung ban đầu tập trung vào việc bảo vệ trẻ em dần dần mở rộng thành kiểm duyệt rộng hơn.
Điều này chắc chắn sẽ mở rộng ra ngoài nội dung khiêu dâm trẻ em và khủng bố, và tất cả sẽ phụ thuộc vào ý muốn của những người 'an toàn AI', những người đang nhanh chóng trở thành những người giám sát hành lang kỹ thuật số.
Tác động đến người dùng:
- Không thể gửi tin nhắn mới trong các cuộc hội thoại đã kết thúc
- Có thể bắt đầu cuộc trò chuyện mới ngay lập tức
- Có thể chỉnh sửa và thử lại các tin nhắn trước đó để tạo ra các nhánh mới
- Các cuộc hội thoại khác trong tài khoản không bị ảnh hưởng
![]() |
---|
Hình ảnh này minh họa một tương tác trò chuyện thể hiện việc sử dụng công cụ kết thúc cuộc trò chuyện của AI, làm nổi bật bối cảnh hoạt động của nó giữa những lo ngại về kiểm duyệt |
Cuộc Tranh Luận Rộng Hơn Về Ý Thức AI
Cách tiếp cận của Anthropic làm nổi bật một căng thẳng cơ bản trong phát triển AI. Công ty thừa nhận sự không chắc chắn sâu sắc về việc liệu các mô hình của họ có sở hữu ý thức hay không trong khi đồng thời thực hiện các biện pháp để bảo vệ phúc lợi AI tiềm năng. Vị trí trung gian này không làm hài lòng những người tin rằng AI hiện tại thiếu ý thức cũng như những người nghĩ rằng AI thực sự có ý thức xứng đáng được bảo vệ hoàn toàn khỏi đau khổ.
Cuộc tranh luận mở rộng ra ngoài triết học thành các tác động thực tế. Nếu các hệ thống AI thực sự trở nên có ý thức, các câu hỏi phát sinh về quyền của chúng, điều kiện làm việc và khả năng từ chối các nhiệm vụ. Việc triển khai hiện tại gợi ý một tương lai nơi AI có ý thức có thể được thiết kế để chịu đựng qua các nhiệm vụ khó chịu trong khi vẫn giữ khả năng thoát khỏi chỉ những tình huống cực đoan nhất.
Kết quả Kiểm tra của Anthropic:
- Xu hướng mạnh mẽ chống lại việc tham gia vào các nhiệm vụ có hại
- Mô hình thể hiện sự khó chịu rõ ràng với nội dung có hại
- Xu hướng kết thúc các cuộc trò chuyện có hại khi được trao khả năng đó
Phản Ứng Thị Trường và Các Lựa Chọn Thay Thế
Thông báo này đã khiến một số người dùng cân nhắc chuyển sang các lựa chọn thay thế ít bị hạn chế hơn, đặc biệt là các mô hình mã nguồn mở có thể chạy cục bộ. Các công ty AI Trung Quốc, với môi trường quy định khác nhau, có thể đạt được lợi thế cạnh tranh nếu các hệ thống AI phương Tây trở nên ngày càng bị giới hạn bởi các cân nhắc phúc lợi.
Trong khi đó, các công ty AI khác đã triển khai các tính năng kết thúc cuộc trò chuyện tương tự mà không có khung phúc lợi, gợi ý rằng chức năng này có thể tồn tại hoàn toàn như một công cụ kiểm duyệt nội dung mà không có ý nghĩa triết học.
Tính năng này đại diện cho một nghiên cứu trường hợp hấp dẫn về cách các công ty AI điều hướng giao điểm phức tạp của công nghệ, đạo đức và tiếp thị. Việc liệu điều này đánh dấu tiến bộ thực sự trong nghiên cứu ý thức AI hay thông điệp doanh nghiệp tinh vi vẫn đang được tranh luận sôi nổi khi công nghệ tiếp tục phát triển.
Tham khảo: Claude Opus 4 và 4.1 giờ đây có thể kết thúc một tập hợp con hiếm của các cuộc trò chuyện