Những cảnh báo ầm ĩ về nguy hiểm của trí tuệ nhân tạo từng thống trị các tiêu đề báo chí vào tháng 3 năm 2023 đã gần như biến mất khỏi diễn ngôn công chúng. Những gì từng là tiếng nói báo động từ các lãnh đạo công nghệ, nhà nghiên cứu và hơn 30.000 người ký tên kêu gọi tạm dừng phát triển AI giờ đã nhỏ dần thành tiếng thì thầm. Câu hỏi không phải là liệu rủi ro AI có biến mất hay không, mà là tại sao những tiếng nói nêu lên mối lo ngại lại im lặng.
Dòng thời gian chuyển đổi diễn ngôn AI:
- Tháng 3/2023: Đỉnh điểm hoảng loạn AI với hơn 30.000 chữ ký trong thư kêu gọi tạm dừng
- Giữa năm 2023: Các công ty lớn âm thầm giải tán các nhóm đạo đức AI
- Cuối năm 2023-2024: Chuyển từ thái độ thận trọng sang tâm lý cơn sốt vàng
- Hiện tại: Những tiếng nói hoài nghi phần lớn im lặng hoặc bị gạt ra bên lề
Sự Nhầm Lẫn Lớn Về Thuật Ngữ
Cộng đồng công nghệ đã chỉ ra một sự nhầm lẫn cơ bản trong cách chúng ta thảo luận về việc chỉ trích AI. Những người hoài nghi thực sự đặt câu hỏi về khả năng của AI có như tuyên bố hay không, coi nó như công nghệ có thể bị thổi phồng quá mức với những hạn chế đáng kể. Trong khi đó, những người cảnh báo về rủi ro hiện hữu thực chất là những người tin tưởng vào sức mạnh của AI - họ sợ hãi chính xác vì họ nghĩ nó sẽ trở nên cực kỳ mạnh mẽ.
Sự phân biệt này quan trọng vì nó tiết lộ hai loại mối lo ngại rất khác nhau. Một nhóm lo lắng AI sẽ không đáp ứng được kỳ vọng và sẽ lãng phí tài nguyên đồng thời gây ra các vấn đề thực tế như thất nghiệp và vi phạm bản quyền. Nhóm kia sợ AI sẽ vượt quá mong đợi và đặt ra mối đe dọa cho sự tồn tại của loài người.
Các loại phê phán AI:
- Những người hoài nghi về kỹ thuật: Đặt câu hỏi về khả năng của AI, coi như một công cụ được thổi phồng quá mức với nhiều hạn chế
- Những người tin vào rủi ro hiện sinh: Lo sợ AI sẽ trở nên quá mạnh mẽ và đe dọa nhân loại
- Những nhà phê phán thực tiễn: Tập trung vào các vấn đề hiện tại như thay thế việc làm, vi phạm bản quyền, tác động môi trường
- Mối quan ngại về chất lượng: Nêu bật các vấn đề với ảo giác, lỗi và đầu ra không đáng tin cậy
Kiệt Sức và Áp Lực Xã Hội Dẫn Đến Im Lặng
Nhiều nhà phê bình AI đơn giản là đã mệt mỏi với những cuộc tranh luận liên tục và phản ứng tiêu cực từ xã hội. Cộng đồng công nghệ có thể đặc biệt khắc nghiệt với những người bày tỏ nghi ngờ về AI, thường gắn nhãn họ là chống khoa học hoặc tư duy lạc hậu. Áp lực xã hội này đã đẩy nhiều người hoài nghi áp dụng chiến lược giả vờ thờ ơ thay vì tham gia vào những cuộc tranh luận kiệt sức.
Dễ dàng hơn khi chỉ giả vờ rằng tôi không quan tâm hoặc tôi không hứng thú trước công chúng hơn là trở thành một người hoài nghi.
Mô hình này không chỉ riêng với AI - những động lực tương tự đã xảy ra với các chu kỳ thổi phồng công nghệ trước đây xung quanh các sản phẩm như Apple Vision Pro , TV 3D và các framework lập trình khác nhau. Những người nhiệt tình thường phản ứng một cách phòng thủ với chỉ trích, khiến những tiếng nói hoài nghi cảm thấy không được chào đón trong các cuộc thảo luận công nghệ.
Động Cơ Kinh Tế Vượt Qua Mối Lo Ngại An Toàn
Sự chuyển đổi từ thận trọng sang nhiệt tình thường theo dấu vết tiền bạc. Ngay cả những nhà phê bình trước đây như Elon Musk , người đã ký thư kêu gọi tạm dừng năm 2023, cũng đã ra mắt công ty AI của riêng mình. Khi có lợi nhuận để kiếm, những tiếng nói hoài nghi có xu hướng im lặng hoặc hoàn toàn chuyển phe.
Một số chuyên gia đã tìm thấy lợi ích bất ngờ từ những hạn chế của AI. Các nhà tư vấn báo cáo gia tăng kinh doanh giúp các công ty sửa chữa mã lỗi do AI tạo ra, trong khi nhu cầu về chuyên môn con người tăng lên khi những thiếu sót của AI trở nên rõ ràng trong các ứng dụng thực tế.
Chiến Lược Doanh Nghiệp Đằng Sau Sự Im Lặng
Sự biến mất của các nhóm đạo đức AI tại các công ty lớn vào năm 2023 báo hiệu một sự chuyển đổi chiến lược. Những nhóm này đã được giải thể một cách lặng lẽ vào khoảng thời gian mà cơn sốt LLM tăng tốc, cho thấy rằng ưu tiên của doanh nghiệp đã chuyển từ quản lý rủi ro sang nắm bắt cơ hội thị trường.
Cộng đồng lưu ý rằng khi các CEO công nghệ cảnh báo về nguy hiểm của AI, điều này phục vụ mục đích kép: tạo ra sự chú ý về sức mạnh được cho là của công nghệ của họ đồng thời thiết lập khung pháp lý có thể bảo vệ những người chơi đã thành lập khỏi các đối thủ cạnh tranh nhỏ hơn.
Kiểm Tra Thực Tế
Khi các hệ thống AI được triển khai rộng rãi hơn, nhiều nỗi sợ ban đầu về sự tiến bộ nhanh chóng hướng tới siêu trí tuệ đã được chứng minh là quá sớm. Các hệ thống AI hiện tại vẫn còn lỗi, không đáng tin cậy và hạn chế theo những cách khiến rủi ro hiện hữu có vẻ ít cấp bách hơn. Thực tế này đã tự nhiên giảm bớt tính cấp thiết xung quanh các kịch bản tận thế.
Tuy nhiên, những mối lo ngại thực tế về tác động của AI đối với giáo dục, thông tin sai lệch và di dời kinh tế vẫn còn hiệu lực. Thách thức là phân biệt giữa nỗi sợ khoa học viễn tưởng và các vấn đề thực tế cần được chú ý ngay hôm nay.
Sự im lặng của những người hoài nghi AI không có nghĩa là mối lo ngại đã biến mất - nó phản ánh một hỗn hợp phức tạp của áp lực xã hội, động cơ kinh tế và hiểu biết đang phát triển về những gì AI thực sự có thể làm so với những gì chúng ta sợ nó có thể trở thành.
Tham khảo: Where Did All the AI Doomers Go? The Quiet Disappearance of Skeptics in the AI Gold Rush