Cộng đồng trí tuệ nhân tạo đang tham gia vào một cuộc tranh luận gay gắt về cách truyền đạt những rủi ro an toàn AI đến công chúng. Một thí nghiệm tư duy mới so sánh siêu trí tuệ nhân tạo với người ngoài hành tinh có IQ 300 đã khơi mào cuộc thảo luận sôi nổi về việc liệu các lập luận an toàn AI hiện tại có quá phức tạp hay quá đơn giản hóa.
Lập luận rủi ro AI đơn giản so với phức tạp
Cuộc tranh luận tập trung xung quanh hai cách tiếp cận để giải thích những lo ngại về an toàn AI. Lập luận phức tạp truyền thống bao gồm các khái niệm kỹ thuật chi tiết như kịch bản phát triển nhanh, khó khăn trong việc điều chỉnh, và các mục tiêu hội tụ. Lập luận đơn giản mới hơn loại bỏ những chi tiết kỹ thuật này và đặt ra một câu hỏi cơ bản: bạn có lo lắng nếu 30 người ngoài hành tinh với IQ 300 hạ cánh xuống Trái Đất vào ngày mai?
Cách tiếp cận đơn giản hóa này đã chia rẽ cộng đồng. Những người ủng hộ cho rằng nó cắt bỏ thuật ngữ chuyên môn và tiếp cận vấn đề cốt lõi một cách hiệu quả hơn. Những người chỉ trích khẳng định nó dựa quá nhiều vào hình ảnh khoa học viễn tưởng và không giải quyết được những thách thức kỹ thuật thực sự của việc phát triển AI.
Hai Phương Pháp Truyền Thông Chính Về Rủi Ro AI:
Lập Luận Phức Tạp:
- Các kịch bản phát triển nhanh
- Thách thức khó khăn trong việc điều chỉnh
- Luận đề trực giao
- Các mục tiêu phụ hội tụ
- Lợi thế chiến lược quyết định
Lập Luận Đơn Giản:
- Thí nghiệm tư duy về người ngoài hành tinh có IQ 300
- Tập trung vào mối quan ngại về trí tuệ tổng quát
- Tránh thuật ngữ kỹ thuật
- Tận dụng trực giác hiện có về trí tuệ vượt trội
Phản ứng cộng đồng từ hoài nghi đến ủng hộ
Cuộc thảo luận đã bộc lộ những bất đồng sâu sắc về cả bản chất của rủi ro AI và cách truyền đạt chúng. Một số thành viên cộng đồng đặt câu hỏi liệu các hệ thống AI hiện tại có gây ra bất kỳ mối đe dọa hiện sinh nào hay không, coi chúng như những thuật toán đoán đẹp hơn là siêu trí tuệ tiềm năng.
Những người khác chỉ ra các tuyên bố từ những nhà nghiên cứu AI nổi tiếng như Geoffrey Hinton và Yoshua Bengio , những người đã công khai cảnh báo về rủi ro AI. Những chuyên gia này đã ký các tuyên bố gọi rủi ro tuyệt chủng AI là ưu tiên toàn cầu cùng với đại dịch và chiến tranh hạt nhân.
Việc phát triển trí tuệ máy móc siêu việt con người có lẽ là mối đe dọa lớn nhất đối với sự tồn tại liên tục của nhân loại, một người bình luận lưu ý, trích dẫn CEO OpenAI Sam Altman .
Những Nhân Vật Chủ Chốt Đã Cảnh Báo Về Rủi Ro AI:
- Geoffrey Hinton (cựu nhà nghiên cứu Google , đã nghỉ việc để có thể tự do phát biểu về rủi ro AI )
- Yoshua Bengio (nhà nghiên cứu AI và giáo sư)
- Sam Altman (CEO OpenAI )
- Bill Gates (người sáng lập Microsoft )
- Demis Hassabis (CEO DeepMind )
- Ilya Sutskever (cựu trưởng phòng khoa học OpenAI )
Vấn đề đo lường IQ
Một phần đáng kể của cuộc tranh luận tập trung vào những hạn chế của việc sử dụng IQ như một thước đo trí tuệ. Những người chỉ trích cho rằng điểm IQ trên 200 về cơ bản là vô nghĩa, vì chúng vượt quá giới hạn của việc kiểm tra con người hiện tại. Điểm IQ con người được đo đạc đáng tin cậy cao nhất giới hạn khoảng 196, khiến IQ 300 giống như một phép ẩn dụ hơn là một chuẩn mực khoa học.
Lời chỉ trích kỹ thuật này làm nổi bật một thách thức rộng lớn hơn trong giao tiếp an toàn AI: làm thế nào để thảo luận về mức độ trí tuệ chưa từng có mà không có khung đo lường đáng tin cậy.
Lo ngại về rủi ro thực tế so với hiện sinh
Cộng đồng dường như chia rẽ giữa những người tập trung vào rủi ro AI ngay lập tức, thực tế và những người lo ngại về các mối đe dọa hiện sinh dài hạn. Những người ủng hộ rủi ro thực tế lo lắng về việc thay thế công việc, thiên vị thuật toán, và các hệ thống AI gây ra những sai lầm nguy hiểm trong các ứng dụng quan trọng như chăm sóc sức khỏe hoặc giao thông.
Những người ủng hộ rủi ro hiện sinh cho rằng những lo ngại này, dù có giá trị, nhưng nhạt nhòa so với tiềm năng của siêu trí tuệ nhân tạo trong việc thay đổi cơ bản hoặc kết thúc nền văn minh nhân loại. Họ khẳng định rằng một khi AI vượt qua trí tuệ con người trong tất cả các lĩnh vực, các biện pháp an toàn truyền thống có thể trở nên không hiệu quả.
Trọng tâm của sự bất đồng
Cuộc tranh luận đã bộc lộ điều mà nhiều người coi là sự chia rẽ cơ bản trong các cuộc thảo luận về an toàn AI. Những người chấp nhận khả năng trí tuệ nhân tạo tổng quát ở mức độ con người có xu hướng chia sẻ một mức độ lo ngại nào đó về rủi ro AI. Những người vẫn hoài nghi về việc AI đạt được trí tuệ tổng quát thực sự thường bác bỏ những lo ngại về an toàn như quá sớm hoặc thổi phồng.
Sự chia rẽ này cho thấy rằng các cuộc thảo luận về an toàn AI trong tương lai có thể cần tập trung trước tiên vào việc liệu AI tiên tiến có khả thi hay không, trước khi giải quyết những rủi ro mà nó có thể gây ra. Thí nghiệm tư duy về người ngoài hành tinh, bất kể ưu điểm của nó, đã thành công trong việc làm nổi bật sự bất đồng cốt lõi này trong cộng đồng công nghệ.
Cuộc tranh luận đang diễn ra phản ánh những bất định rộng lớn hơn về lịch trình phát triển AI, khả năng, và mức độ thận trọng phù hợp khi công nghệ tiếp tục phát triển nhanh chóng.
Tham khảo: Y'all are over-complicating these Al-risk arguments