Cuộc tranh luận về đạo đức AI chuyển hướng từ những mối quan ngại thực tế sang màn kịch an toàn thân thiện với doanh nghiệp

Nhóm Cộng đồng BigGo
Cuộc tranh luận về đạo đức AI chuyển hướng từ những mối quan ngại thực tế sang màn kịch an toàn thân thiện với doanh nghiệp

Ngành công nghiệp trí tuệ nhân tạo đang đối mặt với những chỉ trích ngày càng tăng về việc cố tình thu hẹp phạm vi thảo luận về đạo đức AI , chuyển hướng sự chú ý của công chúng khỏi những mối quan ngại trước mắt sang các kịch bản khoa học viễn tưởng trừu tượng hơn mà ít đe dọa đến lợi ích doanh nghiệp.

Chiến lược tái định nghĩa vĩ đại

Các công ty công nghệ đã thành công trong việc định hình lại đạo đức AI xoay quanh những rủi ro giả định trong tương lai thay vì các vấn đề trách nhiệm hiện tại. Trong khi công chúng lo lắng về việc mất việc làm, lạm dụng dữ liệu và tập trung quyền lực doanh nghiệp, các công ty tập trung nguồn lực vào việc ngăn chặn các mô hình AI tạo ra nội dung phản cảm hoặc các trường hợp biên triết học. Điều này phản ánh cách ngành công nghệ trước đây xử lý các mối quan ngại về quyền riêng tư trong những năm 1990, khi các công ty chuyển hướng từ chúng tôi làm gì với dữ liệu của bạn sang chúng tôi không chia sẻ với bên thứ ba - một sự phân biệt đúng về mặt kỹ thuật nhưng vô nghĩa về mặt thực tế vì các chiến lược mua lại và sáp nhập đã làm cho việc chia sẻ dữ liệu trở nên không liên quan.

Cộng đồng đã nhận thấy mô hình này mở rộng ra ngoài việc chuyển hướng đơn giản. Một nhà quan sát đã lưu ý sự ngắt kết nối giữa lời nói về an toàn AI và năng lực kỹ thuật, chỉ ra những khoảng trống cơ bản giữa những người đưa ra quyết định chính sách và những người có chuyên môn kỹ thuật thực sự để thực hiện các biện pháp bảo vệ có ý nghĩa.

Dòng thời gian song song giữa Quyền riêng tư và Đạo đức AI

  • Những năm 1990: Phản ứng dữ dội với telemarketing dẫn đến lời hứa "không chia sẻ với bên thứ ba"
  • Thực tế: Các công ty tránh chia sẻ bằng cách bán toàn bộ doanh nghiệp/bộ dữ liệu
  • Những năm 2020: Đạo đức AI tập trung vào kiểm duyệt nội dung và các rủi ro giả định
  • Thực tế: Các vấn đề cốt lõi về sử dụng dữ liệu, thay thế việc làm và quyền lực doanh nghiệp vẫn chưa được giải quyết

Năng lực kỹ thuật so với màn kịch chính sách

Một sự phân chia đáng kể đã xuất hiện giữa các nhà nghiên cứu AI có kỹ năng kỹ thuật và các chuyên gia đạo đức tập trung vào chính sách. Các cuộc thảo luận cộng đồng cho thấy sự thất vọng với các sáng kiến an toàn do những cá nhân thiếu kỹ năng kỹ thuật cơ bản dẫn dắt, đặt ra câu hỏi về khả năng của họ trong việc giải quyết các rủi ro AI thực sự. Điều này tạo ra một tình huống nguy hiểm khi những người chịu tr책nhiệm về an toàn AI có thể không được chuẩn bị để xử lý các trường hợp khẩn cấp kỹ thuật thực tế hoặc lỗi hệ thống.

Việc tập trung vào kiểm duyệt nội dung và lọc đầu ra tiêu tốn nguồn lực khổng lồ trong khi không giải quyết được các mối quan ngại an toàn cốt lõi. Những rào cản này thường xuyên bị vượt qua thông qua các lời nhắc jailbreak, khiến toàn bộ dự án trở nên giống như màn kịch an ninh hơn là giảm thiểu rủi ro thực sự.

Vấn đề liên kết được chuyển hướng

Có lẽ điều đáng chú ý nhất là ngành công nghiệp đã chiếm đoạt những mối quan ngại chính đáng về việc liên kết AI - đảm bảo các hệ thống AI phục vụ lợi ích con người thay vì mục tiêu riêng của chúng. Tuy nhiên, vấn đề liên kết thực sự có thể không phải giữa con người và máy móc, mà giữa lợi ích doanh nghiệp và phúc lợi công cộng. Các công ty nhận được tài trợ chính phủ khổng lồ, quyền truy cập dữ liệu không giới hạn và sự tôn trọng quy định phải đối mặt với ít sự giám sát về cách họ sử dụng những nguồn lực này.

Nếu chúng ta cung cấp cho các công ty sự cường điệu không ngừng, các nguồn lực chính phủ và khoa học gần như không giới hạn, tất cả dữ liệu cá nhân của chúng ta bao gồm các mô hình suy nghĩ và hành vi, làm sao chúng ta biết các nhà lãnh đạo của họ sẽ làm những gì chúng ta muốn, và không cố gắng lật đổ chúng ta và chiếm lấy thế giới?

Cách tiếp cận hiện tại coi đạo đức AI như một vấn đề kỹ thuật đòi hỏi các giải pháp thuật toán, trong khi các rủi ro chính xuất phát từ các quyết định của con người về triển khai AI , thu thập dữ liệu và tập trung thị trường.

So sánh các Lĩnh vực Trọng tâm An toàn AI

Ưu tiên của Doanh nghiệp Mối quan tâm của Công chúng Thực tế Kỹ thuật
Lọc nội dung Thay thế việc làm Jailbreak vượt qua bộ lọc
Rủi ro AGI giả định Quyền riêng tư dữ liệu Mô hình được huấn luyện trên dữ liệu thu thập
Liên kết triết học Trách nhiệm doanh nghiệp Giám sát quy định hạn chế
Màn kịch an toàn thân thiện với PR Tập trung thị trường Động lực người chiến thắng nhận tất cả

Phản ứng của cộng đồng và các cách tiếp cận thay thế

Các cộng đồng công nghệ ngày càng ủng hộ các giải pháp thực tế hơn là các khung lý thuyết. Một số người dùng chuyển sang các mô hình AI cục bộ, không bị kiểm duyệt để tránh các ràng buộc đạo đức do doanh nghiệp áp đặt, coi các công cụ AI như máy tính hoặc trình soạn thảo văn bản - những công cụ hữu ích nên thực hiện các lệnh của người dùng mà không có phán đoán đạo đức.

Phát triển mã nguồn mở nổi lên như một sự cân bằng tiềm năng, phân phối khả năng AI rộng rãi hơn và ngăn chặn động lực thị trường người thắng cuốc tất cả. Cách tiếp cận này giải quyết các mối quan ngại về tập trung quyền lực hiệu quả hơn so với lọc nội dung hoặc các cuộc tranh luận triết học về ý thức robot.

Cửa sổ cho quản trị AI có ý nghĩa có thể đang đóng lại nhanh chóng. Khi AI trở nên được nhúng sâu vào các hệ thống kinh tế, việc thực hiện các quy định với quyền lực thực thi thực sự trở nên ngày càng khó khăn. Thời điểm hiện tại đại diện cho có lẽ cơ hội cuối cùng để thiết lập các khung ưu tiên lợi ích công cộng hơn sự thuận tiện doanh nghiệp trong phát triển và triển khai AI .

Tham khảo: AI Ethics is being narrowed on purpose - Just like privacy was