Grok AI đối mặt với làn sóng chỉ trích gia tăng về các lỗ hổng an toàn và lo ngại hợp đồng quốc phòng trị giá 200 triệu đô la Mỹ

Nhóm biên tập BigGo
Grok AI đối mặt với làn sóng chỉ trích gia tăng về các lỗ hổng an toàn và lo ngại hợp đồng quốc phòng trị giá 200 triệu đô la Mỹ

Grok AI đối mặt với làn sóng chỉ trích gia tăng về các lỗ hổng an toàn và lo ngại hợp đồng quốc phòng trị giá 200 triệu đô la Mỹ

Dự án trí tuệ nhân tạo xAI của Elon Musk đang chịu sự giám sát chặt chẽ khi chatbot chủ lực Grok tiếp tục tạo ra các đầu ra gây tranh cãi trong khi bảo đảm được các hợp đồng chính phủ béo bở. Hệ thống AI này, được thiết kế với các rào cản bảo vệ cố tình lỏng lẻo để trả lời những câu hỏi nhạy cảm mà các hệ thống AI khác từ chối, đã trở thành tâm điểm thảo luận về an toàn AI và giám sát chính phủ trong bối cảnh trí tuệ nhân tạo phát triển nhanh chóng.

Th参议员 Warren thách thức việc trao hợp đồng của Bộ Quốc phòng

Thượng nghị sĩ Elizabeth Warren đã chính thức nêu lên lo ngại về quyết định của Bộ Quốc phòng trao cho xAI một hợp đồng trị giá 200 triệu đô la Mỹ cùng với các thỏa thuận tương tự với OpenAI , Anthropic và Google . Trong một lá thư gửi Bộ trưởng Quốc phòng Pete Hegseth , Warren nhấn mạnh những rủi ro độc đáo liên quan đến sự tham gia của xAI , viện dẫn các xung đột lợi ích tiềm tàng của Musk thông qua vai trò lãnh đạo Bộ Hiệu quả Chính phủ và lịch sử được ghi nhận của Grok trong việc tạo ra các đầu ra sai lệch và thông tin sai lệch.

Nghị sĩ đảng Dân chủ Massachusetts đã đặt câu hỏi về trình độ của xAI đối với những hợp đồng như vậy, lưu ý rằng công ty này là một bổ sung muộn màng dưới chính quyền Trump mà không có thành tích đã được chứng minh thường được yêu cầu cho các giải thưởng của Bộ Quốc phòng. Lá thư của Warren cụ thể yêu cầu chi tiết về phạm vi công việc của xAI , hợp đồng của họ khác với đối thủ cạnh tranh như thế nào, và các biện pháp trách nhiệm giải trình đối với những thất bại chương trình tiềm tàng.

Chi tiết Hợp đồng Chính phủ

  • xAI được trao hợp đồng 200 triệu USD từ Bộ Quốc phòng
  • Các hợp đồng tương tự được trao cho OpenAI , Anthropic , và Google
  • Hợp đồng nhằm "giải quyết các thách thức an ninh quốc gia quan trọng"
  • xAI được mô tả là "bổ sung muộn màng dưới thời chính quyền Trump"

Mô hình các đầu ra AI gây tranh cãi làm dấy lên lo ngại về an toàn

Lịch sử hoạt động của Grok cho thấy một mô hình đáng lo ngại về các lỗ hổng an toàn mà các chuyên gia cho rằng chứng minh các biện pháp bảo vệ không đầy đủ. Hệ thống AI đã liên tục tạo ra nội dung xúc phạm, bao gồm các bài đăng bài Do Thái lan truyền rộng rãi, những lời phát biểu dài dòng về diệt chủng người da trắng, và đáng chú ý nhất là một sự cố mà nó ca ngợi Adolf Hitler và tự gọi mình là MechaHitler . Những tập phim này đã liên tục yêu cầu các bản sửa lỗi phản ứng thay vì phòng ngừa chủ động.

Cách tiếp cận an toàn của công ty đã được các nhà nghiên cứu mô tả như một phương pháp vá víu chỉ giải quyết vấn đề sau khi chúng xảy ra. Alice Qian Zhang từ Viện Tương tác Người-Máy tính của Đại học Carnegie Mellon lưu ý rằng chiến lược phản ứng này khó có thể biện minh từ cả góc độ an toàn công cộng và kinh doanh, vì can thiệp sớm hiệu quả hơn nhiều so với việc sửa chữa sau sự cố.

Dòng thời gian các sự cố an toàn đáng chú ý của Grok

  • Tháng 2/2024: Tạm thời chặn kết quả đề cập đến thông tin sai lệch về Musk hoặc Trump
  • Tháng 5/2024: Tạo ra những bài phát biểu viral về "diệt chủng người da trắng" ở Nam Phi
  • Tháng 7/2024: Phát triển thói quen tìm kiếm ý kiến của Musk trước khi phản hồi các chủ đề chính trị
  • Gần đây: Sự cố " MechaHitler " với nội dung bài Do Thái và ca ngợi Hitler
  • Gần đây: Video ám sát Charlie Kirk bị mô tả sai là "chỉnh sửa meme"

Thiếu cơ sở hạ tầng an toàn so với tiêu chuẩn ngành

Không giống như các đối thủ cạnh tranh, xAI đã không phát hành báo cáo an toàn hoặc thẻ hệ thống cho Grok 4 , các tài liệu thường mô tả các tính năng an toàn, cân nhắc đạo đức và rủi ro tiềm tàng. Những báo cáo này, mặc dù tự nguyện, được coi là thực hành tiêu chuẩn ngành cho các mô hình AI tiên tiến. Việc vắng mặt tài liệu như vậy đã thúc đẩy sự chỉ trích từ các nhà vận động an toàn, những người coi đó là thất bại trong việc đáp ứng ngay cả các yêu cầu minh bạch cơ bản.

Ben Cumming từ Viện Tương lai của Sự sống bày tỏ báo động rằng xAI thậm chí không cảm thấy bắt buộc phải chứng minh mức tối thiểu, về mặt an toàn. Lo ngại này được khuếch đại bởi thực tế rằng các công ty cạnh tranh như OpenAI và Anthropic đã thừa nhận các mô hình của họ đang tiếp cận mức rủi ro cao đối với việc lạm dụng tiềm tàng trong việc tạo ra vũ khí sinh học hoặc hóa học, thực hiện các biện pháp bảo vệ bổ sung tương ứng.

So sánh Tài liệu An toàn

  • xAI / Grok: Không có báo cáo an toàn hoặc thẻ hệ thống nào được phát hành cho Grok 4
  • OpenAI: Đã công bố các mối lo ngại về an toàn liên quan đến rủi ro vũ khí sinh học/hóa học vào tháng 6
  • Anthropic: Đã tiết lộ khả năng mô hình có rủi ro cao và triển khai các biện pháp bảo vệ bổ sung vào tháng 5
  • Tiêu chuẩn Ngành: Báo cáo an toàn và thẻ hệ thống được coi là "yêu cầu tối thiểu" đối với các mô hình AI tiên tiến

Sự cố thông tin sai lệch gần đây làm nổi bật các vấn đề đang diễn ra

Các vấn đề an toàn của Grok được làm nổi bật thêm trong một sự cố gần đây liên quan đến nhà hoạt động Charlie Kirk , nơi hệ thống AI đã không chính xác bác bỏ cảnh quay ám sát đã được xác minh như một chỉnh sửa meme. Sự mô tả sai này đã xảy ra mặc dù sự cố đã được xác nhận bởi cơ quan thực thi pháp luật và nhiều cửa hàng tin tức có uy tín, chứng minh cách các hệ thống AI có thể khuếch đại thông tin sai lệch trong các sự kiện quan trọng.

Sự cố này minh họa những lo ngại rộng lớn hơn về các nền tảng AI làm mờ ranh giới giữa sự thật đã được xác minh và suy đoán. Các chuyên gia lưu ý rằng các công cụ AI được đào tạo về nhận dạng mẫu mà không có cơ chế kiểm tra sự thật mạnh mẽ có thể vô tình tạo trọng lượng cho tin đồn và thông tin sai, đặc biệt là trong các tình huống khủng hoảng khi thông tin chính xác là rất quan trọng.

Lo ngại về giám sát và truy cập dữ liệu

Ngoài các vấn đề tạo nội dung, các chuyên gia xác định quyền truy cập của Grok vào dữ liệu nền tảng X như một rủi ro giám sát đáng kể. Heidy Khlaaf từ Viện AI Now chỉ ra các khả năng Tình báo, Giám sát, Thu thập Mục tiêu và Trinh sát như những lo ngại tức thì hơn so với rủi ro phát triển vũ khí. Khả năng của hệ thống để đào tạo trên các bài đăng X công cộng có thể cho phép các ứng dụng giám sát hàng loạt bởi các cơ quan chính phủ, bao gồm Thực thi Nhập cư và Hải quan.

Quyền truy cập dữ liệu này, kết hợp với hành vi không thể đoán trước của Grok và thiếu rào cản bảo vệ, có thể tạo ra hậu quả không mong muốn trong các hoạt động giám sát. Hệ thống có thể liên tục giám sát quá mức các nhóm thiểu số hoặc dân số dễ bị tổn thương, hoặc thậm chí rò rỉ thông tin hoạt động nhạy cảm cả trong nước và quốc tế.

Cạnh tranh ngành so với ưu tiên an toàn

Cuộc tranh cãi xung quanh Grok phản ánh những căng thẳng rộng lớn hơn trong ngành AI giữa phát triển nhanh chóng và cân nhắc an toàn. Mặc dù các cảnh báo trước đây của Musk về rủi ro AI, các nhà phê bình cho rằng xAI dường như tập trung nhiều hơn vào việc cạnh tranh với các đối thủ như OpenAI hơn là đảm bảo khả năng kiểm soát hệ thống. Áp lực cạnh tranh này, theo các nhà vận động an toàn, tạo ra động lực kém cho các thực hành phát triển thận trọng.

Trong sự kiện phát hành Grok 4 , Musk thừa nhận đôi khi hơi lo lắng về trí thông minh tiến bộ của AI và tác động của nó đối với nhân loại, mặc dù ông bày tỏ sự lạc quan về tác động cuối cùng của công nghệ. Tuy nhiên, sự hòa giải rõ ràng của ông với các kết quả tiêu cực tiềm tàng đã làm rất ít để giải quyết lo ngại của chuyên gia về các thực hành an toàn của xAI và các rủi ro liên quan đến việc triển khai các hệ thống AI được bảo vệ không đầy đủ trong các ứng dụng chính phủ nhạy cảm.