Công cụ AI viết báo cáo cảnh sát của Axon cố tình che giấu dấu vết bằng chứng, cuộc điều tra tiết lộ

Nhóm Cộng đồng BigGo
Công cụ AI viết báo cáo cảnh sát của Axon cố tình che giấu dấu vết bằng chứng, cuộc điều tra tiết lộ

Một cuộc điều tra mới của Electronic Frontier Foundation đã phát hiện những chi tiết đáng lo ngại về Draft One của Axon, một công cụ AI viết báo cáo cảnh sát từ âm thanh camera đeo trên người. Hệ thống này có vẻ được thiết kế để tránh minh bạch thay vì cải thiện nó, đặt ra những câu hỏi nghiêm trọng về trách nhiệm giải trình trong thực thi pháp luật.

Công cụ AI Draft One của Axon đặt ra những câu hỏi nghiêm trọng về trách nhiệm giải trình và tính minh bạch trong thực thi pháp luật
Công cụ AI Draft One của Axon đặt ra những câu hỏi nghiêm trọng về trách nhiệm giải trình và tính minh bạch trong thực thi pháp luật

Dấu vết giấy tờ biến mất

Draft One tạo ra các báo cáo cảnh sát bằng cách xử lý âm thanh từ camera đeo trên người của cảnh sát bằng một hệ thống giống như ChatGPT. Tuy nhiên, bản thảo gốc do AI tạo ra sẽ biến mất ngay khi các cảnh sát hoàn thành việc chỉnh sửa. Đây không phải là sự bỏ sót - mà là có chủ ý. Một quản lý sản phẩm của Axon đã công khai tuyên bố họ không lưu trữ các bản thảo gốc vì điều cuối cùng chúng tôi muốn làm là tạo ra nhiều rắc rối tiết lộ thông tin hơn cho khách hàng của chúng tôi.

Lựa chọn thiết kế này có nghĩa là không ai có thể biết được những phần nào của báo cáo cảnh sát cuối cùng đến từ AI và những phần nào được viết bởi cảnh sát con người. Khi lỗi, thiên kiến, hoặc thậm chí là lời nói dối xuất hiện trong báo cáo, không có cách nào để xác định liệu AI hay cảnh sát phải chịu trách nhiệm.

Mối quan ngại của cộng đồng về trách nhiệm giải trình

Các cuộc thảo luận trong cộng đồng công nghệ cho thấy sự hoài nghi sâu sắc về cách tiếp cận này. Nhiều người chỉ ra vấn đề cơ bản: các cảnh sát được cho là phải chịu trách nhiệm đầy đủ cho các báo cáo họ ký, nhưng bản chất con người cho thấy họ sẽ ngày càng dựa vào AI mà không xem xét cẩn thận.

Vậy nên chúng tôi không lưu trữ bản thảo gốc và điều đó là có thiết kế và thực sự là vì điều cuối cùng chúng tôi muốn làm là tạo ra nhiều rắc rối tiết lộ thông tin hơn cho khách hàng của chúng tôi và các văn phòng luật sư của chúng tôi

Việc so sánh với các tiêu chuẩn an toàn hàng không thường xuyên xuất hiện trong các cuộc thảo luận. Phi công vẫn phải chịu trách nhiệm cho các quyết định của hệ thống tự động lái, nhưng họ có nhật ký chi tiết và hệ thống để theo dõi những gì đã xảy ra. Draft One không cung cấp sự minh bạch nào như vậy.

Các Hành Động Lập Pháp:

  • California AB-2544: Sẽ yêu cầu tiết lộ thông tin AI và lưu giữ bản thảo
  • Utah: Đang xem xét các yêu cầu tiết lộ thông tin AI bắt buộc
  • King County, Washington: Công tố viên quận cấm các báo cáo cảnh sát sử dụng AI
  • EU AI Act: Cụ thể cấm các ứng dụng AI thực thi pháp luật như vậy

Vấn đề kiểm toán

Ngay cả những câu hỏi cơ bản về việc sử dụng Draft One cũng gần như không thể trả lời. Các sở cảnh sát không thể dễ dàng tạo ra danh sách những cảnh sát nào đã sử dụng hệ thống hoặc báo cáo nào có sự hỗ trợ của AI. Một số sở đã nói với những người yêu cầu hồ sơ công khai rằng họ đơn giản là không thể xác định các báo cáo do AI tạo ra.

Những tính năng kiểm toán ít ỏi tồn tại cũng cực kỳ hạn chế. Các quản trị viên phải tìm kiếm thủ công qua từng nhật ký cảnh sát riêng lẻ hoặc tìm kiếm các từ khóa cụ thể trong văn bản báo cáo. Đối với các sở lớn với hàng trăm hoặc hàng nghìn cảnh sát, việc giám sát có ý nghĩa trở nên thực tế không thể thực hiện được.

Hạn chế Kiểm toán Draft One:

  • Không có tính năng xuất danh sách các sĩ quan đã sử dụng hệ thống
  • Không có cách nào xuất danh sách các báo cáo do AI tạo ra (trừ khi thêm tiết lộ tùy chỉnh)
  • Chỉ theo dõi các hành động cơ bản: yêu cầu bản thảo, ký cam kết trách nhiệm pháp lý
  • Cần xem xét thủ công từng sĩ quan một cách riêng lẻ
  • Một số phòng ban không thể xác định được các báo cáo AI

Tác động thực tế

Một số sở cảnh sát đã sử dụng Draft One, với kết quả trái chiều về lợi ích được tuyên bố là tiết kiệm thời gian. Đáng lo ngại hơn là các trường hợp được ghi nhận khi hệ thống cho phép các cảnh sát bỏ qua các rào cản an toàn được thiết kế để ngăn chặn việc gửi nội dung AI chưa được chỉnh sửa.

Công nghệ này cũng có vẻ đang thay đổi cách cảnh sát viết báo cáo hoàn toàn, với một số sở ghi nhận sự khác biệt đáng kể trong định dạng tường thuật. Tuy nhiên nhiều sở đã triển khai hệ thống mà không tham khảo ý kiến của các công tố viên, những người dựa vào các báo cáo này cho các vụ án tại tòa.

Người dùng hiện tại của Draft One:

  • Frederick Police Department ( Colorado ) - người áp dụng sớm
  • Lafayette Police Department ( Indiana ) - báo cáo không thể tìm kiếm được
  • Palm Beach County Sheriff's Office ( Florida ) - đã tạo ra hơn 1.000 báo cáo từ tháng 12/2024 đến tháng 3/2025
  • Campbell Police Department - ghi nhận những thay đổi đáng kể trong định dạng tường thuật

Phản ứng lập pháp

California đang xem xét luật pháp yêu cầu các báo cáo cảnh sát do AI tạo ra phải bảo tồn các bản thảo gốc và bao gồm tiết lộ rõ ràng về sự tham gia của AI. Vì Draft One được thiết kế cụ thể để không giữ lại các bản thảo, nó không thể tuân thủ các yêu cầu như vậy.

Các khu vực pháp lý khác đang có lập trường mạnh mẽ hơn. Văn phòng công tố quận King County, Washington đã hướng dẫn cảnh sát không sử dụng AI để viết báo cáo, viện dẫn mối quan ngại về độ tin cậy và trách nhiệm giải trình.

Cuộc điều tra làm nổi bật căng thẳng rộng lớn hơn giữa hiệu quả công nghệ và minh bạch hệ thống tư pháp. Trong khi các công cụ AI có thể cải thiện việc báo cáo của cảnh sát, việc triển khai hiện tại ưu tiên sự tiện lợi hơn trách nhiệm giải trình - một diễn biến đáng lo ngại trong một hệ thống đã bị chỉ trích vì thiếu giám sát.

Tham khảo: Axon's Draft One is Designed to Defy Transparency