Tranh cãi việc ứng dụng AI để tống giam tội phạm

26/01/2019 12:50 GMT+7

Tại hội nghị Data for Black Lives diễn ra ở Mỹ vừa qua, nhiều nhà công nghệ, chuyên gia pháp lý và hoạt động cộng đồng bàn về hệ thống tư pháp hình sự của Mỹ.

Theo MIT Technology Review, trong hệ thống này, thuật toán trí tuệ nhân tạo (AI) có thể được dùng để xác định khuynh hướng phạm pháp của con người. Mỹ là nơi có nhiều người đi tù nhất thế giới. Tính đến cuối năm 2016, gần 2,2 triệu người Mỹ trưởng thành bị giam trong các nhà tù, và 4,5 triệu người khác thì ở trại cải huấn. Cứ mỗi 38 người trưởng thành sẽ có một người chịu một số hình thức giám sát nào đó.
Dưới áp lực giảm số lượng tù nhân mà không gia tăng số hành vi phạm pháp, nhiều tòa án Mỹ chuyển sang dùng công cụ tự động với kỳ vọng quản lý bị cáo bằng hệ thống an toàn, hiệu quả nhất có thể. Đây là nơi mà câu chuyện ứng dụng AI bắt đầu.
Nhiều sở cảnh sát sử dụng thuật toán dự đoán để chiến lược hóa nơi điều động nhân viên. Các cơ quan thực thi pháp luật sử dụng hệ thống nhận dạng khuôn mặt để hỗ trợ xác định nghi phạm. Những ứng dụng này được giám sát gắt gao, xét xem liệu chúng có thực sự cải thiện độ an toàn hay vẫn duy trì tình trạng bất bình đẳng hiện thời. 
Nhiều nhà nghiên cứu và những người ủng hộ quyền công dân nhiều lần chứng minh rằng các hệ thống nhận diện khuôn mặt có thể thất bại, đặc biệt là khi áp dụng với cá nhân da màu. Thậm chí, một hệ thống còn nhầm lẫn thành viên Quốc hội Mỹ với tội phạm đã bị kết án. Đến nay, công cụ gây tranh cãi nhất là thuật toán đánh giá rủi ro hình sự. Nó gây chú ý sau khi được cảnh sát sử dụng để thực hiện một vụ bắt giữ.
Công cụ đánh giá rủi ro được xây dựng để thực hiện một việc: Lấy thông tin chi tiết về hồ sơ của bị cáo rồi đưa ra điểm số tái phạm. Con số duy nhất này ước tính khả năng tái phạm của một người. Điểm càng cao, khả năng tái phạm càng lớn. Thẩm phán người thật sau đó xem xét điểm số và quyết định loại hình dịch vụ phục hồi mà bị cáo xứng đáng nhận, liệu bị cáo có nên bị giam giữ trước khi xét xử hay nên nhận mức án phạt nặng ra sao.
Logic của thuật toán trên là nếu giới thực thi pháp luật có thể dự đoán chính xác hành vi tội phạm, họ có thể phân bổ nguồn lực phù hợp. Về lý thuyết, nó có thể giảm thiên kiến ảnh hưởng đến quá trình phân xử vì thẩm phán thường ra quyết định dựa vào khuyến nghị dựa trên dữ liệu, không phải suy nghĩ của riêng họ.
Vấn đề nằm ở chỗ: Các công cụ đánh giá rủi ro hiện đại thường được điều khiển bởi thuật toán được đào tạo bằng dữ liệu phạm tội trong quá khứ. Thuật toán máy học (machine learning) dùng số liệu thống kê để tìm hình mẫu trong dữ liệu. Vì thế, nếu chúng ta cung cấp cho thuật toán dữ liệu phạm tội trước đây, nó sẽ chọn nhiều hình mẫu liên quan đến tội phạm.
Các hình mẫu nói trên có sự tương quan về mặt thống kê chứ không chú trọng mặt tác nhân - kết quả. Ví dụ, thuật toán phát hiện ra rằng thu nhập thấp có tương quan với khả năng tái phạm cao, nhưng nó vẫn không thể đưa ra câu trả lời chính xác rằng thu nhập thấp thực sự là yếu tố gây ra hành vi phạm pháp. Thuật toán đánh giá rủi ro biến hiểu biết tương quan thành các cơ chế tính điểm tác nhân - kết quả thực thụ.
Lực lượng thực thi pháp luật Mỹ đã có khuynh hướng chú ý hơn đến cộng đồng thu nhập thấp và sắc dân thiểu số. Đây là hai nhóm người có nguy cơ nhận điểm số rủi ro tái phạm cao. Vì thế, thuật toán có thể khuếch đại và duy trì thành kiến, tạo thêm dữ liệu có độ thành kiến cao hơn và sinh ra chu kỳ luẩn quẩn.
Tranh luận về việc ứng dụng thuật toán để xác định tội phạm vẫn tồn tại. Tháng 7.2018, hơn 100 tổ chức ủng hộ quyền công dân và tổ chức cộng đồng ký vào tuyên bố kêu gọi chống ứng dụng thuật toán đánh giá rủi ro phạm pháp. Ngày càng nhiều tiểu bang ở Mỹ, trong đó có California, hoãn ứng dụng công nghệ AI để bỏ tù nghi phạm.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.