Mọi thứ càng trở nên nguy hiểm hơn khi Deepfake đang thêm phần chân thực hơn và khó để phân biệt được với nội dung thực tế, khiến việc phát hiện và xác định chúng khó khăn hơn trên internet. Vậy tại sao Deepfake lại ngày càng khó phát hiện hơn?
Chính nhu cầu ngày càng tăng của Deepfake khiến các công ty AI thu thập dữ liệu nhiều hơn để đào tạo và cải thiện mô hình AI của họ, giúp đáp ứng nhu cầu của khách hàng. Một trong những nguồn dữ liệu đào tạo phổ biến nhất là internet, nơi liên tục lưu trữ nhiều nội dung và thông tin hơn khi ngày càng nhiều người dùng chia sẻ dữ liệu của họ trên nhiều nền tảng khác nhau. Khi người dùng tương tác với AI thường xuyên có nghĩa cho phép họ thu thập dữ liệu của mình nhiều hơn.
Kết hợp với sự phát triển gần đây của AI tạo sinh mà các công ty và nhà phát triển tập trung cải tiến trong thời gian qua, Deepfake càng thêm phần chân thực và lên tầm cao mới. Một ví dụ tiêu biểu là trình tạo video Sora gần đây của OpenAI cho thấy ngành công nghiệp này đã tiến xa trong việc sao chép hình ảnh thực tế thành các bản sao kỹ thuật số có thể tùy chỉnh.
Trong khi đó, các hướng dẫn an toàn liên quan đến công nghệ này còn hạn chế khiến những người không biết về AI khó có thể nhận dạng được. Kết quả thường khiến nhiều người cảm thấy bối rối hoặc hiểu sai về những hình ảnh, video và âm thanh được tạo ra bởi Deepfake. Độ chân thực khó nhận biết này đã mở đường cho những kẻ tội phạm tìm cách sử dụng các nội dung giả mạo cho mục đích xấu nhằm tống tiền người khác, phát tán thông tin sai lệch và thậm chí sử dụng cho các chiến dịch lừa đảo.
Bình luận (0)