Deepfake là công nghệ được biết đến nhiều nhất với tác dụng tái tạo lại khuôn mặt của người trong video nhờ sử dụng trí tuệ nhân tạo (AI). Ban đầu, công nghệ này được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế. Tuy nhiên, giới tội phạm nhanh chóng lợi dụng ưu điểm đó để tạo ra công cụ giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo, hoặc lan truyền tin thất thiệt trên mạng.
Trên thế giới đã có nhiều trường hợp lừa đảo liên quan đến Deepfake được ghi nhận. Mới đây nhất, một gia đình tại Texas (Mỹ) đã mất hàng nghìn USD chuyển cho kẻ gian sau khi chúng sử dụng AI và Deepfake để giả giọng con trai họ thông báo vừa gặp tai nạn xe hơi, theo Daily Mail.
Hoặc trường hợp những bức hình cựu Tổng thống Mỹ Donald Trump bị cảnh sát đưa đi được phát tán trên mạng gần đây thực chất do AI tạo ra. Một số người thậm chí lợi dụng công nghệ Deepfake để bắt đầu tạo ra những video quay cảnh ông Trump bị bắt.
"Thật không may khi các AI có thể tạo ra những bức hình vô cùng chân thực lại đang trở thành công cụ đắc lực cho việc lan truyền tin thất thiệt trong cộng đồng. Chúng ta đang chứng kiến một hình thức 'thông tin sai lệch có chủ đích' khi các tin đồn được hiện thực hóa thông qua việc tạo nên những dạng ấn phẩm truyền thông làm minh chứng cho sự kiện chưa từng xảy ra", nhà nghiên cứu Joan Donovan tại đại học Harvard (Mỹ) nhận định.
Đã thấy Obama sỉ nhục thậm tệ Trump? Bạn chỉ là một nạn nhân của "deepfake"
Trao đổi với Thanh Niên, chuyên gia công nghệ Vũ Ngọc Sơn (Công ty công nghệ an ninh mạng Việt Nam - NCS), đánh giá Deepfake sinh ra không phải với mục tiêu xấu. "Đó đơn thuần là ứng dụng mang tính giải trí. Trước kia có rất nhiều phần mềm chụp ảnh tĩnh cho phép người dùng ghi lại khoảnh khắc dưới hình dáng của nhân vật hoạt hình hay siêu sao. Deepfake là một cải tiến mới, thay vì ảnh tĩnh thì nhân vật trở nên sống động, hấp dẫn hơn, có những pha hành động, diễn xuất như thật hay giọng nói khớp với cử động khuôn mặt", ông giải thích.
Theo ông, công nghệ này đang được sử dụng vào mục đích xấu nhiều hơn nên gần đây khi nhắc đến "Deepfake", người ta nghĩ ngay đến công cụ xấu. Trên thị trường phổ thông, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên clip do AI tạo nên thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh và hình ảnh không cao. Trong những clip đó, khuôn mặt nhân vật thường khá "cứng" và ít cảm xúc hơn tự nhiên, hình thể cũng hạn chế di chuyển so với clip thông thường.
"Vì vậy, nếu để ý kỹ có thể phát hiện ra được. Bạn không nên tin vào các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, giọng nói không trơn tru hoặc quá đều đều, không ngắt nghỉ", chuyên gia Vũ Ngọc Sơn khuyến cáo.
Lãnh đạo NCS cũng cho biết trên thế giới có những giải pháp để phát hiện clip được tạo ra nhờ Deepfake hay không, nhưng các công cụ này chưa phổ biến và cách dùng phức tạp hơn so với những ứng dụng tạo ra video giả mạo. Ông nói: "Công nghệ luôn là một quá trình phát triển không ngừng và các công nghệ giúp Deepfake ngày càng giống thật hơn sẽ đến trong thời gian gần, đòi hỏi giải pháp chống Deepfake cũng phải cải tiến liên tục để có thể phát hiện ra".
Hiện tại, các mạng xã hội phổ biến toàn cầu như Facebook, Twitter, TikTok đều áp dụng công cụ riêng để phát hiện video Deepfake, đồng thời cấm đăng tải nội dung do công nghệ này tạo ra lên nền tảng của họ. Tuy vậy, việc phát hiện chỉ ở mức tương đối và kẻ gian vẫn không ngừng tìm cách để lách qua bộ lọc của mạng xã hội.
Theo các chuyên gia bảo mật, để có thể kiểm tra phía bên người gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ, thì còn có một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là "tạo mặt nạ" hoặc "xóa nền".
Bình luận (0)