Lừa đảo AI giả giọng nói tràn lan tại Mỹ

14/06/2023 07:35 GMT+7

Giới chuyên gia cảnh báo một trong những hiểm họa lớn nhất của trí tuệ nhân tạo là bị tội phạm mạng lợi dụng.

Những kẻ lừa đảo đang sử dụng công nghệ trí tuệ nhân tạo (AI) với các ứng dụng đầy rẫy trên mạng nhằm bắt chước giọng nói của người thân các nạn nhân, trong thủ đoạn đang khiến giới chức Mỹ phát cảnh báo. Theo AFP, tội phạm mạng dùng deepfake, tức sử dụng AI tạo hình ảnh, âm thanh và video giả mạo để lừa đảo và khiến nạn nhân khó phân biệt được thật - giả.

"Mẹ ơi, cứu con !"

Giọng nói giả qua điện thoại nghe như thật đã khiến một bà mẹ tại Mỹ mới đây tưởng rằng con gái mình bị một người đàn ông bắt cóc. "Mẹ ơi, làm ơn cứu con", bà Jennifer DeStefano, tại bang Arizona, mới đây nghe qua điện thoại tiếng con gái nức nở, trước khi một người đàn ông xen ngang và đòi tiền chuộc. Bà mẹ bị thuyết phục 100% rằng con gái mình vốn đang đi trượt tuyết đã bị bắt cóc. "Tôi không hề thắc mắc xem đó là ai. Hoàn toàn là giọng con bé. Đó là cách con bé hay khóc nên tôi không nghi ngờ chút nào", bà kể.

Lừa đảo AI giả giọng nói tràn lan tại Mỹ - Ảnh 1.

AI có thể tạo giọng nói giả khó phân biệt với giọng thật

AFP

Kẻ lừa đảo dùng một số điện thoại lạ và yêu cầu bà nộp số tiền chuộc lên đến 1 triệu USD. Màn lừa đảo công nghệ AI bị lộ chỉ vài phút sau khi bà DeStefano liên lạc được với con gái mình. Vụ việc đang được cảnh sát điều tra và phản ánh nguy cơ tội phạm mạng lợi dụng khả năng tạo giọng nói của AI. Theo tạp chí Organizer dẫn lời ông Wasim Khaled, CEO của Công ty Blackbird.AI (Mỹ), công nghệ sử dụng AI bắt chước giọng nói giờ đây hầu như khiến mọi người không thể phân biệt với giọng thật. "Điều đó giúp những kẻ lừa đảo lấy tiền, thông tin từ các nạn nhân một cách hiệu quả hơn", ông cho biết.

Cảnh báo đáng sợ của cựu giám đốc Google: AI có năng lực 'bóp chết' loài người

Trò lừa ông bà

Giới chức Mỹ còn cảnh báo về sự gia tăng "trò lừa ông bà", khi tội phạm mạo danh một đứa cháu đang cần tiền giải quyết một tình huống khó khăn. "Bạn nhận được một cuộc gọi với giọng hốt hoảng của cháu mình. Đứa cháu nói rằng nó đang gặp rắc rối lớn, bị đụng xe và bị tạm giam. Nhưng bạn có thể giúp bằng cách gửi tiền", theo cảnh báo của Ủy ban Thương mại liên bang Mỹ (FTC). Cơ quan này cho biết giọng nói giống hệt của đứa cháu nên mọi người sẽ không thắc mắc, nhưng thực chất đó là giọng nói giả tạo. Những dòng bình luận bên dưới lời cảnh báo của FTC cho thấy nhiều người cao tuổi thừa nhận đã bị lừa theo hình thức này.

"Giờ đây rất dễ tạo giọng nói bắt chước nghe như thật, nên hầu như bất cứ ai hiện diện trên mạng cũng dễ trở thành nạn nhân", Giáo sư Hany Farid tại Đại học California (Mỹ) cho biết và cảnh báo rằng những trò lừa đảo này đang ngày càng phổ biến. Chuyên gia công nghệ Gal Tal-Hochberg tại Team8, công ty về an ninh mạng tại Israel, cho rằng chúng ta đang tiến nhanh đến thời điểm không thể tin tưởng những gì thấy trên mạng. "Chúng ta sẽ cần công nghệ mới để biết rằng người mà bạn đang nói chuyện có thực sự là người đó hay không", ông cho biết.

Đã thấy Obama sỉ nhục thậm tệ Trump? Bạn chỉ là một nạn nhân của "deepfake"

Kẻ mạo danh nhân tạo

Công ty an ninh mạng McAfee (Mỹ) mới đây công bố khảo sát mang tên "Kẻ mạo danh nhân tạo", cho thấy nhiều người không phân biệt được giọng thật và giọng giả. Khảo sát có sự tham gia của 7.054 người từ 9 quốc gia, trong đó có Mỹ và Ấn Độ, cho thấy nhiều người từng là nạn nhân hoặc biết về trường hợp bị lừa bởi công nghệ AI tạo giọng nói. Khoảng 70% thừa nhận họ không tự tin phân biệt giữa giọng thật và giọng do AI tạo ra.

Theo Reuters, Tổng thư ký LHQ Antonio Guterres ngày 12.6 ủng hộ đề xuất của một số lãnh đạo các công ty về AI về việc thành lập một cơ quan quốc tế giám sát AI. "Những hồi chuông báo động về hình thức mới nhất của AI là AI tạo sinh đang được gióng lên lớn nhất từ những nhà phát triển đã thiết kế nó. Chúng ta phải nghiêm túc xem xét những lời cảnh báo đó", ông kêu gọi. Ngoài ra, ông công bố kế hoạch bắt đầu hoạt động của một cơ quan cố vấn cấp cao về AI trong năm nay.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.