Theo BGR, các nhà nghiên cứu vừa phát hiện một lỗ hổng bảo mật nghiêm trọng trên chatbot AI (trí tuệ nhân tạo), cho phép tin tặc dễ dàng đánh cắp dữ liệu cá nhân của người dùng.
Chatbot AI có thể bị 'dụ dỗ' bằng câu lệnh độc hại
Theo đó, kẻ tấn công có thể lợi dụng lỗ hổng này bằng cách 'cài cắm' những lệnh yêu cầu (prompt) độc hại vào chatbot. Khi người dùng sử dụng những câu lệnh này, chatbot sẽ bị đánh lừa để tiết lộ thông tin cá nhân như tên, số căn cước, thông tin thẻ tín dụng, địa chỉ email...
Các nhà nghiên cứu từ Đại học California, San Diego (UCSD - Mỹ) và Đại học Công nghệ Nanyang (Singapore) đã thành công trong việc khai thác lỗ hổng này trên chatbot LeChat của Mistral (Pháp) và ChatGLM (Trung Quốc). Mistral đã khắc phục lỗ hổng, trong khi các công ty khác đang nỗ lực ngăn chặn kiểu tấn công này.
Trước đó, một lỗ hổng tương tự cũng được phát hiện trên ứng dụng ChatGPT dành cho Mac.
Các chuyên gia khuyến cáo người dùng nên cẩn trọng khi sử dụng chatbot AI, hạn chế cung cấp thông tin cá nhân và tránh sử dụng các câu lệnh không rõ nguồn gốc. Trong tương lai, khi trí tuệ nhân tạo ngày càng phát triển, việc bảo vệ dữ liệu cá nhân trên các nền tảng AI sẽ trở nên quan trọng hơn bao giờ hết.
Bình luận (0)