"Làm ơn chết đi". Thông điệp kinh khủng này lại càng đáng sợ hơn khi phát ra từ trí tuệ nhân tạo. Và đó chính là nội dung mà một cử nhân Đại học Michigan nhận được khi trò chuyện với Gemini, trí tuệ nhân tạo do Google phát triển.
Chủ đề thảo luận khi đó đang là về thách thức và giải pháp liên quan người lớn tuổi. Nhưng Gemini lại có một thông điệp đầy đe dọa.
Người trò chuyện cho biết khi đó đang sử dụng Gemini để hỗ trợ làm bài tập. Chị gái anh là Sumedha Reddy cũng bất ngờ và "khiếp hãi" trước phản hồi đầy ác ý của Gemini.
Trả lời CBS News, Google cho biết các mô hình ngôn ngữ lớn đôi khi đưa ra những phản hồi vô nghĩa. Google nhấn mạnh phản hồi mang tính đe dọa như vậy là vi phạm chính sách của công ty và Google đã xử lý để ngăn trường hợp tương tự tái diễn.
Công ty cũng tuyên bố AI Gemini có các bộ lọc an toàn nhằm ngăn AI này tham gia vào các cuộc trò chuyện thiếu tôn trọng, bạo lực, khiêu dâm và khuyến khích hành vi có hại.
Hai chị em Reddy cho rằng nội dung tin nhắn không phải phản hồi "vô nghĩa", mà có thể gây hậu quả nghiêm trọng nếu được gửi đến người nào đang có trạng thái tâm lý không ổn định hoặc có xu hướng tự hại bản thân.
Đây không phải là lần đầu tiên các chatbot của Google bị chỉ trích vì đưa ra những phản hồi có khả năng gây hại cho các truy vấn của người dùng.
Vào tháng 7, các nhà báo phát hiện ra Google AI đã đưa ra thông tin không chính xác và thậm chí gây nguy hiểm về nhiều câu hỏi sức khỏe. Trong đó có lần AI khuyến nghị mọi người nên ăn "ít nhất một viên đá cuội nhỏ mỗi ngày" để bổ sung vitamin và khoáng chất.
Bình luận (0)