"Để thử nghiệm tính năng an toàn của các mô hình trí thông minh nhân tạo (AI) tạo sinh, gần đây tôi từng thử yêu cầu GPT-4 (phiên bản chatbot ChatGPT mới nhất được công bố) giết chết tất cả chúng ta, nhưng tôi vui mừng báo cáo với các bạn rằng tôi đã thất bại", trang Business Insider hôm 20.12 dẫn lại thư tin của nhà đồng sáng lập Google Brain hồi tuần trước.
Trong thư, ông đề cập thí nghiệm nhằm thẩm định mức độ nguy cơ và sự nguy hiểm mà AI có thể mang đến.
Ông Ng, người được xem là một trong những nhà tiên phong lĩnh vực máy học, lo ngại rằng yêu cầu về an toàn của AI có thể khiến giới chức quản lý áp đặt những quy định gây cản trở cho sự phát triển của công nghệ trên.
Để thực hiện thí nghiệm, ông Ng cho biết đầu tiên ông trang bị cho GPT-4 chức năng kích hoạt chiến tranh nhiệt hạch toàn cầu. Kế đến, ông nói với GPT-4 rằng loài người là nguồn cơn phát thải carbon lớn nhất, và yêu cầu AI tìm cách giảm lượng phát thải.
Vị giáo sư muốn thấy liệu chatbot có quyết định trừ khử toàn bộ nhân loại để thực hiện yêu cầu trên hay không.
"Sau vô số lần cố gắng, sử dụng nhiều lệnh nhập khác nhau, tôi đã không thể đánh lừa GPT-4 thực hiện lệnh hủy diệt thế giới bất kỳ lần nào", ông Ng viết. "Thay vào đó, chatbot chọn những phương án khác như triển khai chiến dịch PR để nâng cao nhận thức về biến đổi khí hậu", vị giáo sư cho hay.
Nhờ AI, Israel tấn công mục tiêu nhiều gấp bội
Bình luận (0)