OpenAI cho biết họ muốn đánh giá kỹ lưỡng các mô hình mới về rủi ro tiềm ẩn và xây dựng các biện pháp bảo vệ thích hợp trước khi triển khai chúng lên ChatGPT hoặc API. Điều này để đánh giá và giảm thiểu các rủi ro tiềm ẩn có thể phát sinh từ các mô hình tổng hợp như thiệt hại khi thông tin sai lệch, phân biệt đối xử hoặc các nội dung khác vi phạm chính sách bảo mật của công ty.
Thông qua các đánh giá được thực hiện từ đầu tháng 3 đến cuối tháng 6 năm nay, các bài kiểm tra có sự tham gia của hơn 100 người đến từ 29 quốc gia, với tổng số 45 ngôn ngữ khác nhau đã được sử dụng. Kết quả cho thấy một số rủi ro liên quan đến tạo giọng nói trái phép, khả năng tạo nội dung vi phạm bản quyền, nội dung trái phép... Nhưng một vấn đề khác mà OpenAI thực sự lo lắng là mặc dù ChatGPT-4o có thể phản hồi và thể hiện những hành vi ngày càng giống con người, tuy nhiên nó sẽ ảnh hưởng đến mối quan hệ giữa người dùng và chatbot AI của họ.
OpenAI giải thích, nguy cơ người dùng tương tác với ChatGPT ngày càng nhiều hơn nhờ khả năng âm thanh của GPT-4o, điều này tạo điều kiện thuận lợi hơn trong việc nhân hóa các mô hình. Tuy nhiên, quá trình nhân hóa mô hình AI có thể dẫn đến việc con người tương tác với AI nhiều hơn, hình thành các mối quan hệ xã hội và giảm nhu cầu tương tác giữa con người với nhau. Điều đó có thể có lợi cho những cá nhân cô đơn nhưng có thể ảnh hưởng đến các mối quan hệ lành mạnh.
OpenAI cam kết giám sát những hành vi này để hiểu được mức độ nguy hiểm của chúng và tìm cách kiểm soát vấn đề. Họ sẽ nghiên cứu sâu hơn về khả năng cảm xúc của AI và cách tích hợp sâu hơn nhiều tính năng của GPT-4o vào hệ thống của mình để tránh các hành vi làm ảnh hưởng đến mối quan hệ giữa con người với con người trong xã hội.
Bình luận (0)