Các nhà nghiên cứu của Trường Harvard Kennedy (Mỹ) vừa công bố trên tạp chí Misinformation Review về chủ đề các bài viết do GenAI xuất hiện trên Google Scholar - công cụ tìm kiếm về học thuật phổ biến nhất thế giới - đang gây ra những tác động nghiêm trọng ra sao.
Nghiên cứu kết luận, các tạp chí học thuật, kho lưu trữ khoa học đang chứng kiến ngày càng nhiều bài viết đáng ngờ được tạo ra bằng GenAI (Generative AI - Trí tuệ nhân tạo tạo sinh). Trong đó ChatGPT là mô hình ngôn ngữ lớn được sử dụng nhiều nhất. Họ gọi đây là những "bài nghiên cứu khoa học giả".
Dữ liệu trong nghiên cứu được thu thập bằng cách phân tích loạt báo cáo khoa học trên Google Scholar. Bằng cách tìm kiếm những cụm từ phổ biến liên quan đến ChatGPT và các công cụ tương tự, như: "Tôi không có quyền truy cập vào dữ liệu theo thời gian thực", hay "Tính đến bản cập nhật gần nhất của tôi"... các nhà nghiên cứu xác định đang có khoảng 139 bài viết chứa cụm từ khóa này trên kho tìm kiếm học thuật của Google.
"Hầu hết nghiên cứu học thuật được viết bằng ChatGPT được tìm thấy trong các tạp chí và bài báo không được lập chỉ mục. Tuy nhiên một số nhỏ nghiên cứu này đã được công bố trên tạp chí khoa học chính thống và cả hội nghị", nhóm tác giả của Harvard Kennedy kết luận.
Khoảng 2/3 những "nghiên cứu khoa học giả" này có khả năng gây hiểu nhầm. 57% bài viết tập trung ở những chủ đề gây tranh cãi liên quan đến sức khỏe, máy tính và môi trường.
Theo giới học thuật, hai rủi ro chính từ những bài viết khoa học được viết bởi GenAI là sự xuất hiện ồ ạt các bài viết có thể làm quá tải hệ thống truyền thông học thuật. ChatGPT dễ dàng viết ra hàng trăm bài báo khoa học mỗi ngày, sau đó được phân bổ khắp các ngõ ngách của cơ sở hạ tầng nghiên cứu. Việc này gây nguy hiểm lớn cho tính toàn vẹn của hồ sơ khoa học.
Rủi ro thứ hai nghiêm trọng hơn khi những nội dung được AI bịa ra càng trở nên thuyết phục khi nó được xuất bản dưới tên một nhà khoa học. Từ lâu Google Scholar được giới học thuật xem là nguồn đáng tin cậy để tìm kiếm tài liệu học thuật. Nhiều nơi thậm chí đề xuất nhà nghiên cứu nên mở rộng thông tin tìm kiếm từ nguồn ngày. Tuy nhiên việc các nội dung do ChatGPT tạo ra, qua mặt được Google Scholar sẽ làm suy yếu niềm tin của cộng đồng vào kiến thức khoa học. Từ đó sẽ gây ra những rủi ro nghiêm trọng cho xã hội.
Google và OpenAI - công ty tạo ra ChatGPT - chưa đưa ra phản hồi chính thức về nội dung này.
Các nội dung do AI tạo ra sẽ ngày càng tinh vi
Những rủi ro liên quan đến ChatGPT trong môi trường học thuật đang trở thành vấn đề được giới khoa học đặc biệt quan tâm khi OpenAI vừa công khai mô hình ngôn ngữ lớn (LLM) có khả năng lý luận. Công ty cho biết GPT-o1 của họ có tư duy tương đương một nghiên cứu sinh tiến sĩ. Điều này khiến giới học thuật lo ngại các nội dung do AI tạo ra sẽ ngày càng tinh vi, nhiều người sẽ không thể phân biệt đâu là nội dung do AI tạo ra, đâu là kết quả nghiên cứu thật sự.
Jerry Tworek, trưởng nhóm nghiên cứu của OpenAI, cho biết GPT-o1 được thiết kế để có thể tư duy tương tự con người. So với mô hình cũ, GPT-o1 có thể giải quyết những vấn đề phức tạp hơn, hiển thị quá trình suy luận và giảm hiện tượng "ảo giác".
"Ảo giác AI" là thuật ngữ chỉ việc trí tuệ nhân tạo tự bịa ra câu trả lời nhưng lại làm chúng nghe vô cùng thuyết phục. Tworek thừa nhận vấn đề này vẫn chưa được giải quyết hoàn toàn trên mô hình mới.
Trong khi GenAI ngày càng phổ biến và có nhiều tiến bộ, các chuyên gia cho rằng một trong những cách khả thi nhất để giảm thiểu rủi ro từ những "nghiên cứu giả" do ChatGPT viết là hạn chế dựa vào các công cụ tìm kiếm công khai. Thay vào đó, mọi người dùng nên tham khảo các tạp chí khoa học uy tín và tự trang bị cho mình kỹ năng để nhận biết các bài viết "có sự hiện diện của AI".
Bình luận (0)