Lưu ý: Bài viết này được dịch hoàn toàn bởi Gemini và không hề trải qua quy trình hiệu đính

Các máy chủ lưu trữ bài báo tiền công bố đang chứng kiến sự gia tăng các bài nộp có dấu hiệu được tạo ra bởi “lò sản xuất bài báo” hoặc có sự trợ giúp của công cụ AI.
Tiêu đề của bài báo tiền công bố — “Báo cáo Tự thực nghiệm: Sự xuất hiện của Giao diện AI tạo sinh trong Trạng thái Mơ” — đã dấy lên nghi ngờ cho nhà tâm lý học Olivia Kirtley.
Khi bà nhấp vào xem, sự cảnh giác của bà càng tăng lên. Bản thảo này, được đăng vào tháng 7 trên PsyArXiv, một trang web dành cho các nghiên cứu chưa qua bình duyệt trong lĩnh vực khoa học tâm lý, chỉ dài vài trang và chỉ ghi tên một tác giả duy nhất, không có thông tin về đơn vị công tác. Và thí nghiệm trí tuệ nhân tạo (AI) được mô tả trong bài viết “khá là hoang đường”, theo Kirtley, hiện đang làm việc tại Đại học Công giáo Leuven ở Bỉ.
Vì vậy, bà đã báo cáo bản thảo đó và những bản thảo tương tự cho những người quản lý của PsyArXiv, và họ đã gỡ bỏ chúng. Bản thảo về trạng thái mơ đã sử dụng AI trong phương pháp nghiên cứu nhưng không nêu rõ AI được sử dụng như thế nào hoặc liệu nó có được dùng trong các phần khác của công trình hay không. Điều này đồng nghĩa với việc nó đã vi phạm điều khoản sử dụng của trang, theo ông Dermot Lynott, người đứng đầu ban cố vấn khoa học của PsyArXiv và là một nhà tâm lý học tại Đại học Maynooth ở Ireland.
Để trả lời câu hỏi từ tạp chí Nature, một tin nhắn từ địa chỉ email của tác giả được liệt kê, Jiazheng Liu, cho biết AI chỉ đóng một vai trò hạn chế trong việc tạo ra bài báo tiền công bố này.
PsyArXiv chỉ là một trong nhiều máy chủ lưu trữ bài báo tiền công bố — và cả các tạp chí khoa học — đang phải vật lộn với các bài nộp đáng ngờ. Một số bài báo mang dấu ấn của các “lò sản xuất bài báo”, tức là những dịch vụ chuyên sản xuất các bài báo khoa học theo yêu cầu. Những bài khác lại có bằng chứng về nội dung do hệ thống AI viết, chẳng hạn như các trích dẫn giả, vốn có thể là một dấu hiệu của “ảo giác” AI.
Những nội dung như vậy đặt ra một bài toán khó cho các dịch vụ lưu trữ bài báo tiền công bố. Nhiều trong số đó là các tổ chức phi lợi nhuận hoạt động với mục tiêu giúp các nhà khoa học công bố công trình của mình dễ dàng hơn. Việc sàng lọc nội dung chất lượng thấp đòi hỏi nguồn lực và có thể làm chậm quá trình xử lý bài nộp. Việc sàng lọc này cũng làm dấy lên câu hỏi về việc nên cho phép những bản thảo nào. Và làn sóng nội dung đáng ngờ này cũng mang lại những rủi ro riêng.
“Làm thế nào để bạn đảm bảo chất lượng mà vẫn giữ mọi thứ tương đối linh hoạt để hệ thống không tự sụp đổ?” bà Katie Corker, liên lạc viên từ ủy ban điều hành của Hiệp hội Cải tiến Khoa học Tâm lý đến ban cố vấn khoa học của PsyArXiv, đặt câu hỏi. “Chẳng ai muốn sống trong một thế giới mà mỗi độc giả phải tự mình xác định xem một công trình có phải là học thuật chân chính hay không.”
Sự bùng nổ của AI
Các dịch vụ lưu trữ bài báo tiền công bố mà Nature tiếp cận cho biết chỉ một tỷ lệ tương đối nhỏ các bài nộp của họ có dấu hiệu được tạo ra bởi một mô hình ngôn ngữ lớn (LLM), chẳng hạn như mô hình vận hành ChatGPT của OpenAI. Ví dụ, những người điều hành máy chủ arXiv ước tính rằng khoảng 2% số bài nộp của họ bị từ chối vì là sản phẩm của AI, “lò sản xuất bài báo” hoặc cả hai.
Ông Richard Sever, người đứng đầu openRxiv, đơn vị vận hành máy chủ bài báo tiền công bố về khoa học sự sống bioRxiv và máy chủ y sinh học medRxiv có trụ sở tại thành phố New York, cho biết cả hai máy chủ này cộng lại từ chối hơn mười bản thảo mỗi ngày có vẻ được viết theo khuôn mẫu và có thể do AI tạo ra. Các dịch vụ này nhận khoảng 7.000 bài nộp mỗi tháng.
Nhưng một số người cho rằng tình hình dường như đang trở nên tồi tệ hơn. Các nhà kiểm duyệt của arXiv đã nhận thấy sự gia tăng nội dung do AI viết ngay sau khi ChatGPT ra mắt vào cuối năm 2022, nhưng “chúng tôi thực sự bắt đầu nghĩ rằng có một cuộc khủng hoảng trong khoảng ba tháng qua”, Steinn Sigurðsson, giám đốc khoa học tại arXiv và là một nhà vật lý thiên văn tại Đại học Penn State ở University Park, cho biết.
Trong một tuyên bố đăng ngày 25 tháng 7, Trung tâm Khoa học Mở, một tổ chức phi lợi nhuận ở Washington DC chủ quản của PsyArXiv, cho biết họ đang “chứng kiến sự gia tăng đáng chú ý các bài báo được gửi đến có vẻ như được tạo ra hoặc có sự hỗ trợ đắc lực từ các công cụ AI”. Ông Lynott xác nhận rằng đã có một “sự gia tăng nhỏ” trên trang và máy chủ này đang nỗ lực để giảm thiểu những nội dung như vậy.
Những thách thức trong việc kiểm duyệt các bài báo tiền công bố đã được thể hiện qua bản thảo về trạng thái mơ mà Kirtley đã báo cáo: ngay sau khi bài báo bị gỡ bỏ, một bài khác có tiêu đề và tóm tắt gần như y hệt đã được đăng lên trang. Một email từ địa chỉ được cho là của tác giả cho biết “vai trò của AI chỉ giới hạn ở các phép suy luận toán học, tính toán ký hiệu, lắp ráp và áp dụng các công cụ toán học hiện có, xác minh công thức” và tám nhiệm vụ khác. Người viết email tự nhận mình là một “nhà nghiên cứu độc lập tại Trung Quốc”, không có bằng cấp cao và “công cụ duy nhất là một chiếc điện thoại thông minh cũ”. Phiên bản thứ hai của bài báo này cũng đã bị gỡ xuống.
Trợ thủ chatbot
Một nghiên cứu được công bố tuần trước trên tạp chí Nature Human Behaviour ước tính rằng vào tháng 9 năm 2024, gần hai năm sau khi ChatGPT ra mắt, các LLM đã tạo ra 22% nội dung trong các bản tóm tắt về khoa học máy tính được đăng trên arXiv và khoảng 10% văn bản trong các bản tóm tắt sinh học đăng trên bioRxiv. Để so sánh, một phân tích khác về các bản tóm tắt y sinh học được công bố trên các tạp chí vào năm 2024 cho thấy 14% có chứa văn bản do LLM tạo ra.
Một phần văn bản AI được báo cáo trong nghiên cứu có thể đã được tạo ra bởi các nhà khoa học gặp khó khăn khi viết bản thảo bằng tiếng Anh, theo ông James Zou, một nhà khoa học máy tính tại Đại học Stanford ở California và là đồng tác giả của bài báo trên Nature Human Behaviour.
Những cách sử dụng hợp pháp như vậy khiến việc “vạch ra ranh giới” trở nên khó khăn, ông Sever nói. Ông cũng cho rằng những con số này không có gì đáng ngạc nhiên và các trang lưu trữ bài báo tiền công bố phải làm rõ với tác giả rằng họ phải chịu trách nhiệm về nội dung mà họ đăng tải.
Nhiều nhà nghiên cứu nộp bài trong lĩnh vực khoa học máy tính lên arXiv không phải là người bản ngữ tiếng Anh và có thể sử dụng LLM để cải thiện khả năng viết của mình, theo Thomas Dietterich, chủ tịch bộ phận khoa học máy tính của arXiv và là người tiên phong trong lĩnh vực học máy. Con số 22% “hoàn toàn hợp lý, nhưng điều đó không cho thấy sự gian lận”, ông nói.
Tăng cường biện pháp
Trong thời đại thông tin lan truyền với tốc độ chóng mặt, các bài báo tiền công bố đáng ngờ có thể được chia sẻ rất nhanh, theo Shahan Ali Memon tại Đại học Washington ở Seattle, người nghiên cứu về khoa học của khoa học. “Điều này mở đường cho thông tin sai lệch, cho sự thổi phồng… và hơn thế nữa, [các bài báo tiền công bố] còn được lập chỉ mục bởi công cụ tìm kiếm Google,” Memon nói thêm. “Vì vậy, những người tìm kiếm thông tin trên Google có thể thấy một số bài báo này như một nguồn thông tin.”
Một số máy chủ lưu trữ, như PsyArXiv, sẽ gỡ bỏ các bản thảo bị báo cáo vì có nội dung đáng ngờ. Những máy chủ khác thì đánh dấu nội dung là ‘đã rút lại’, nhưng không xóa bỏ trừ khi có yêu cầu pháp lý. Họ sử dụng nhiều công cụ tự động và người sàng lọc để phát hiện nội dung đáng ngờ. Chẳng hạn, máy chủ Research Square sử dụng một công cụ có tên Geppetto để phát hiện các dấu hiệu của văn bản do AI tạo ra, theo Springer Nature, công ty sở hữu Research Square và xuất bản tạp chí Nature.
Nhưng sự gia tăng của các bài báo có vấn đề đồng nghĩa với việc nhiều máy chủ đang phải nỗ lực tăng cường các biện pháp của mình.
Ví dụ, những người điều hành arXiv hy vọng sẽ thắt chặt các tiêu chí xuất bản các bài tổng quan — tức là các bài báo tổng hợp tài liệu về một chủ đề cụ thể — do số lượng lớn các bài nộp mà ông Sigurðsson gọi là “các bài tổng quan chất lượng cực thấp”, “rõ ràng được tạo ra hoặc có sự hỗ trợ từ các công cụ trực tuyến bởi những người muốn làm dày hồ sơ xuất bản của mình”. Trung tâm Khoa học Mở đang xem xét một loạt các biện pháp, bao gồm “thêm các bước mới vào quy trình nộp bài để ngăn chặn nội dung chất lượng thấp”, họ cho biết.
Đội ngũ openRxiv, vốn dựa vào người sàng lọc, hiện đang tìm kiếm các công cụ tự động để phát hiện các dấu hiệu của nội dung do AI tạo ra. Nhưng những nỗ lực như vậy là “một cuộc chạy đua vũ trang”, ông Sever nói. “Chúng tôi rất lo ngại rằng, trong tương lai gần, chúng ta sẽ đến một điểm mà không thể phân biệt được đâu là thật, đâu là sản phẩm bịa đặt hoàn toàn. Đó là một thách thức mà tất cả chúng ta sẽ phải đối mặt.”
Dịch từ Nature
--- Bài viết này có hữu ích không? ---
Nhấn sao để đánh giá!
Đánh giá trung bình 0 / 5. Số đánh giá: 0
Chưa có đánh giá.