Bản chất của một bài báo khoa học có thể bị biến đổi trong kỉ nguyên AI
Khi bác sĩ chuyên khoa X- quang Domenico Mastrodicasa, hiện công tác tại Trường Y thuộc Đại học Washington ở Seattle, gặp khó khăn trong việc viết một bài nghiên cứu, ông đã tìm kiếm sự trợ giúp từ ChatGPT, một chương trình trí tuệ nhân tạo có thể cung cấp phản hồi cho hầu hết các vấn đề chỉ trong tích tắc. Theo như lời của ông, chương trình được sử dụng như một phương tiện tham vấn, giúp tạo ra những bản thảo sẵn sàng để được xuất bản nhanh hơn rất nhiều so với trước đây.
Mastrodicasa là một trong nhiều nhà nghiên cứu đang thử nghiệm viết văn bản hoặc mã bằng công nghệ trí tuệ nhân tạo tạo sinh (AI). Anh trả tiền để sử dụng GPT Plus, phiên bản dựa trên mô hình ngôn ngữ lớn (LLM – Large language models) GPT-4 và thỉnh thoảng sẽ cần đến trong một tuần làm việc. Thông qua trải nghiệm của anh, phiên bản được nhận xét đặc biệt hữu dụng trong công việc truyền đạt câu từ một cách rành mạch, rõ ràng hơn. Tuy trong một cuộc khảo sát nhỏ của tạp chí Nature đã cho thấy phần trăm các nhà nghiên cứu thường xuyên sử dụng LLM vẫn chỉ dừng ở mức thiểu số, nhưng nhiều người dự đoán rằng các công cụ AI tạo sinh sẽ trở thành công cụ trợ lý không thể thiếu trong việc viết bản thảo, báo cáo bình duyệt khoa học và đề cương nghiên cứu.
Vừa rồi là một số ví dụ về cách mà AI có thể thay đổi hoạt động truyền thông và xuất bản trong giới khoa học. Các nhà xuất bản khoa học đã thử áp dụng AI tạo sinh trong các công cụ tìm kiếm học thuật, cũng như để chỉnh sửa và tóm tắt nhanh các bài báo. Nhiều nhà nghiên cứu cho rằng các cá nhân không phải người bản ngữ nói tiếng Anh sẽ được hưởng lợi nhiều nhất từ việc áp dụng những công cụ này. Một số cá nhân khác thì cho rằng việc sử dụng AI tạo sinh cho phép các nhà khoa học đưa ra đánh giá lần nữa về cách họ thẩm định và tóm tắt kết quả thực nghiệm bằng cách sử dụng LLM để xử lý hầu hết số công việc, đồng nghĩa với thời gian ít đi cho việc viết bài và thêm thời gian cho việc thử nghiệm.
Theo Michael Eisen, tổng biên tập tạp chí eLife và là nhà sinh học tính toán tại Đại học California, Berkeley, “Việc viết bài báo chưa bao giờ thực sự là mục tiêu chính của bất kỳ ai – mà là xuất bản khoa học”. Ông cho rằng các công cụ AI táo sinh thậm chí có thể làm thay đổi bản chất cơ bản của một bài báo khoa học. Tuy nhiên, điều này vẫn còn rất khó để thành hiện thực do tàn dư của những sai sót và lệch lạc thông tin trong khâu xuất bản. Công cụ LLM đơn thuần chỉ là công cụ cung cấp đầu ra hợp lý về mặt văn phong cho những thông tin được đầu vào cung cấp thay vì những thông tin chính xác về mặt khoa học. Các nhà xuất bản lo ngại rằng việc lạm dụng các công cụ ấy có thể dẫn tới suy giảm chất lượng các bạn thảo hoặc chứa đựng nhiều lỗi sai hơn, cũng như xuất hiện hàng loạt các gian lận trong xuất bản khoa học được hỗ trợ bởi công cụ AI.
“Bất cứ điều gì mang tính đột phá như thế này đều gây ra quan ngại,” theo Laura Feetham, người giám sát quy trình bình duyệt khoa học của Nhà xuất bản IOP ở Bristol, Vương quốc Anh, đơn vị xuất bản các tạp chí về khoa học vật lý.
Một làn sóng gian lận?
Các tác động tiềm tàng của AI tạo sinh đã dấy lên mối lo ngại đối với các nhà xuất bản khoa học. Giám đốc điều hành của công ty phân tích nghiên cứu Digital Science có trụ sở tại London, Daniel Hook, tin rằng việc dễ dàng tiếp cận đối với các công cụ AI sẽ làm gia tăng khả năng tạo ra bài báo chất lượng kém, và tệ nhất là là làm ảnh hưởng đến tính toàn vẹn của nghiên cứu. Theo Hook, việc các nhà xuất bản đều lo lắng là điều dễ hiểu. (Digital Science là một phần của Tập đoàn Xuất bản Holtzbrinck, cổ đông lớn nhất của nhà xuất bản Nature, Springer Nature; nhóm tin tức của Nature hoạt động độc lập về mặt biên tập)
Trong một vài trường hợp, các nhà nghiên cứu tiết lộ họ đã sử dụng ChatGPT để hỗ trợ viết bài mà không công khai thông tin đó. Họ chỉ bị phát hiện vì đã quên xóa các dấu hiệu nhận biết của ChatGPT chẳng hạn như các tài liệu tham khảo không có thực, hoặc ngôn ngữ phản hồi được lập trình sẵn của phần mềm AI.
Nói một cách khác thì các nhà xuất bản hoàn toàn có thể phát hiện văn bản được tạo ra bởi LLM. Trên thực tế thì cho đến nay, các công cụ phát hiện AI vẫn chưa thể xác định chính xác các văn bản này cùng lúc với việc hạn chế dán nhãn nhầm cho những văn bản do con người tạo ra. Mặc dù các nhà phát triển thương mại LLM đang nghiên cứu để phát triển dấu mờ do LLM tạo ra để nhận diện văn bản, tuy nhiên thì vẫn chưa có tổ chức nào triển khai tính năng này cho các văn bản.
“Tôi tin rằng khả năng cao đây sẽ trở thành một phần không thể thiếu trong bộ công cụ của chúng tôi.”
Sandra Wachter, một học giả pháp lý chuyên nghiên cứu về các tác động đạo đức và pháp lý của các công nghệ mới nổi tại Đại học Oxford, Vương quốc Anh cho biết bất kỳ hình in mờ nào cũng có thể bị xóa. Cô kỳ vọng rằng các nhà lập pháp trên toàn thế giới sẽ yêu cầu công bố thông tin hoặc in hình mờ cho những văn bản LLM, cũng như bất hợp pháp hóa việc xóa đi những hình in mờ đó.
Các nhà xuất bản đang dần dần giải quyết vấn đề này bằng cách cấm hoàn toàn việc sử dụng LLM (giống như nhà xuất bản của tạp chí Science là Hiệp hội vì sự tiến bộ của khoa học Hoa Kỳ đã làm). Hoặc trong hầu hết các tình huống khác, các nhà xuất bản sẽ nhấn mạnh và đề cao tính minh bạch (như chính sách của Nature và nhiều tạp chí khác). Theo Giovanni Cacciamani, bác sĩ tiết niệu tại Đại học Nam California ở Los Angeles và là đồng tác giả của một nghiên cứu trên 100 nhà xuất bản và tạp chí cho biết: tính đến tháng năm, 17% các nhà xuất bản là 50% các tạp chí đều đã đưa ra các hướng dẫn về cách sử dụng AI tạo sinh với đa dạng những phương thức để áp dụng công nghệ này. Cùng với các nhà khoa học và biên tập viên tạp chí, ông và các cộng sự đang triển khai một một bộ hướng dẫn tiêu chuẩn thống nhất, nhằm giúp các nhà nghiên cứu báo cáo việc sử dụng LLM của họ.
Khả năng AI có thể được sử dụng để dễ dàng tạo ra các bài báo giả mạo nhưng mang đầy tính thuyết phục khiến nhiều biên tập viên lo lắng. Một vài doanh nghiệp, hay còn được biết đến là “paper mills”, có thể thu được lợi nhuận từ việc tạo dựng và kinh doanh bản thảo, hoặc cơ hội có được vị trí tác giả cho những nhà nghiên cứu muốn tăng số lượng bài báo được xuất bản. Một người phát ngôn của tạp chí Science bình luận trên tạp chí Nature rằng các LLM lớn như ChatGPT có thể làm trầm trọng thêm vấn đề xuất bản các bài báo kém chất lượng hoặc giả mạo tại các doanh nghiệp này.
Một số tạp chí có thể tăng cường bổ sung các thủ tục xác nhận uy tín tác giả và đã hoàn thành nghiên cứu mà họ gửi để giải quyết những lo ngại này. Watcher cho biết: “Điều quan trọng đối với các tạp chí là xác định xem liệu mọi người có thực sự làm theo những gì mà họ tuyên bố hay không.”
Theo Bernd Pulverer, người đứng đầu bộ phận xuất bản khoa học tại EMBO Press ở Heidelberg, Đức, các tác giả chỉ được sử dụng các địa chỉ email có thể xác minh được của tổ chức để gửi bài và nhân viên biên tập phải gặp tác giả và người giới thiệu trong các cuộc gọi video. Tuy nhiên, ông cũng lưu ý rằng các tổ chức nghiên cứu và nhà tài trợ cũng cần phải theo dõi chặt chẽ hơn tiến triển công việc của nhân viên và người nhận trợ cấp của họ. Ông khẳng định rằng các tạp chí không thể làm nhiệm vụ này một cách độc lập.
Bình đẳng và bất bình đẳng
Theo một khảo do tạp chí Nature thực hiện, phần lớn các nhà nghiên cứu thấy rằng ích lợi lớn nhất mà AI đem lại cho giới khoa học là tạo điều kiện cho các nhà nghiên cứu có ngôn ngữ mẹ đẻ không phải tiếng Anh (Nature 621, 672–675; 2023). Theo Tatsuya Amano, nhà khoa học bảo tồn người Úc tại Đại học Queensland ở Brisbane, “Việc sử dụng các công cụ AI có thể cải thiện tính công bằng trong khoa học”. Amano và các đồng nghiệp đã khảo sát hơn 900 nhà khoa học môi trường với ít nhất một bài báo viết bằng tiếng Anh. Trong số những người mới bắt đầu sự nghiệp nghiên cứu thì các cá nhân không sử dụng ngôn ngữ mẹ đẻ tiếng Anh cho biết bài báo của họ bị từ chối do vấn nghiên cứu trong bài viết được đề cập nhiều gấp đôi so với những nhà nghiên cứu bản ngữ mặc dù những người này dành ít thời gian cho việc viết bài hơn. Amano cho biết ChatGPT và các công cụ tương tự có thể là “sự trợ giúp vô cùng lớn lớn” đối với các nhà nghiên cứu này.
Với ngôn ngữ mẹ đẻ là tiếng Nhật, Amano đã thử nghiệm với ChatGPT và cho biết quá trình này tương tự như làm việc với một đồng nghiệp nói tiếng Anh bản ngữ, mặc dù các đề xuất của công cụ đôi khi không thực sự chính xác. Sau lệnh cấm của tạp chí đối với các công cụ AI tạo sinh, ông đã đồng viết một bài xã luận trên tạp chí Science với lập luận cho rằng AI giúp cải thiện tính công bằng trong xuất bản khoa học, miễn là tác giả công khai việc sử dụng công cụ này. Chẳng hạn như việc đăng bản thảo gốc kèm với phiên bản được AI hỗ trợ chỉnh sửa.
LLM không phải những phần mềm được hỗ trợ bởi AI duy nhất cung cấp tính năng làm chau chuốt văn bản. “Nhưng hiển nhiên là sử dụng AI tạo sinh thì linh hoạt hơn nhiều”. Irene Li, một nhà nghiên cứu AI tại Đại học Tokyo, cho biết rằng trước đây cô đã sử dụng Grammarly — một công cụ kiểm tra ngữ pháp và chính tả dựa trên AI — để kiểm tra khả năng viết tiếng Anh của mình, nhưng sau đó thì chuyển sang ChatGPT vì nó linh hoạt hơn và mang lại nhiều giá trị hơn về lâu dài. Thay vì bỏ tiền mua nhiều công cụ hỗ trợ khác nhau, cô chỉ cần đầu tư vào một công cụ tổng hợp tất cả các tính năng.
Tuy nhiên, theo Chhavi Chauhan, một nhà đạo đức học AI, đồng thời là giám đốc tiếp cận khoa học tại Hiệp hội Điều tra Bệnh học Hoa Kỳ ở Rockville, Maryland, đã cho biết LLM có thể làm trầm trọng thêm tình trạng bất bình đẳng. Cô lo lắng rằng việc sử dụng các phần mềm LLM miễn phí ở hiện tại có thể trở nên đắt đỏ trong tương lai nhằm mục đích chi trả cho việc tiếp tục sử dụng và vận hành chúng, và nếu các nhà xuất bản sử dụng các công cụ phát hiện do AI quản lý, họ sẽ làm tăng khả năng gán nhãn AI nhầm đối với các văn bản không được viết bởi người có ngôn ngữ mẹ đẻ là tiếng Anh. Một nghiên cứu vào tháng 7 cho thấy mối lo trên đã xảy ra với phiên bản công cụ nhận diện AI hiện tại. Theo Chauhan, “chúng ta đã không nhìn ra được những sự bất bình đẳng mà các mô hình AI tạo sinh này có thể tạo ra”.
Khó khăn trong bình duyệt khoa học
LLM cũng có thể tạo điều kiện thuận lợi khi cho những người thực hành công việc bình duyệt. Với trợ lý là ChatGPT Plus, Mastrodicasa cho biết anh có thể nhận thêm nhiều yêu cầu thẩm định hơn bằng cách sử dụng phần mềm LLM để làm trau chuốt thêm những đánh giá của mình mặc dù anh ấy không hề đăng tải bản thảo hoặc bất kỳ thông tin nào lên các công cụ trực tuyến. “Khi tôi đã có một bản nháp, tôi có thể hoàn thiện nó trong chỉ vài giờ thay vì vài ngày”, “Tôi tin rằng khả năng cao đây sẽ trở thành một phần không thể thiếu trong bộ công cụ của chúng tôi”. Còn đối với Christoph Steinbeck, một nhà nghiên cứu tin học hóa học tại Đại học Friedrich Schiller ở Jena, Đức, ông đã nhận thấy ChatGPT Plus rất hữu ích trong việc tạo các bản tóm tắt nhanh chóng cho các bản thảo chưa qua bình duyệt. Ông cho biết các bản thảo chưa qua bình duyệt đã có sẵn trên mạng nên tính bảo mật không phải là vấn đề.
Theo Mohammad Hosseini, nhà nghiên cứu đạo đức và tính liêm chính tại Thư viện và Trung tâm Học tập Khoa học Sức khỏe Galter của Đại học Northwestern ở Chicago, Illinois, một mối lo ngại chính là các nhà nghiên cứu có thể phụ thuộc vào ChatGPT để viết đánh giá mà không cần phải thực sự công tâm dù cho việc đưa ra yêu cầu trực tiếp cho LLM sẽ không cho nhiều đánh giá có giá trị mà chỉ dừng ở việc đề xuất tóm tắt hoặc chỉnh sửa.
Phần lớn những mối lo ban đầu về phần mềm LLM trong bình duyệt khoa học có liên quan đến tính bảo mật. Một số nhà xuất bản lớn như Elsevier, Taylor & Francis và IOP đã cấm các nhà nghiên cứu đăng tải các bản thảo và nội dung văn bản lên các nền tảng AI tạo sinh để đưa ra các báo cáo bình duyệt. Lý do được đưa ra là sự lo ngại rằng các nghiên cứu có thể được lưu trữ ngược lại trong kho dữ liệu đào tạo của phần mềm LLM bởi điều này sẽ vi phạm các điều khoản hợp đồng về việc giữ bí mật công việc. Do lo ngại về quyền riêng tư Viện Y tế Quốc gia Hoa Kỳ đã cấm sử dụng ChatGPT và các công cụ AI tạo sinh khác để đưa ra các báo cáo bình duyệt cho các khoản tài trợ vào tháng 6. Sau khi một số bài bình duyệt dường như được viết bởi ChatGPT được đăng tải trực tuyến thì hai tuần sau đó, Hội đồng Nghiên cứu Úc đã cấm sử dụng phần mềm AI tạo sinh trong quá trình đánh giá và phê duyệt các đề xuất xin tài trợ vì những lý do tương tự.
Một cách để vượt qua hàng rào bảo mật là sử dụng phần mềm LLM được lưu trữ riêng tư. Điều này đảm bảo rằng dữ liệu không được gửi lại cho các công ty lưu trữ phần mềm LLM thông qua dữ liệu đám mây. Với tính năng này, chúng ta có thể tin tưởng rằng dữ liệu sẽ không bị lưu trữ ngược lại. Đại học Bang Arizona ở Tempe đang thử nghiệm với các với các phần mềm LLM được lưu trữ riêng dựa trên các mô hình nguồn mở, chẳng hạn như Llama 2 và Falcon. Neal Woodbury, giám đốc khoa học và công nghệ tại Doanh nghiệp Tri thức của trường đại học, người tư vấn cho các nhà lãnh đạo trường đại học về các sáng kiến nghiên cứu, cho biết: “Đây là vấn đề hoàn toàn có thể giải quyết được”.
Feetham cho biết về mặt lý thuyết thì những công cụ có thể được tích hợp vào hệ thống đánh giá mà các nhà xuất bản đang sử dụng nếu như có sự rõ ràng hơn về cách công cụ LLM lưu trữ, bảo vệ và sử dụng các dữ liệu được đưa vào. “Nếu những công cụ này được sử dụng đúng cách thì sẽ đặt ra nhiều cơ hội mới.” Trong vòng hơn nửa thập kỉ, các nhà xuất bản đã sử dụng các công cụ AI với khả năng tự học (machine-learning) và xử lý văn phong tự nhiên để hỗ trợ quá trình bình duyệt; và với AI tạo sinh, những công cụ này sẽ được khai thác triệt để hơn nữa. Theo đại diện của nhà xuất bản Wiley, phía công ty họ đang thử nghiệm AI tạo sinh trong công đoạn sàng lọc các bản thảo, chọn lựa nhà bình duyệt phù hợp, cũng như xác minh danh tính các tác giả.
Lo ngại về chuẩn mực đạo đức
Tuy nhiên, một số nhà nghiên cứu cho rằng việc sử dụng LLM chưa phân định rõ ràng những ranh giới về mặt đạo đức để có thể chính thức đưa vào sử dụng trong quá trình xuất bản học thuật. Theo Iris van Rooij, một nhà khoa học về nhận thức tại Đại học Radboud ở Nijmegen, Hà Lan, nguyên nhân chính tạo nên mối lo này nằm ở cách phần mềm LLM hoạt động: truy tìm và sử dụng nội dung trên Internet mà chưa chọn lọc các nội dung mang tính thiên vị, được cho phép sử dụng hoặc có bản quyền.
“Bất cứ điều gì mang tính đột phá như thế này đều gây ra quan ngại”
Hơn nữa, cô cũng cho rằng công cụ AI tạo sinh chỉ là một hình thức “đạo văn tự động theo yêu cầu” vì xét cho cùng, người sử dụng cũng không hề biết về nguồn gốc của những thông tin được cung cấp; và nếu các nhà nghiên cứu nhận thức rõ hơn về vấn đề này, họ sẽ không muốn sử dụng các công cụ AI tạo sinh nữa.
Một vài cơ quan báo chí đã quyết định chặn bot của ChatGPT truy tìm trang web của họ cũng như một vài doanh nghiệp khác có thể đang xem xét khởi kiện. Mặc dù các nhà xuất bản khoa học vẫn chưa trực tiếp công khai các thông tin này, nhưng trên tờ Nature, Wiley đã đề cập rằng họ “đang theo dõi chặt chẽ các báo cáo và vụ kiện tụng trong ngành nhắm vào tuyên bố cho rằng các mô hình AI tạo sinh đang thu thập dữ liệu được bảo vệ cho mục đích đào tạo, tuy nhiên lại không hề xem xét những mặt hạn chế của những thông tin đó.” Nhà xuất bản cũng đã kêu gọi tăng cường giám sát quy định chặt chẽ hơn, bao gồm các nghĩa vụ kiểm toán và minh bạch đối với các nhà cung cấp tính năng LLM.
Đồng thời cũng là trợ lý biên tập của tạp chí Accountability in Research của nhà xuất bản Taylor & Francis, Hosseini đề xuất rằng một cách để cải thiện tính chính xác và mức độ phù hợp của kết quả truy vấn cho các nhà khoa học chính là huấn luyện các công cụ LLM sử dụng tài liệu khoa học của một số ngành cụ thể. Tuy nhiên, chưa có nhà xuất bản nào được tạp chí Nature liên hệ nói rằng họ đang thực hiện điều này.
Gemma Derrick, người nghiên cứu chính sách và văn hóa nghiên cứu tại Đại học Bristol, Vương quốc Anh, cho biết nếu các học giả bắt đầu dựa dẫm vào LLM thì có thể kĩ năng diễn đạt văn phong của họ sẽ bị suy giảm đáng kể. Từ đó mà các nhà nghiên cứu mới có thể mất đi khả năng phát triển kĩ năng đưa ra đánh giá bình duyệt khoa học một cách công bằng và bình đẳng.
Sự thay đổi mang tính chuyển hóa
Ngoài ra, Patrick Mineault, nhà khoa học máy học cấp cao tại Mila – Viện AI Quebec ở Montreal, Canada, cho biết các công cụ AI tạo sinh có khả năng thay đổi cách mà một nghiên cứu được công bố và phổ biến tới công chúng; ngụ ý rằng nghiên cứu sẽ được xuất bản dưới định dạng mà máy tính dễ đọc hơn con người. Theo dự đoán của ông, sẽ có thêm nhiều hình thức xuất bản mới.
Trong thời đại phát triển tiên tiến của những mô hình ngôn ngữ lớn, Eisen hình dung ra một tương lai mà các kết quả nghiên cứu được xuất bản dưới định dạng tương tác hoặc định dạng theo yêu cầu thay vì là bản cứng, đại trà. Với mô hình này, người dùng hoàn toàn có thể sử dụng công cụ AI tạo sinh để tìm hiểu sâu, chi tiết hơn về những khía cạnh nghiên cứu mà họ quan tâm, chẳng hạn như đặt câu hỏi về các thử nghiệm, dữ liệu và phân tích. LLM cũng sẽ cho phép cá nhân sử dụng truy những kết quả phù hợp với nhu cầu của họ. Đối với Eisen, việc nhận diện kết quả nghiên cứu chỉ thông qua những khía cạnh đánh giá đơn lẻ sẽ dần được thay thế.
Các công ty như Scite và Elicit đã phát hành các công cụ tìm kiếm sử dụng LLM để cung cấp câu trả lời theo văn phong tự nhiên cho các nhà nghiên cứu. Vào tháng 8, Elsevier cũng đã tung ra phiên bản thử nghiệm cho công cụ hỗ trợ độc quyền của họ là Scopus AI, từ đó giúp đưa ra những bản tóm tắt ngắn gọn về các chủ đề nghiên cứu. Nhìn chung, những công cụ này sử dụng công nghệ LLM để diễn đạt lại kết quả từ các truy vấn tìm kiếm truyền thống.
Mineault cho biết thêm rằng các công cụ AI tạo sinh có khả năng thay đổi cách các nhà nghiên cứu tiến hành phân tích tổng hợp và đánh giá, nhưng chỉ khi sửa được khuynh hướng tự tạo dựng thông tin và tài liệu tham khảo của những công cụ này. Đối với Mineault, số lượng bài báo được bình duyệt do con người nhiều nhất mà ông từng thấy là 1600; nhưng với sự trợ giúp của công cụ AI tạo sinh thì công việc này sẽ được hoàn thành hiệu quả hơn nhiều. “Đây chỉ là một tỷ lệ rất nhỏ trong toàn bộ số tài liệu khoa học,” ông nói. “Câu hỏi đặt ra là có bao nhiêu nội dung trong tài liệu khoa học hiện nay có thể được khai thác và sử dụng?
Dịch từ Nature
--- Bài viết này có hữu ích không? ---
Nhấn sao để đánh giá!
Đánh giá trung bình 5 / 5. Số đánh giá: 3
Chưa có đánh giá.