Các vấn đề đạo đức liên quan đến việc sử dụng và công khai việc sử dụng các công cụ trí tuệ nhân tạo (AI) trong viết hoặc chỉnh sửa các bản thảo học thuật đang là một vấn đề gây tranh cãi.
Tranh cãi về việc sử dụng Trí tuệ nhân tạo (AI) đến lĩnh vực học thuật và nghiên cứu
Ngày nay, khó có thể phủ nhận tính hiệu quả của Trí tuệ nhân tạo (AI) và các Mô hình Ngôn ngữ Lớn (LLM) như Chat GPT, Elicit hay Scholarly trong việc hỗ trợ học tập và nghiên cứu. Những công cụ này có khả năng tổng hợp, tóm tắt, diễn giải và tạo lập văn bản, giúp ích rất nhiều cho người học và nhà nghiên cứu. Tuy nhiên, việc sử dụng LLM vẫn còn nhiều tranh cãi bởi lo ngại về nguy cơ nó làm giảm chất lượng học tập và đạo đức trong học thuật.
Các thảo luận về đạo đức trong việc sử dụng các Mô hình Ngôn ngữ Lớn (LLM) tập trung vào các vấn đề như quyền tác giả, đạo văn, tính minh bạch và trách nhiệm giải trình. Các tạp chí hiện chia thành hai quan điểm chính: một số tạp chí cho phép sử dụng LLM, một số tạp chí khác, điển hình là Science, nhấn mạnh các rủi ro đạo đức mà LLM mang lại và đã đưa ra quy định cấm sử dụng chúng.
Theo Mohammad Hossesini và cộng sự (2023), lệnh cấm này khó có thể thực hiện bởi chưa có các phần mềm đáng tin cậy trong việc nhận dạng văn bản dựa trên LLM khiến lệnh cấm này có thể phản tác dụng, khi tác giả lặng lẽ che giấu việc sử dụng. Đồng thời, không thể phủ nhận những lợi ích của LLM mang lại, ví dụ như việc hỗ trợ biên tập cho các nhà nghiên cứu không thông thạo tiếng Anh).
Nhóm tác giả khẳng định, các LLMs đã, đang và sẽ tiếp tục được các nhà nghiên cứu sử dụng theo nhiều cách khác nhau. Do đó, thay vì cấm, thiết lập các các nguyên tắc và hướng dẫn đạo đức về việc sử dụng nó sẽ là điều thiết thực hơn.
Sự cởi mở, minh bạch và trung thực về các phương pháp và công cụ được sử dụng là điều tối quan trọng để thúc đẩy tính toàn vẹn, khả năng tái tạo và tính nghiêm ngặt trong nghiên cứu. Công khai việc sử dụng LLMs, do đó, là điều cần thiết để đảm bảo nguyên tắc đạo đức trong nghiên cứu khoa học.
Vậy làm thế nào để công khai việc sử dụng LLMs đúng cách?
Một số tác giả đã chọn cách công khai LLMs như một người cộng sự bằng cách ghi danh “cây viết” này vào hàng tác giả. Lựa chọn này dựa trên lập luận rằng LLMs nên được chỉ định là tác giả nếu có đóng góp đáng kể cho các ấn phẩm (Jenkins & Lin, 2023), trách việc ghi nhận công lao không chính xác cho các tác giả là người (Verhoeven và cộng sự, 2023).
Một số khác lại cho rằng nhà nghiên cứu nên công khai LLMs bằng cách cảm ơn nó, cụ thể là đề cập trong phần ghi nhận – acknowledgments section ( ICMJE, 2023). Cách tiếp cận này được một số người ủng hộ. Ví dụ, Jenkins và Lin (2023) và Hughes-Castleberry (2023) lập luận rằng LLMs có thể được đặt tên trong phần cảm ơn. Một bài báo trên tạp chí Nature dẫn lời Magdalena Skipper, tổng biên tập tạp chí Nature ở London rằng những người sử dụng LLMs “nên ghi lại việc sử dụng chúng trong phần phương pháp hoặc phần ghi nhận”. Sabina Alam, giám đốc Đạo đức xuất bản và Tính liêm chính tại Taylor & Francis cũng cho rằng “các tác giả chịu trách nhiệm về tính hợp lệ và tính liêm chính về tác phẩm của họ và nên trích dẫn bất kỳ việc sử dụng LLMs nào trong phần cảm ơn” ( Stokel-Walker, 2023: 620).
Cả hai cách công khai có chung một vấn đề cốt lõi: công lao đi kèm với trách nhiệm.
Các nguyên tắc và các chuẩn mực nghiên cứu đều ngầm định rằng tác giả phải sẵn sàng chịu trách nhiệm và giải trình cho nội dung của bản thảo. Không thể tách rời trách nhiệm giải trình và sự công nhận dành cho những người đóng góp, chúng là hai mặt của đồng xu (Hosseini et al., 2022; Resnik, 1997; Smith, 2017). LLMs hiển nhiên không thể chịu trách nhiệm về mặt đạo đức và pháp lý, cũng như trách nhiệm giải thích cho nội dung nó tạo ra. Do đó, LLMs rõ ràng không nên được nêu tên là tác giả.
Tương tự như việc LLM cũng không nên được đề cập trong phần cảm ơn bởi điều này cũng mang ý nghĩa đạo đức và pháp lý nhất định. Ví dụ, nếu một người được đề cập trong phần cảm ơn cung cấp dữ liệu cho nghiên cứu bị nghi ngờ bị làm giả hoặc thao túng, họ có thể bị truy cứu trách nhiệm về mặt đạo đức (và có thể là pháp lý) đối với tính toàn vẹn của dữ liệu. Mặt khác, nếu LLMs – một công cụ tạo văn bản – được theo cách này, có lẽ nhà nghiên cứu cũng nợ công cụ tìm kiếm như Google hay công cụ SPSS xử lý dữ liệu như SPSS một lời cảm ơn.
Công khai việc sử dụng LLMs trong nội dung văn bản
Thông thường, các công cụ được sử dụng trong nghiên cứu khoa học sẽ được nêu rõ trong chính nội dung bài báo. Tuy nhiên, với khả năng và sự phức tạp của LLMs, làm thế nào để mô tả chúng và cách sử dụng chúng một cách chính xác trong nội dung bài báo?
Mẫu định dạng theo phong cách APA (McAdoo, 2023: đoạn 5) được đề xuất để mô tả cách sử dụng cũng như trích dẫn và tham khảo trong văn bản:
Hosseini và cộng sự (2023) đề xuất bổ sung thêm thông tin về: Mô hình; Thời gian thực hiện; Người thực hiện và việc công khai sử dụng LLMss cần được nêu ở
(1) Nội dung văn bản
(2) Trích dẫn trong văn bản và tham khảo
(3) Tài liệu bổ sung hoặc Phụ lục (bao gồm các yêu cầu cụ thể với LLMs và ngày truy vấn)
VD:
OpenAI (2023). ChatGPT (GPT-4, May 12 Version) [Large language model]. Response to query made by X.Y. Month/Day/Year. https://chat.openai.com/chat |
Kết luận
Sự ra đời và bùng nổ của các Mô hình Ngôn ngữ Lớn (LLMs) đã mang đến những biến đổi đáng kể cho nhiều lĩnh vực, và giới học thuật không nằm ngoài ảnh hưởng này . LLM tác động mạnh mẽ đến cách thức viết, đánh giá và chỉnh sửa bản thảo khoa học, mang theo cả những cơ hội và thách thức mới. Nhiều tranh cãi xoay quanh việc sử dụng LLMss, một số cho rằng LLMs nên có được “danh phận” như quyền tác giả và một số khác thậm chí ủng hộ việc cấm sử dụng LLMs trong học thuật. Hosseini và cộng sự (2023) cho rằng việc cấm hoàn toàn LLMs là không khả thi và phản tác dụng, cũng như bác bỏ việc trao quyền tác giả cho LLMs. Thay vào đó, nhóm tác giả đã đề xuất các phương pháp cải tiến trích dẫn theo phong cách APA khi tham chiếu ChatGPT, đồng thời đưa ra một số khuyến nghị cho các nhà nghiên cứu khi sử dụng LLMs để đảm bảo tính minh bạch và trách nhiệm trong nghiên cứu.
Lược dịch từ Sage Journals
--- Bài viết này có hữu ích không? ---
Nhấn sao để đánh giá!
Đánh giá trung bình 5 / 5. Số đánh giá: 1
Chưa có đánh giá.