Các nhà khoa học có nên được trả tiền khi chatbot AI sử dụng công trình của họ không?

Ảnh: Paid In Full via Behance | CC BY-NC-ND 4.0

Các nhà khoa học cần được trả thù lao và ghi nhận công sức khi các chatbot trí tuệ nhân tạo (AI) sử dụng nội dung từ các bài báo khoa học của họ, theo khuyến nghị của một tổ chức thu phí bản quyền.

Đây là lời kêu gọi xuất hiện giữa tin tức rằng hai nhà xuất bản học thuật lớn đã bán quyền truy cập vào các bài nghiên cứu và dữ liệu của họ cho các công ty công nghệ lớn để huấn luyện các mô hình trí tuệ nhân tạo của họ mà không tham khảo ý kiến ​​của tác giả.

Đầu tháng tám vừa qua, một số tác giả cho biết mình rất bất ngờ khi nhà xuất bản học thuật Taylor & Francis bán quyền truy cập vào nghiên cứu của họ trong hợp đồng một năm với gã khổng lồ công nghệ Microsoft trị giá 8 triệu bảng, theo báo cáo của The Bookseller. Wiley, một nhà xuất bản học thuật khác, cũng công bố đã ký kết thỏa thuận về quyền sử dụng nội dung với một công ty công nghệ lớn vào cuối tháng 6.

Sử dụng không hợp lý 

Tổ chức Tác giả và Thu phí Bản quyền (ALCS) là đơn vị chịu trách nhiệm thu tiền bản quyền hàng năm từ các doanh nghiệp, cơ sở giáo dục và cơ quan chính phủ trên toàn thế giới, đại diện cho hơn 120.000 thành viên trong tổ chức – bao gồm các nhà nghiên cứu, nhà báo tự do, tác giả văn học, biên kịch, nghệ sĩ thị giác – âm thanh,…. Chỉ riêng năm nay, ALCS đã chi trả khoảng 44 triệu bảng Anh cho các thành viên của mình.

Hiện tại, ALCS đang yêu cầu  thù lao cho các thành viên khi chatbot như ChatGPT sử dụng  sản phẩm của họ. Kể từ khi ChatGPT ra mắt vào tháng 11 năm 2022, đã có nhiều câu hỏi được đặt ra về nguồn gốc dữ liệu được sử dụng để huấn luyện chatbot , cũng như cách các công cụ AI này lấy thông tin từ internet để trả lời câu hỏi.

“Đây là một yêu cầu hợp lý,” Ed Newton-Rix, nhà khoa học máy tính ở Palo Alto, California và là người sáng lập tổ chức phi lợi nhuận Fairly Trained – một tổ chức đào tạo và cấp chứng nhận  về  tôn trọng quyền sở hữu trí tuệ cho các công ty AI tạo sinh, nhận định. “Vấn đề này không chỉ giới hạn trong ngành xuất bản mà còn ảnh hưởng đến toàn bộ lĩnh vực truyền thông.”

OpenAI, công ty phát triển ChatGPT, và Microsoft, nhà phát triển chatbot Copilot, hiện đang phải đối mặt với nhiều vụ kiện liên quan đến vi phạm bản quyền. Một số đơn vị truyền thông đã ký các thỏa thuận cấp phép bản quyền và công nghệ với OpenAI để giải quyết vấn đề này.

“Chúng ta cần một giải pháp cho tình hình hiện tại,” Richard Combes, trưởng bộ phận quyền và cấp phép tại ALCS, cho biết. “Hiện tại, chưa có hệ thống luật lệ và quy định rõ ràng cho AI tạo sinh vì công nghệ này tương đối  mới mẻ và sẽ còn tiếp tục phát triển nhanh chóng mặt.”

Một trong những câu hỏi mà tòa án sẽ phải xem xét là việc huấn luyện AI dựa trên nghiên cứu có được coi là vi phạm bản quyền hay không, vì các chatbot không thực sự lưu giữ bản sao các tài liệu theo cách truyền thống, theo giáo sư luật Michael Mattioli tại Đại học Indiana Bloomington. Ông cũng đặt vấn đề liệu “nếu điều này vi phạm bản quyền, thì nguyên tắc ‘sử dụng hợp lý’ có thể được áp dụng hay không?”

Mattioli lưu ý rằng các chatbot thường không sao chép y nguyên nội dung mà chúng đã đọc. Thay vào đó, chúng cố gắng mô tả và tóm tắt thông tin. “Đây là một khía cạnh đặc biệt có thể ảnh hưởng đến các học giả.”

Tuy nhiên, cũng có bằng chứng cho thấy các học giả đã tận dụng chatbot trong công việc của mình. Một cuộc khảo sát vào năm 2023 với 1.600 nhà khoa học cho ra kết quả gần 30% trong số họ đã sử dụng AI để viết bài nghiên cứu và khoảng 15% sử dụng AI để viết đơn xin tài trợ và tổng quan tài liệu.

Cân nhắc về việc đền bù

Vào tháng 2,  UK House of Lords Communications and Digital Committee (Ủy ban Truyền thông và Kỹ thuật số của Thượng viện Vương quốc Anh) đã công bố một báo cáo trong khuôn khổ cuộc điều tra sâu rộng về trí tuệ nhân tạo (AI) tạo sinh. Báo cáo này nhấn mạnh tầm quan trọng của việc “trao quyền cho những người nắm giữ quyền sở hữu trí tuệ kiểm tra xem dữ liệu của họ có bị sử dụng khi chưa được sự cho  phép hay không.”

Theo Richard Combes, trưởng bộ phận quyền và cấp phép tại ALCS, chính phủ Vương quốc Anh trước đây đã khởi động một quy trình tập hợp các bên nắm giữ quyền sở hữu, các chủ sở hữu bản quyền và các công ty công nghệ để tìm ra sự đồng thuận về vấn đề này. Tuy nhiên, quy trình này đã bị hủy bỏ trước thềm bầu cử. Combes cho rằng cần khôi phục lại cuộc trao đổi này, vì nó rất quan trọng để xác định cách thức đền bù cho các thành viên ALCS vì những lần sử dụng tác phẩm của họ mà chưa nhận được sự đồng ý trước đây, đồng thời thỏa thuận về việc sử dụng khi đã được cho phép trong tương lai.  “Chúng ta cần một khung pháp lý có thể áp dụng được cho cả những người phát triển công nghệ AI và những người sở hữu tác quyền.” ông nói.

“Cần có một khung pháp lý rõ ràng, vừa đảm bảo quyền lợi cho các nhà phát triển công nghệ AI vừa bảo vệ quyền sở hữu trí tuệ”

Combes cũng nhấn mạnh tầm quan trọng của sự minh bạch trong bất kỳ thỏa thuận nào với các công ty công nghệ trong tương lai. Số lần một tác phẩm nhất định được sử dụng cần phải rõ ràng để đảm bảo rằng các chủ sở hữu bản quyền được đền bù thích đáng. Ed Newton-Rix đồng tình với quan điểm này và cho rằng các công ty AI cần phải công khai dữ liệu mà họ sử dụng để huấn luyện các mô hình của mình. “Nếu các công ty AI được phép sử dụng bất kỳ dữ liệu nào mà họ muốn mà không cần có sự đồng ý, những vấn đề này sẽ không bao giờ được giải quyết,” Newton-Rix cảnh báo. Ông nói thêm rằng nếu không có sự đồng ý, các nhà sáng tạo và những người nắm giữ quyền sở hữu trí tuệ sẽ không thể tránh việc bị khai thác.

Mặc dù OpenAI từ chối trả lời  trực tiếp, họ đã đề cập đến một bài đăng trên blog về công cụ Media Manager sắp ra mắt của họ, dự kiến ra mắt vào năm 2025. Công cụ này sẽ cho phép các chủ sở hữu bản quyền xác minh những tác phẩm nào của họ có thể được sử dụng để huấn luyện các mô hình AI, với mục tiêu đặt ra một tiêu chuẩn mới cho ngành công nghiệp.

Vào tháng 6, ALCS đã phát động một cuộc khảo sát để thu thập ý kiến từ các thành viên về việc liệu họ có đồng ý cho các tác phẩm của mình được sử dụng để đào tạo chatbot hay không. Combes đặc biệt quan tâm đến việc lắng nghe từ các học giả, vì những lo ngại về độ chính xác và độ tin cậy của các kết quả do AI cung cấp. Ông dự đoán rằng các nhà nghiên cứu có thể sẽ bày tỏ lo lắng về việc tác phẩm của họ bị sử dụng sai mục đích, trích dẫn không chính xác hoặc bị đưa ra khỏi ngữ cảnh bởi các hệ thống AI. Theo đó,  ý kiến của các nhà nghiên cứu là yếu tố quan trọng giúp đảm bảo rằng AI được phát triển một cách minh bạch và tôn trọng quyền sở hữu trí tuệ.

Lưu ý của biên tập viên: Tác giả của bài viết này là thành viên của ALCS nhưng không tham gia vào nỗ lực đòi đền bù cho việc AI sử dụng tác phẩm của các thành viên.

Dịch từ Royal Society of Chemistry

--- Bài viết này có hữu ích không? ---

Nhấn sao để đánh giá!

Đánh giá trung bình 0 / 5. Số đánh giá: 0

Chưa có đánh giá.

Có thể bạn quan tâm