Vì công nghệ nhân tạo (AI) đang dần len lỏi vào tất cả các khía cạnh văn hóa, những người đứng sau Wikipedia đang tranh cãi xem đâu mới là cách tốt nhất để tiếp tục duy trì trang web này.
Cuộc kêu gọi cộng đồng gần đây đã cho thấy sự chia rẽ rõ ràng trong quan điểm việc liệu có nên sử dụng các mô hình ngôn ngữ lớn (Large Language Model) để sản xuất nội dung hay không. Trong khi một vài người cho rằng những công cụ như Chat GPT của OpenAI có thể giúp ích trong việc sản xuất và tóm tắt các bài báo, vẫn còn nhiều người cảnh giác với việc này.
Nhiều người lo lắng rằng những nội dung được sản xuất bởi máy móc như vậy cần được con người duyệt lại kĩ lưỡng, từ đó sẽ áp đảạo các bài viết trên Wikipedia với nội dung kém chất lượng mà vốn đã ít được biết đến hơn. Mặc dù những công cụ sản xuất AI cũng có ích cho công việc viết lách hay những văn bản giống như được con người viết nên, chúng cũng rất dễ có những thông tin sai lệch, và thậm chí còn trích dẫn những nguồn tin hay bài viết học thuật không có thật. Điều này thường xuyên xảy ra ở những bài tóm tắt trông có vẻ chính xác, nhưng khi xét duyệt kĩ hơn thì chúng hoàn toàn là bịa đặt.
Wikimedia Foundation, một tổ chức phi lợi nhuận đứng sau trang web này, đang tìm cách tạo nên những công cụ để giúp những tình nguyện viên dễ dàng hơn trong việc nhận ra đâu là những nội dung được sản xuất bởi AI. Cùng lúc đó, Wikipedia đang đề ra chính sách đưa ra các giới hạn về cách các tình nguyện viên sử dụng những mô hình ngôn ngữ lớn để sản xuất nội dung.
Chính sách soạn thảo hiện nay cho rằng những người không quen thuộc với những rủi ro của mô hình ngôn ngữ lớn nên tránh sử dụng chúng để sản xuất bài trên Wikipedia. Lý do là bởi việc này có thể khiến Wikimedia Foundation phải đối mặt với các vụ kiện bôi nhọ danh dự và vi phạm bản quyền. Trong khi tổ chức phi lợi nhuận này có các cơ chế để bảo vệ các khiếu nại trên, thì các tình nguyện viên đóng góp bài lại không có. Hơn nữa, những mô hình này cũng ẩn sâu những thành kiến ngầm ẩn, dẫn đến những nội dung sai lệch gây hại tới những nhóm người thiểu số, ngoài lề.
Mọi người hiện giờ cũng đang tranh cãi liệu những mô hình ngôn ngữ này có nên được cho phép để đào tạo về sản xuất nội dung trên Wikipedia hay không. Trong khi truy cập mở là nền tảng của các nguyên tắc trên Wikipedia, một vài người lo lắng rằng việc được truy cập tự do vào các dữ liệu Internet như vậy đồng nghĩa với việc cho phép các công ty AI lợi dụng những trang web mở để tạo bộ dữ liệu thương mại đóng cho mô hình của họ. Đây cũng là một vấn để nổi trội của Wikipedia: sản xuất những nội dung đầy tính thiên vị và không thông qua kiểm duyệt.
Một gợi ý cho vấn đề này của Wikipedia là sử dụng BLOOM, một mô hình ngôn ngữ lớn được ra mắt năm ngoái cùng với Giấy phép AI có Trách Nhiệm (Responsible AI License (RAIL) mới, nó “kết hợp cả tiếp cận truy cập mở với các hạn chế hành vi nhằm thực thi việc sử dụng AI có trách nhiệm.”
Theo Mariana Fossati, người điều hành của “Whose Knowledge?”, các mô hình ngôn ngữ lớn và Wikipedia đều bị mắc kẹt trong một vòng lặp phản hồi thậm chí còn kéo theo nhiều sự thiên vị hơn. Fossatti nói rằng “Chúng ta có hơn 300 ngôn ngữ, nhưng đương nhiên những ngôn ngữ ấy cũng bị đối sử không công bằng. Trang Wikipedia bằng tiếng Anh có nhiều nội dung hơn hẳn so với các ngôn ngữ khác và chúng tôi đang cố gắng cung cấp cho hệ thống AI những kiến thức này.”
AI không hoàn toàn là công cụ mới đối với những người cộng tác viên cho Wikipedia, tuy nhiên vẫn có những tình nguyện viên lâu năm không cởi mở trong việc mở rộng sử dụng AI trên nền tảng này. Theo thông báo từ Wikimedia Foundation, AI đem lại cơ hội và giúp ích khá nhiều trong khối lượng công việc của tình nguyện viên của Wikipedia.
Như trong bài viết này, chính sách soạn thảo bao gồm điều luận rằng việc phân bổ rõ rằng các phần trong văn bản là cần thiết đối với các nội dung được sản xuất bởi AI. Amy Bruckman, viện phó viện máy tính tương tác tại Học Viện Công Nghệ Gerogia, cho rằng những vấn đề xoay quanh mô hình ngôn ngữ lớn không khác nhiều so với việc có cân nhắc hay có dã tâm trong việc sửa đổi Wikipedia.
Selena Deckelmann, giám đốc sản phẩm công nghệ của Wikimedia Foundation, cho rằng những vấn đề phức tạp tồn tại giữa tình nguyện viên và những nhân viên xoay quanh việc những kỹ thuật vận chuyển chưa hoàn thiện làm ảnh hưởng tới việc quyết định cộng đồng giữa các tình nguyện viên.
Những đến giờ, Bruckman cho rằng những người chỉnh sửa và tình nguyện viên vẫn cần cảnh giác: “Nội dung chỉ đáng tin cậy khi có một số người nhất định đã các minh nó với các phương pháp trích dẫn xác đáng. Và rõ ràng, AI không làm được điều này, bởi vậy chúng ta phải kiểm tra nó kĩ càng. Tôi không nghĩ rằng chúng ta có thể bảo mọi người đừng dùng AI bởi đơn giản việc đó sẽ chẳng thể xảy ra. Nếu được cho phép, tôi muốn khôi phục lại mọi thứ như trước. Nhưng ta đều biết điều đó là bất khả thi, do vậy, tất cả những gì chúng ta có thể làm là kiểm tra lại nó.”
Lược dịch từ vice
--- Bài viết này có hữu ích không? ---
Nhấn sao để đánh giá!
Đánh giá trung bình 1.1 / 5. Số đánh giá: 44
Chưa có đánh giá.