Việc đánh giá tác động của AI cần phải bắt đầu ngay từ bây giờ

Trí tuệ nhân tạo (AI) đang nổi lên và tạo ra những chuyển biến sâu rộng trong khoa học, xã hội và kinh tế. Công nghệ này vừa có thể nâng cao vừa có thể cản trở hiệu suất của đội ngũ lao động tri thức: AI giúp tăng năng suất trong các nhiệm vụ thường nhật như gợi ý ý tưởng hay soạn thảo văn bản, nhưng cũng có nguy cơ gây ra sai sót và tạo sự tắc nghẽn trong những công việc phức tạp nếu thiếu thận trọng khi tiếp nhận chúng. Chatbot có thể thúc đẩy sự sáng tạo cá nhân, song sự phụ thuộc quá mức vào AI lại có thể làm suy giảm tính đa dạng của bể ý tưởng gốc. Do đó, việc nghiên cứu một cách hệ thống cách thức con người tương tác với AI và những kết quả theo sau là cần thiết để nhận diện rõ cả tác động tích cực lẫn tiêu cực.

Trong giáo dục, điều này càng trở nên cấp bách: cần xác định liệu sinh viên tận dụng AI để đào sâu tri thức, hay chỉ dùng nó như một công cụ thay thế, qua đó vô tình hạn chế quá trình học tập thực chất. Việc hiểu rõ khi nào, bằng cách nào và đối với đối tượng nào AI mang lại hiệu quả là chìa khóa để bảo đảm kết quả tích cực và giá trị đầu tư bền vững. 

Ảnh: Glenn Carstens-Peters via Unsplash | Unsplash License

Nhu cầu cần được kiểm chứng

Đánh giá AI ở đây có nghĩa là gì? Hiện nay, các công ty AI chủ yếu tiến hành đánh giá mô hình bằng cách kiểm tra hiệu suất và mức độ an toàn của chúng trên các bộ chuẩn có sẵn, chẳng hạn khả năng xử lý ngôn ngữ, toán học hay lập luận logic. Tuy nhiên, cách làm này mới chỉ dừng lại ở khía cạnh kỹ thuật. Nó chưa cho thấy AI tác động thế nào đến công việc, học tập, dịch vụ công hay đời sống xã hội. Do đó, đánh giá AI ở đây cần được hiểu là việc xem xét mức độ và cách thức công nghệ này làm thay đổi các kết quả đầu ra quan trọng trong thực tế, bao gồm cả tác động tích cực lẫn tiêu cực.

Đánh giá liên tục

Theo Hauser và cộng sự (2025), việc đánh giá AI không thể chỉ thực hiện một lần như với chính sách thông thường. Các mô hình AI thay đổi nhanh, thích nghi theo người dùng và có thể cho kết quả khác nhau ở từng nhóm. Vì vậy, chiến lược đánh giá phải linh hoạt và cập nhật liên tục.

Nhóm tác giả khuyến nghị áp dụng cách tiếp cận đánh giá lặp lại và liên tục, thay vì chỉ dựa vào một lần kiểm định. Việc thiết lập các mốc đánh giá định kỳ, hoặc hệ thống cập nhật bằng chứng theo dữ liệu mới, giúp nhà quản lý kịp thời điều chỉnh và đưa ra quyết định phù hợp.

Họ cũng lưu ý đến vấn đề chuẩn đánh giá: nên giữ nhóm đối chứng không dùng AI, hay coi công cụ AI hiện tại là chuẩn cơ sở để đo giá trị gia tăng của công nghệ mới. Đồng thời, chính phủ và các tổ chức cần đảm bảo AI không gây bất lợi cho nhóm yếu thế, bởi sai sót từ AI có thể để lại hậu quả lâu dài về uy tín và pháp lý.

Cuối cùng, ngay cả khi AI ngày càng tiên tiến, lỗi là điều khó tránh. Do đó, đánh giá cần quan tâm không chỉ đến hiệu suất hệ thống mà còn đến cách con người phản ứng với sai sót, và ngưỡng sai sót xã hội chấp nhận.

Xây dựng niềm tin vào AI

Hauser và cộng sự cho rằng đánh giá tác động không chỉ cung cấp phản hồi có hệ thống để giảm thiểu sai sót và hệ quả ngoài ý muốn, mà còn đóng vai trò then chốt trong việc xây dựng niềm tin vào AI. Theo họ, các cơ quan công phải minh bạch về nơi AI được sử dụng và cách nó được đánh giá; kết hợp thêm các phương pháp tham vấn và tham gia để đảm bảo nhiều góc nhìn. Quan trọng hơn, đánh giá phải đi kèm với trách nhiệm giải trình trước các sai lỗi nghiêm trọng. Tóm lại, đánh giá AI không phải là lựa chọn, mà là điều kiện cần để công nghệ này mang lại giá trị và đáp ứng chuẩn mực cao nhất

Hướng đến mục tiêu trên, Hauser và cộng sự (2025) đã giới thiệu một khung đánh giá tác động AI được xây dựng cho khu vực công tại Vương quốc Anh, đồng thời mở ra khả năng trở thành mô hình tham khảo hữu ích cho cả khu vực công và tư nhân.

Lược dịch từ Nature

--- Bài viết này có hữu ích không? ---

Nhấn sao để đánh giá!

Đánh giá trung bình 0 / 5. Số đánh giá: 0

Chưa có đánh giá.

Có thể bạn quan tâm