Tác giả: TS. Phạm Hiệp
Viện Nghiên cứu Giáo dục và Chuyển giao Tri thức, Trường Đại học Thành Đô;
Chủ nhiệm Chi hội Việt Nam, Hiệp hội biên tập xuất bản Khoa học Châu Âu
Lo ngại đạo đức khi sử dụng AI
Dù mang lại nhiều lợi ích, việc sử dụng AI trong ngành xuất bản học thuật đặt ra nhiều nhiều lo ngại về mặt đạo đức. Trong thời gian qua, nhiều nhà xuất bản học thuật lớn trên thế giới như Elsevier, Springer, SAGE, Taylor & Francis,… cũng như nhiều tổ chức nghề nghiệp như Ủy ban Đạo đức xuất bản (Committee on Publication Ethics), Hiệp hội Biên tập xuất bản Khoa học Châu Âu (European Association of Science Editors),… đã đưa ra nhiều tuyên bố, hướng dẫn và quan ngại về các vấn đề đạo đức học thuật mới xuất hiện do việc sử dụng AI. Phần dưới đây, xin được tóm tắt một số lo ngại chính:
Thứ nhất, các công cụ AI có thể dựa trên những nguồn thông tin, dữ liệu không tin cậy hoặc không có bản quyền, gây nguy cơ vi phạm đạo đức, thậm chí là cả vi phạm pháp luật. Thứ hai, ngay cả trong trường hợp nguồn thông tin, dữ liệu tin cậy hoặc có bản quyền, vẫn tiềm ẩn nguy cơ các công cụ AI diễn giải kết quả sai lệch, không chính xác, dẫn đến những đánh giá sai lệch về nghiên cứu. Cuối cùng, nghiêm trọng nhất, AI rất có thể sẽ tạo ra các nội dung đạo văn, những hình ảnh không ngụy tạo, gây kích động bạo lực, phân biệt, thiên lệch,... Điều này không chỉ ảnh hưởng tới uy tín của tác giả mà còn gây thiệt hại cho các công trình nghiên cứu và xã hội nói chung.
Ảnh: Ảnh chụp màn hình chính sách về sử dụng AI của Nhà xuất bản Taylor & Francis
Nguyên tắc sử dụng AI trong nghiên cứu và xuất bản một cách có trách nhiệm
Nhìn chung, các tổ chức học thuật trên thế giới kể trên không cấm cộng đồng học thuật sử dụng AI trong quá trình hoạt động nghề nghiệp. Mặc dù vậy, các tổ chức này cũng kêu gọi cộng đồng học thuật cần sử dụng AI có trách nhiệm. Để có căn cứ, một số tổ chức đã ban hành những nguyên tắc, quy định gắn với việc sử dụng AI trong nghiên cứu và xuất bản nhằm bảo vệ đạo đức học thuật nói chung và của các cá nhân liên quan nói riêng như tác giả, ban biên tập, phản biện. Phần dưới đây, xin được tóm tắt các nguyên tắc chính đối với các đối tượng khác nhau:
Đối với tác giả
Thứ nhất, tác giả có thể nhờ AI để lên ý tưởng nghiên cứu, tổng hợp, mã hóa tài liệu, tìm kiếm mô hình phân tích phù hợp, chỉnh sửa, hiệu đính ngôn ngữ chứ không được nhờ AI làm hộ, viết hộ hoặc viết thêm thì một nội dung có sẵn. Thứ hai, không được coi AI là đồng tác giả của công trình nghiên cứu. Tác giả của công trình nghiên cứu, ngoài có những quyền lợi thì còn phải chịu trách nhiệm về kết quả nghiên cứu của mình, mà AI thì không phải là người, vì vậy, không thể chịu trách nhiệm thay con người được. Thứ ba, tác giả phải có trách nhiệm rà soát từng phần do AI tham gia, không bỏ sót bất kỳ chi tiết, nội dung nào trước khi gửi bản thảo bài báo đi. Thực tiễn này khác với tình huống khi 2 tác giả (là người thật) làm việc chung với nhau; trong trường hợp này, tác giả này có thể tin tưởng với tác giả kia mà không cần xem phần của người kia trước khi bản thảo bài báo được gửi đi. Ngược lại, khi làm việc với AI, vì AI không phải tác giả nên không thể tin tưởng vào AI. Tác giả buộc phải đọc và soát từng chi tiết nhỏ nhất do AI làm ra. Cuối cùng, tác giả cũng cần minh bạch toàn bộ các khâu có sử dụng AI trong quá trình nghiên cứu đồng thời lưu giữ lại toàn bộ kết quả của quá trình trước và sau sử dụng AI (ví dụ bản thảo trước và khi được AI hiệu đính). Việc này sẽ giúp tác giả có minh chứng để bảo vệ mình khi có cáo buộc vi phạm đạo đức học thuật khi sử dụng AI.
Đối với phản biện
Ngoài các nguyên tắc chung về việc được (hoặc không được) khi sử dụng AI như tác giả, phản biện viên cần tuân thủ nguyên tắc không tải bản thảo lên các nền tảng AI hoặc sử dụng AI để đánh giá nội dung. Bởi với việc này, phản biện có nguy cơ làm lộ bản thảo – vốn có bản quyền thuộc về tác giả - cho một bên thứ ba (bên sở thực hiện nền tảng AI mà phản biện tải lên).
Đối với ban biên tập
Ngoài các nguyên tắc chung về việc được (hoặc không được) khi sử dụng AI như tác giả và phản biện, các ban biên tập tạp chí khoa học hiện nay được khuyến khích đưa ra công khai chính sách sử dụng AI của tạp chí của mình, bao gồm những giới hạn rõ ràng cho tác giả và phản biện. Quy trình gửi bản thảo bài báo cũng cần có thêm bước yêu cầu tác giả khai báo mức độ sử dụng AI trong quá trình nghiên cứu. Tương tự, quy trình phản biện cũng cần thêm bước nhắc nhở phản biện về những việc được (hoặc không được) làm khi sử dụng AI.
Khuyến nghị và kết luận
Sự xuất hiện của AI trong ngành nghiên cứu và xuất bản học thuật mang lại những cơ hội và thách thức đan xen. Để tối đa hóa lợi ích và giảm thiểu nguy cơ, việc ban hành và thực hành những quy tắc đạo đức học thuật minh bạch, nghiêm ngặt và linh hoạt là rất cần thiết. Bên cạnh đó cũng không nên quá cầu toàn với các quy định này, bởi AI hiện cũng đang thay đổi từng ngày. Những vấn đề chúng ta đang thảo luận hôm nay thực ra là mới chỉ áp dụng với AI tạo sinh (Gen AI) trong khi bản thân giới công nghệ cũng đang ngày càng hoàn thiện phiên bản kế tiếp của AI là Agentic AI (hay AI tác nhân). Rất có thể, khi AI tác nhân được sử dụng rộng rãi, sẽ lại nảy sinh các vấn đề đạo đức mới mà chúng ta cũng chưa thể hình dung ra rõ ràng trong giai đoạn hiện nay.
Lưu ý: Tác giả có sử dụng AI để giúp lên ý tưởng và hiệu đính trong quá trình thực hiện bài viết này.
Lời cảm ơn: Bài viết này được phát triển dựa trên bài trình bày của tác giả tại Hội nghị Hội đồng biên tập thường niên của Tạp chí Giáo dục, tháng 12/2024. Tác giả xin chân thành sự đóng góp quý báu của các thành viên tham dự Hội nghị để tác giả có thể hoàn thành bài viết.