AI và liêm chính học thuật: Khi niềm tin đạo đức vượt lên chính sách

Sự xuất hiện của trí tuệ nhân tạo sinh sinh (Generative AI) đang đặt ra thách thức chưa từng có đối với liêm chính học thuật. Trong khi nhiều trường đại học tập trung xây dựng chính sách quản lý AI, bằng chứng thực tiễn cho thấy chính niềm tin đạo đức cá nhân của sinh viên mới là yếu tố quyết định việc họ sử dụng công cụ này. Điều đó đòi hỏi giáo dục đại học phải chuyển từ cách tiếp cận kiểm soát sang xây dựng năng lực phản tư và trách nhiệm học thuật.

 Liêm chính học thuật trong bối cảnh AI

Trong lịch sử giáo dục đại học, liêm chính học thuật thường được định nghĩa gắn với những chuẩn mực rõ ràng: trung thực, tôn trọng, trách nhiệm, công bằng và can đảm (ICAI, 2021). Những hành vi vi phạm – như đạo văn hay gian lận trong thi cử – vốn được xem là dễ nhận diện và quy kết. Tuy nhiên, sự ra đời của các mô hình ngôn ngữ lớn (LLMs) như ChatGPT đã phá vỡ “bản đồ” này. Văn bản mà AI sinh ra vừa mới mẻ, vừa thiếu minh bạch về tác quyền, khiến nó khó xếp vào phạm trù đạo văn truyền thống (White et al., 2023).

Không chỉ là thay đổi công cụ, sự hiện diện của AI phản ánh một dịch chuyển sâu hơn về cách con người hiểu “viết” và “sáng tạo”. AI mở rộng khả năng tiếp cận tri thức, cung cấp phản hồi tức thì, hỗ trợ cá nhân hóa việc học (Williamson & Murray, 2024). Nhưng song song, nó cũng làm nảy sinh những “ma sát đạo đức”: sự thụ động trí tuệ, sự phụ thuộc quá mức và ranh giới mờ giữa tác giả và công cụ (Zhai et al., 2024). Chính trong khoảng xám này, sinh viên buộc phải tự định vị bản thân.

Chính sách và giới hạn của sự kiểm soát

Một trong những giả định phổ biến của nhà quản lý giáo dục là chính sách có thể định hướng hành vi sinh viên. Tuy nhiên, các phân tích thống kê chỉ ra rằng nhận thức về chính sách liêm chính học thuật không có ảnh hưởng đáng kể đến việc sinh viên xem việc viết bằng AI là đúng hay sai. Biết luật không đồng nghĩa với tuân thủ, bởi sinh viên hành xử dựa vào hệ giá trị riêng.

Điều này phù hợp với nhận định của Armstrong et al. (2003) rằng đạo đức học thuật không thể chỉ được nuôi dưỡng bằng quy định, mà cần quá trình giáo dục và thảo luận. Khi chính sách chỉ mang tính “bề mặt”, sinh viên thường tạo ra “luật ngầm” cho riêng mình: một số cho rằng dùng Grammarly là hợp pháp, nhưng dùng ChatGPT để viết bài lại không; số khác lại chấp nhận mọi công cụ miễn là không bị phát hiện (Xiao et al., 2023).

Như vậy, chính sách chỉ đóng vai trò khung tham chiếu, trong khi đạo đức cá nhân mới là nhân tố vận hành thực sự.

Đạo đức cá nhân và sự định hình hành vi

Dữ liệu khảo sát khẳng định rằng sinh viên có niềm tin đạo đức nghiêm khắc (coi AI là gian lận) hầu như không sử dụng công cụ này trong viết học thuật. Ngược lại, những sinh viên chấp nhận quan điểm “chỉ gian lận khi bị bắt” có xu hướng sử dụng AI thường xuyên hơn (Yeo, 2023).

Điều thú vị là sự phân biệt này không hoàn toàn song song với các chuẩn mực đạo đức chung. Một số sinh viên cho rằng gian lận trong thi cử là sai trái, nhưng lại không áp dụng lập luận này khi dùng AI để viết tiểu luận. Điều đó phản ánh việc sinh viên đã kiến tạo một “vùng đạo đức riêng” cho AI – tách biệt khỏi phạm trù gian lận truyền thống.

Ở cấp độ đào tạo, sự khác biệt càng rõ: sinh viên sau đại học có xu hướng nghiêm khắc hơn, xem AI như hành vi vi phạm nghiêm trọng, phản ánh yêu cầu cao về chuẩn mực học thuật và kỳ vọng nghề nghiệp (Zhang & Xu, 2025). Như vậy, đạo đức không chỉ chịu ảnh hưởng bởi niềm tin cá nhân, mà còn gắn với giai đoạn phát triển học thuật.

Ranh giới mơ hồ giữa công cụ và tác giả

Một nghịch lý nổi bật là trong khi sinh viên dễ dàng chấp nhận các công cụ “chỉnh sửa” như Grammarly, họ lại tỏ ra dè dặt với các công cụ sinh văn bản hoàn toàn như ChatGPT. Sự mơ hồ này phản ánh lỗ hổng trong tri thức công nghệ và đạo đức: đâu là “trợ lý” và đâu là “người viết thay”?

Yu (2023) chỉ ra rằng nhiều sinh viên vừa ca ngợi AI vì tính tiện lợi, vừa lo ngại rằng nó làm xói mòn khả năng tư duy độc lập. Điều này cho thấy khoảng cách nhận thức cần được lấp đầy bằng giáo dục đạo đức số – không chỉ dừng lại ở hướng dẫn kỹ năng, mà phải là đối thoại triết học về tác quyền, sáng tạo và trách nhiệm học thuật.

Hàm ý toàn cầu đối với giáo dục đại học

Những phát hiện trên đặt ra thách thức kép cho giáo dục đại học toàn cầu. Một mặt, AI là công cụ hỗ trợ học tập đầy hứa hẹn: giúp sinh viên tiếp cận tri thức nhanh hơn, tạo môi trường học tập cá nhân hóa (Chiu et al., 2023). Mặt khác, nếu thiếu khung đạo đức, nó có thể dẫn đến tình trạng “tê liệt trí tuệ”, làm giảm năng lực sáng tạo và tư duy phản biện (Cordero et al., 2025).

Do đó, thay vì tiếp tục “cấm hay cho phép”, các trường cần chuyển hướng sang giáo dục đạo đức AI. Điều này bao gồm tích hợp học phần về đạo đức công nghệ, khuyến khích thảo luận phản tư, và xây dựng chính sách phân tầng theo trình độ đào tạo (Farrelly & Baker, 2023).

Trong bối cảnh Việt Nam đang đẩy mạnh chuyển đổi số và đổi mới sáng tạo, việc ứng xử với AI trong giáo dục không thể chỉ dừng ở mức độ kỹ thuật. Các chính sách hiện hành – như Nghị quyết 57-NQ/TW (2024) về phát triển khoa học, công nghệ và đổi mới sáng tạo, hay Thông tư 14/2023/TT-BGDĐT về ứng dụng công nghệ số trong kiểm tra, đánh giá – mới chủ yếu tập trung vào hạ tầng và quản lý. Vấn đề đạo đức AI vẫn chưa được đặt đúng vị trí.

Để khắc phục khoảng trống này, có thể đề xuất ba hướng tiếp cận:

Thứ nhất, xây dựng khung chuẩn đạo đức AI học thuật mang tính quốc gia: Khung này cần xác định rõ ranh giới giữa hỗ trợ và gian lận, đồng thời phản ánh đặc thù văn hóa – xã hội Việt Nam. Nó có thể tham khảo mô hình “The Fundamental Values of Academic Integrity” (ICAI, 2021), nhưng cần điều chỉnh cho phù hợp với bối cảnh Việt Nam, nơi yếu tố cộng đồng và tinh thần tập thể có ảnh hưởng sâu rộng.

Thứ hai, tích hợp giáo dục đạo đức AI trong đào tạo giáo viên và sinh viên: Đạo đức AI cần trở thành một phần của chương trình đào tạo sư phạm, để đội ngũ giáo viên tương lai vừa là người sử dụng có trách nhiệm, vừa là người hướng dẫn học sinh. Với sinh viên đại học, các học phần bắt buộc về liêm chính học thuật trong kỷ nguyên số nên được triển khai ngay từ năm nhất, kết hợp với hoạt động đối thoại nhóm.

Thứ ba, thiết lập hệ sinh thái giám sát và phản tư: Cần xây dựng diễn đàn học thuật nơi sinh viên, giảng viên và nhà quản lý thường xuyên trao đổi về trải nghiệm và quan điểm liên quan đến AI. Hệ sinh thái này không chỉ giúp giám sát việc tuân thủ, mà còn tạo môi trường phản tư, khuyến khích sinh viên tự định hình bản sắc đạo đức học thuật.

Những bước đi này sẽ đưa Việt Nam vượt lên cách tiếp cận “cấm – cho phép” đơn giản, tiến tới xây dựng một hệ sinh thái đạo đức AI vừa nhân văn vừa hiệu quả, đồng thời chuẩn bị cho thế hệ sinh viên năng lực toàn cầu nhưng vẫn bám rễ trong giá trị văn hóa dân tộc.

AI đang thách thức những nền tảng tưởng chừng vững chắc nhất của liêm chính học thuật. Nhưng bằng chứng cho thấy: chính sách không đủ để định hình hành vi; chính niềm tin đạo đức và khả năng phản tư mới là chìa khóa. Với Việt Nam, đây không chỉ là vấn đề công nghệ mà còn là chiến lược nhân lực: muốn có thế hệ trí thức sáng tạo và độc lập, cần bắt đầu từ giáo dục đạo đức AI – nơi sinh viên học cách cân bằng giữa hiệu quả công nghệ và trách nhiệm học thuật.

Vân An

Tài liệu tham khảo

Armstrong, M. B., Ketz, J. E., & Owsen, D. (2003). Ethics education in accounting: Moving toward ethical motivation and ethical behavior. Journal of Accounting Education, 21(1), 1–16. https://doi.org/10.1016/S0748-5751(02)00017-9

Chiu, T. K. F., Xia, Q., Zhou, X., Chai, C. S., & Cheng, M. (2023). Systematic literature review on opportunities, challenges, and future research recommendations of artificial intelligence in education. Computers and Education: Artificial Intelligence, 4, 100118. https://doi.org/10.1016/j.caeai.2022.100118

Cordero, J., Torres-Zambrano, J., & Cordero-Castillo, A. (2025). Integration of generative artificial intelligence in higher education: Best practices. Education Sciences, 15(1), 32. https://doi.org/10.3390/educsci15010032

Farrelly, T., & Baker, N. (2023). Generative artificial intelligence: Implications and considerations for higher education. Education Sciences, 13(11), 1109. https://doi.org/10.3390/educsci13111109

ICAI. (2021). The Fundamental Values of Academic Integrity (3rd ed.). International Center for Academic Integrity. https://academicintegrity.org/aws/ICAI/pt/sp/values

White, J., Fu, Q., Hays, S., et al. (2023). A prompt pattern catalog to enhance prompt engineering with ChatGPT. arXiv, arXiv:2302.11382. https://doi.org/10.48550/arXiv.2302.11382

Williamson, A., & Murray, J. (2024). So we’re embracing LLMs? Now what?: Enhancing feedback in education through generative AI. EDULEARN24 Proceedings, 2486–2494.

Xiao, Y., Li, J., & Chen, H. (2023). Student perceptions of ChatGPT in academic settings: Balancing utility and ethics. Journal of Educational Technology Development and Exchange, 16(1), 35–50.

Yeo, M. A. (2023). Academic integrity in the age of Artificial Intelligence (AI) authoring apps. TESOL Journal, 14, e716. https://doi.org/10.1002/tesj.716

Yu, H. (2023). Reflection on whether ChatGPT should be banned by academia from the perspective of education and teaching. Frontiers in Psychology, 14, 1181712. https://doi.org/10.3389/fpsyg.2023.1181712

Zhai, C., Wibowo, S., & Li, L. D. (2024). The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: A systematic review. Smart Learning Environments, 11(1), 28. https://doi.org/10.1186/s40561-024-00316-7

Zhang, L., & Xu, J. (2025). The paradox of self-efficacy and technological dependence: Unraveling generative AI’s impact on university students’ task completion. The Internet and Higher Education, 65, 100978. https://doi.org/10.1016/j.iheduc.2024.100978

Bạn đang đọc bài viết AI và liêm chính học thuật: Khi niềm tin đạo đức vượt lên chính sách tại chuyên mục Khoa học giáo dục và xã hội của Tạp chí Giáo dục. Mọi thông tin góp ý và chia sẻ, xin vui lòng liên hệ SĐT: (+84)2462598109 hoặc gửi về hòm thư tapchigiaoduc@moet.gov.vn

 

Hội thảo quốc tế

Hội thảo quốc gia

Phòng, chống COVID-19