Trí tuệ nhân tạo, đạo đức và thiên kiến nhận thức trong giáo dục: Nhận diện thách thức và định hướng chính sách cho Việt Nam

Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đang tạo ra những thay đổi sâu rộng trong giáo dục và nghiên cứu toàn cầu. AI không chỉ mở rộng không gian học tập, tăng tốc đổi mới mà còn đặt ra những phép thử về đạo đức và năng lực phản biện của con người. Những “thiên kiến nhận thức” vốn tiềm ẩn trong tư duy nay được khuếch đại qua công nghệ, đòi hỏi các hệ thống giáo dục – trong đó có Việt Nam – phải chủ động định hình chuẩn mực và chính sách để khai thác AI một cách có trách nhiệm.

Bối cảnh toàn cầu: AI như chất xúc tác và phép thử đạo đức của giáo dục

Trong vòng hơn một thập kỷ, trí tuệ nhân tạo (AI) đã nổi lên như một lực đẩy chiến lược của đổi mới giáo dục toàn cầu. Số lượng các công trình khoa học về AI tăng gấp ba lần trong giai đoạn 2010–2022, phản ánh sự dịch chuyển mạnh mẽ của hệ thống giáo dục – nghiên cứu sang mô hình “AI hỗ trợ” (Maslej et al., 2024). Từ những lớp học cá nhân hóa nhờ các hệ thống gợi ý thông minh, tới quy trình nghiên cứu được tăng tốc nhờ các mô hình ngôn ngữ lớn (LLM), AI đã và đang mở rộng không gian tri thức và cách thức con người học tập, sáng tạo, tương tác.

Tuy nhiên, cùng với những hứa hẹn đó là những phép thử đạo đức sâu sắc. Trong môi trường giáo dục, AI có thể vô tình tạo điều kiện cho gian lận học thuật, làm suy giảm tư duy phản biện, định hình lại cách đánh giá người học và thậm chí thay đổi các chuẩn mực đạo đức vốn được xây dựng qua hàng thế kỷ. Trong môi trường nghiên cứu, sự phụ thuộc vào đầu ra của máy móc có thể dẫn tới các quyết định thiếu kiểm chứng, lan truyền thông tin sai lệch, và làm phai nhạt vai trò của chủ thể con người trong tư duy sáng tạo (Luckin, 2018; Currie & Barry, 2023). Vấn đề không chỉ nằm ở bản thân công nghệ, mà sâu xa hơn, ở cách con người tiếp nhận và xử lý thông tin – chịu ảnh hưởng mạnh mẽ từ thiên kiến nhận thức.

Thiên kiến nhận thức – “kẽ hở vô hình” trong đạo đức AI

Thiên kiến nhận thức (cognitive biases) là những sai lệch có hệ thống trong quá trình tiếp nhận và ra quyết định của con người (Kahneman, 2011). Chúng không phải là những sai sót ngẫu nhiên, mà là các khuynh hướng tâm lý có thể dự đoán được, thường khiến con người đơn giản hóa vấn đề, bám vào những tín hiệu quen thuộc hoặc tin tưởng quá mức vào nguồn thông tin tưởng như “khách quan”. Trong môi trường giáo dục có yếu tố AI, các thiên kiến này dễ dàng bị khuếch đại bởi chính những đặc trưng của công nghệ.

Một khung mô phỏng hành vi gần đây đã hệ thống hóa sáu tình huống đạo đức điển hình trong giáo dục và nghiên cứu có sự tham gia của AI: gian lận học thuật, mất quyền chủ thể, thiên lệch trong đánh giá, bất bình đẳng trong tiếp cận, chấp nhận thông tin sai lệch, và đồng nhất hóa tư duy. Trong mỗi tình huống, 15 thiên kiến nhận thức đặc trưng được mô hình hóa để xác định cách chúng ảnh hưởng tới quyết định đạo đức (Tversky & Kahneman, 1974; Parasuraman & Riley, 1997; Milgram, 1963; Asch, 1956).

Ví dụ, thiên kiến chuẩn hóa và hợp lý hóa khiến người học coi việc sử dụng AI để sao chép là “bình thường, ai cũng làm”. Thiên kiến quyền uy và tự động hóa khiến giáo viên, sinh viên dễ mặc định tin vào đầu ra của AI hơn là đánh giá độc lập. Thiên kiến neo và sẵn có khiến các hệ thống đánh giá dựa quá nhiều vào dữ liệu quá khứ mà bỏ qua tiến bộ cá nhân. Thiên kiến nhóm và tuân thủ khiến tư duy của tập thể dần trở nên đồng dạng, thiếu phản biện.

Kết quả của hàng chục nghìn lượt mô phỏng cho thấy: 71% “tác nhân” thực hiện hành vi gian lận do ảnh hưởng của chuẩn hóa và tự mãn; 78% chấp nhận đầu ra AI mà không phản biện do quyền uy và tự động hóa; 65% tin vào thông tin sai do chiếu và quyền uy. Các phép kiểm định chi-bình phương và hồi quy logistic khẳng định mối quan hệ thống kê mạnh giữa từng thiên kiến với hành vi phi đạo đức. Khi nhiều thiên kiến đồng thời xuất hiện, hiệu ứng cộng hưởng còn mạnh hơn, đặc biệt trong các tình huống liên quan đến thông tin sai và gian lận học thuật.

Khi AI "gặp" giáo dục: Những đường gấp khúc của trách nhiệm đạo đức

Từ góc nhìn giáo dục, kết quả trên phơi bày một loạt “điểm mù” đạo đức tiềm tàng. Thứ nhất, thiên kiến chuẩn hóa khiến gian lận bằng AI dễ trở thành một hành vi “bình thường hóa” – khi sinh viên tin rằng “ai cũng dùng”, chuẩn mực bị xói mòn dần. Thứ hai, thiên kiến tự động hóa và quyền uy làm suy yếu tư duy phản biện: giáo viên và người học có xu hướng mặc định rằng công cụ AI “khách quan hơn con người”, dẫn đến việc từ bỏ trách nhiệm kiểm chứng. Thứ ba, thiên kiến neo và đại diện trong đánh giá có thể làm méo mó các quyết định chấm điểm, nhất là khi hệ thống dựa vào dữ liệu lịch sử chứa định kiến giới, ngôn ngữ hay xuất thân (Baker & Hawn, 2022). Thứ tư, thiên kiến duy trì hiện trạng đe dọa làm sâu sắc khoảng cách tiếp cận công nghệ giữa các nhóm học sinh – sinh viên, nhất là giữa thành thị và nông thôn, giàu và nghèo. Và cuối cùng, thiên kiến nhóm có nguy cơ bóp nghẹt sự đa dạng học thuật, dẫn tới đồng nhất hóa tư duy trong môi trường giáo dục đại học – nơi lẽ ra phải nuôi dưỡng tranh luận và sáng tạo.

Những đường gấp khúc này không thể giải quyết chỉ bằng giải pháp kỹ thuật, mà đòi hỏi các chiến lược giáo dục và chính sách đạo đức toàn diện, gắn với thực tiễn văn hóa – xã hội cụ thể.

Chiến lược toàn cầu: Hướng đến giáo dục đạo đức số

Trên thế giới, nhiều tổ chức và quốc gia đã bắt đầu xây dựng khung hành động cho đạo đức AI trong giáo dục. UNESCO (2022) nhấn mạnh bốn nguyên tắc cốt lõi: công bằng, minh bạch, trách nhiệm và tôn trọng quyền con người. Các mô hình giáo dục đạo đức số hiện đại không chỉ tập trung vào kỹ năng sử dụng công cụ mà còn nhấn mạnh năng lực tư duy phản biện, nhận diện thiên kiến và kiểm chứng thông tin.

Nhiều trường đại học lớn ở châu Âu và Bắc Mỹ đã tích hợp nội dung “AI literacy & ethics” vào chương trình đào tạo giáo viên và sinh viên, triển khai kiểm toán định kỳ các hệ thống đánh giá tự động, xây dựng quy trình phản hồi hai chiều để phát hiện thiên lệch. Các nghiên cứu gần đây cũng cho thấy, việc kết hợp nâng cao hiểu biết về AI với các chuẩn mực đạo đức rõ ràng có thể giảm đáng kể các hành vi gian lận và cải thiện chất lượng phản biện trong môi trường học thuật (Hoff & Bashir, 2015; Xu et al., 2024).

Hàm ý cho Việt Nam: Từ khung lý thuyết đến hành động chính sách

Trong bối cảnh Việt Nam đang bước vào giai đoạn then chốt của chuyển đổi số giáo dục (theo Nghị quyết 71-NQ/TW 2025 và Chương trình hành động của Chính phủ tại Nghị quyết 281/NQ-CP 2025), những vấn đề về thiên kiến nhận thức và đạo đức AI không còn là lý thuyết xa vời mà là yêu cầu cấp thiết để xây dựng môi trường giáo dục số lành mạnh. Một số định hướng cụ thể có thể xem xét:

Thứ nhất, tích hợp giáo dục đạo đức số và hiểu biết về AI vào chương trình đào tạo giáo viên và học sinh ở các cấp, phù hợp với định hướng của Chương trình giáo dục phổ thông 2018 (CT GDPT 2018). Điều này bao gồm nhận diện thiên kiến, kỹ năng kiểm chứng thông tin, và trách nhiệm khi sử dụng công cụ số.

Thứ hai, xây dựng hệ thống kiểm toán và đánh giá định kỳ các công cụ AI trong nhà trường và các kỳ thi, nhằm phát hiện sớm các dạng thiên lệch (đặc biệt là thiên kiến ngôn ngữ, vùng miền, giới tính) và đưa ra biện pháp khắc phục kịp thời.

Thứ ba, thu hẹp khoảng cách số bằng cách bảo đảm quyền tiếp cận công bằng với công cụ AI giữa các nhóm học sinh – sinh viên, giữa thành thị và nông thôn, phù hợp với tinh thần phổ cập giáo dục và chuyển đổi số vùng khó khăn trong các nghị quyết gần đây.

Thứ tư, xây dựng khung chính sách quản trị AI trong giáo dục, lồng ghép các nguyên tắc đạo đức quốc tế với bối cảnh pháp lý – văn hóa Việt Nam, bao gồm quy định về quyền sử dụng, trách nhiệm pháp lý và quy trình xử lý gian lận liên quan đến AI trong học tập và nghiên cứu.

Cuối cùng, phát triển năng lực cho đội ngũ giáo viên, cán bộ quản lý giáo dục và nhà nghiên cứu, để họ trở thành những “người gác cổng” về đạo đức số, có khả năng phát hiện, hướng dẫn và định hình chuẩn mực sử dụng AI trong cộng đồng học thuật.

Chủ động định hình đạo đức AI để không bị dẫn dắt

AI không phải là mối đe dọa cũng không phải là chiếc đũa thần. Nó là một “tấm gương khuếch đại” phản chiếu những điểm mạnh và điểm yếu của hệ thống giáo dục. Khi các thiên kiến nhận thức không được nhận diện và kiểm soát, AI có thể vô tình làm sâu sắc các lệch lạc, thậm chí làm suy yếu những giá trị cốt lõi của giáo dục như trung thực, phản biện và sáng tạo. Ngược lại, nếu được quản trị tốt, AI có thể trở thành một công cụ mạnh mẽ để thúc đẩy minh bạch, công bằng và đổi mới. Đối với Việt Nam, đây là thời điểm quan trọng để chủ động định hình chuẩn mực đạo đức số, không chỉ để theo kịp xu thế quốc tế mà còn để đảm bảo rằng công cuộc chuyển đổi số giáo dục được đặt trên nền tảng vững chắc về giá trị và trách nhiệm. Nhận diện thiên kiến nhận thức chính là bước đầu tiên của hành trình đó.

Vân An tổng hợp

Tài liệu tham khảo

Aoun, J. E. (2017). Robot-proof: Higher education in the age of artificial intelligence. MIT Press.

Ashforth, B. E., & Anand, V. (2003). The normalization of corruption in organizations. Research in Organizational Behavior, 25, 1–52.

Asch, S. E. (1956). Studies of independence and conformity: I. A minority of one against a unanimous majority. Psychological Monographs: General and Applied, 70(9), 1–70.

Baker, R. S., & Hawn, A. (2022). Algorithmic bias in education. International Journal of Artificial Intelligence in Education, 32(4), 858–877. https://doi.org/10.1007/s40593-021-00266-5

Barros, D., Maslej, N., & Brynjolfsson, E. (2023). Generative AI and global knowledge diffusion. Nature Human Behaviour, 7, 1495–1503.

Currie, G., & Barry, J. (2023). Generative AI and academic integrity: Emerging risks in assessment. Assessment & Evaluation in Higher Education.

Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1

Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1), 99–120.

Hoff, K. A., & Bashir, M. (2015). Trust in automation: Integrating empirical evidence on factors that influence trust. Human Factors, 57(3), 407–434.

Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

Luckin, R. (2018). Machine learning and human intelligence: The future of education for the 21st century. UCL IOE Press.

Maslej, N., et al. (2024). The AI Index Report 2024. Stanford University.

Milgram, S. (1963). Behavioral study of obedience. Journal of Abnormal and Social Psychology, 67(4), 371–378.

Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253.

Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.

UNESCO. (2022). Recommendation on the Ethics of Artificial Intelligence. UNESCO.

Xu, Y., Johnson, S. L., & Lu, X. (2024). Anthropomorphism in human–AI interaction: A systematic review. Computers in Human Behavior, 152, 107180.