Sự xuất hiện của các công cụ GenAI như ChatGPT, Claude hay Gemini đang tạo ra những thay đổi sâu rộng đối với nhiều nguyên tắc cốt lõi trong hệ thống giáo dục đại học. Một trong những vấn đề đáng lo ngại nhất là việc sinh viên có thể hoàn thành các bài kiểm tra hoặc bài luận với sự hỗ trợ của AI mà không cần vận dụng thực sự kiến thức hoặc kỹ năng đã học. Thực trạng này đặt ra mối đe dọa trực tiếp đối với tính xác thực của đánh giá – yếu tố nền tảng bảo đảm chất lượng đầu ra và uy tín của văn bằng trong giáo dục đại học.
Trước nguy cơ đó, nhiều trường đại học trên thế giới đã triển khai hàng loạt chính sách nhằm quản lý việc sử dụng AI trong quá trình đánh giá. Trong đó, mô hình phổ biến nhất là hệ thống "đèn giao thông" – phân loại mức độ cho phép AI can thiệp vào bài làm theo ba cấp độ: đỏ (cấm hoàn toàn), vàng (cho phép hỗ trợ có giới hạn), và xanh (khuyến khích tích hợp đầy đủ). Một số trường khác áp dụng thang đo đánh giá AI (AI Assessment Scale) với nhiều cấp độ tinh vi hơn, từ cấm hoàn toàn đến yêu cầu sinh viên sử dụng AI một cách có chủ đích và sáng tạo. Ngoài ra, cũng có những cơ sở yêu cầu sinh viên kê khai rõ ràng việc sử dụng AI, từ tên công cụ, câu lệnh yêu cầu, đến cách sử dụng đầu ra.
Tuy nhiên, vấn đề cốt lõi ở đây không nằm ở việc có quy định hay không, mà là ở khả năng thực thi của những quy định đó. Các phương pháp kể trên – dù được thiết kế chi tiết và có tính minh bạch – vẫn chủ yếu là các thay đổi mang tính “ngôn luận” (discursive changes), tức là phụ thuộc hoàn toàn vào việc sinh viên tự nguyện tuân thủ các hướng dẫn. Trong bối cảnh GenAI ngày càng khó phát hiện, việc trông chờ vào tính trung thực thuần túy của người học mà không có cơ chế giám sát hữu hiệu là điều không thực tế, và có thể dẫn tới sự sụp đổ của cả hệ thống kiểm định học thuật.
Để vượt qua “điểm nghẽn” đó, Corbin và cộng sự (2025) đề xuất một khái niệm phân biệt then chốt giữa hai loại thay đổi trong thiết kế đánh giá: thay đổi ngôn luận (discursive) và thay đổi cấu trúc (structural). Thay đổi ngôn luận là các điều chỉnh dựa trên việc bổ sung chỉ dẫn, quy định hay khuyến cáo về việc sử dụng AI – như thêm dòng cảnh báo “không được dùng AI” trong đề bài. Ngược lại, thay đổi cấu trúc là các điều chỉnh có tính cơ chế – thay đổi hình thức, cách thức thực hiện hoặc kiểm tra bài làm sao cho hành vi sử dụng AI không phù hợp trở nên khó hoặc không thể thực hiện. Một ví dụ điển hình cho thay đổi cấu trúc là việc chuyển từ bài luận giao về nhà sang bài viết trực tiếp tại lớp dưới sự giám sát. Cũng có thể là việc thiết kế chuỗi bài tập liên hoàn – trong đó sinh viên buộc phải trình bày quá trình hình thành tư duy, trao đổi ý tưởng, hoặc tương tác trực tiếp với giáo viên trong các chặng trung gian – khiến cho kết quả cuối cùng không thể được tạo ra đơn thuần bằng AI. Những thay đổi này không đòi hỏi sinh viên phải tuân thủ bất kỳ quy định ngôn luận nào về việc cấm dùng AI, mà thay vào đó, bản thân bài đánh giá được thiết kế sao cho việc học giả, gian lận hay sử dụng công cụ không phù hợp trở nên vô hiệu.
Điểm đặc biệt đáng lưu ý là trong bối cảnh GenAI, các công cụ phát hiện AI hoặc watermark nội dung vẫn còn rất thiếu tin cậy. Những công cụ kiểm tra đạo văn truyền thống không còn phát huy tác dụng khi AI có thể tạo ra văn bản “gốc” mỗi lần sử dụng. Chính vì thế, việc dựa vào “cấm đoán” thông qua ngôn từ mà không có thiết kế phù hợp là vô nghĩa. Như các tác giả cảnh báo, sự tồn tại của các mô hình "đèn giao thông" hay bản kê khai AI có thể tạo ra một “ảo tưởng thực thi” – khiến giảng viên và nhà quản lý tưởng rằng họ đang kiểm soát được tình hình, trong khi thực tế, mọi hành vi không tuân thủ vẫn có thể diễn ra âm thầm, không thể bị phát hiện. Vì vậy, cần có một “sự chuyển dịch triệt để” từ việc đặt ra quy định về AI, sang việc tái thiết kế bản chất các bài đánh giá. Đây là lúc giáo dục đại học cần tư duy lại toàn diện về mục tiêu đánh giá, từ định hướng sản phẩm (product-based assessment) sang định hướng quá trình (process-based assessment), từ việc đánh giá một bài nộp cuối cùng sang việc theo dõi sự phát triển tư duy, kỹ năng, và năng lực học thuật qua chuỗi hoạt động xác thực.
Tại Việt Nam, việc sử dụng AI trong học tập đã bắt đầu thu hút sự quan tâm từ cả giới chuyên môn và các nhà quản lý giáo dục. Trong bối cảnh Bộ Giáo dục và Đào tạo đang đẩy mạnh chuyển đổi số, đồng thời đổi mới phương pháp kiểm tra – đánh giá theo định hướng phát triển năng lực, nhu cầu thiết kế các mô hình đánh giá tích hợp công nghệ, có kiểm soát và được tổ chức trên nền tảng cấu trúc rõ ràng trở nên đặc biệt cấp thiết. Hướng tiếp cận này đang từng bước được một số cơ sở đào tạo trong nước chủ động triển khai, trong đó Trung tâm Đào tạo từ xa – Đại học Thái Nguyên là một điển hình tiêu biểu. Với vai trò tiên phong trong tổ chức các chương trình đào tạo kết hợp linh hoạt giữa trực tuyến và trực tiếp, Trung tâm không chỉ tích cực tích hợp công nghệ vào quá trình giảng dạy, mà còn chú trọng đổi mới hình thức đánh giá theo hướng thực chứng và thích ứng với môi trường số. Những điều chỉnh này thể hiện nỗ lực xây dựng các mô hình đánh giá có cấu trúc, góp phần đảm bảo tính xác thực và phù hợp với bối cảnh chuyển đổi giáo dục trong thời đại AI.
Website của Trung tâm Đào tạo từ xa, Đại học Thái Nguyên, https://dec.tnu.edu.vn/
Việc chuyển đổi từ các hình thức đánh giá mang tính ngôn luận sang các mô hình đánh giá dựa trên cấu trúc không thể diễn ra trong thời gian ngắn, cũng không đơn thuần là một thao tác kỹ thuật. Đây là một quá trình phức tạp, đòi hỏi sự đầu tư nghiêm túc về mặt chuyên môn và sự phối hợp chặt chẽ giữa các bên liên quan – từ đội ngũ thiết kế chương trình, tổ chuyên môn, giảng viên đến các đơn vị khảo thí và đảm bảo chất lượng. Tuy nhiên, điều cốt lõi hơn cả nằm ở sự chuyển đổi trong tư duy tiếp cận: thay vì đặt trọng tâm vào câu hỏi “làm thế nào để ngăn chặn việc sử dụng AI?”, cần chuyển sang một cách đặt vấn đề có tính chiến lược hơn – “làm thế nào để duy trì tính ý nghĩa và giá trị của đánh giá học tập trong một môi trường mà AI đã trở thành một phần không thể tách rời?”. Chính sự dịch chuyển tư duy này mới đặt nền móng cho việc xây dựng một hệ thống đánh giá có khả năng bảo vệ tính xác thực, nâng cao chất lượng học tập thực chất và củng cố uy tín học thuật trong bối cảnh số hóa sâu rộng.
Sự phát triển mạnh mẽ của Gen AI không đơn giản là sự bổ sung công cụ công nghệ, mà đang định hình lại toàn bộ logic vận hành của hoạt động đánh giá trong giáo dục đại học. Thách thức mà GenAI đặt ra không chỉ mang tính kỹ thuật, mà còn là một “phép thử” tư duy ở cấp độ hệ thống. Việc tiếp tục duy trì các mô hình đánh giá dựa vào hướng dẫn ngôn luận – vốn thiếu các cơ chế giám sát và xác thực đáng tin cậy – sẽ dẫn tới sự xói mòn tính chính danh của kết quả học tập, làm suy giảm niềm tin xã hội vào các chuẩn mực học thuật và tính công bằng của hệ thống giáo dục. Khi đánh giá phụ thuộc quá nhiều vào sự tự giác và không có khả năng kiểm chứng khách quan, nền tảng đảm bảo chất lượng sẽ bị lung lay.
Trong bối cảnh đó, thay vì tập trung vào việc kiểm soát hành vi sử dụng AI thông qua các quy định hành chính, điều cần thiết là thiết kế lại các nhiệm vụ đánh giá sao cho năng lực người học phải được thể hiện một cách xác thực thông qua chính cấu trúc của bài làm. Cách tiếp cận này hướng đến việc chuyển trọng tâm từ kiểm soát sang kiến tạo: kiến tạo một môi trường đánh giá mà ở đó người học buộc phải vận dụng hiểu biết, kỹ năng và tư duy cá nhân để hoàn thành nhiệm vụ học thuật. Đối với giáo dục đại học Việt Nam, đây không đơn thuần là một thách thức tạm thời, mà là cơ hội để tái cấu trúc mô hình đào tạo theo hướng thực chất, khai phóng và có khả năng thích ứng trong một thế giới đang được dẫn dắt bởi AI. Những chuyển đổi cần thiết này không thể chỉ dừng lại ở điều chỉnh quy chế, mà cần bắt đầu từ việc tái tư duy và thiết kế lại đánh giá như một trụ cột nền tảng trong chiến lược bảo đảm chất lượng và phát triển năng lực người học.
Lương Ngọc, Vân An
Tài liệu tham khảo:
Corbin, T., Dawson, P., & Liu, D. (2025). Talk is cheap: why structural assessment changes are needed for a time of GenAI. Assessment & Evaluation in Higher Education, 1–11. https://doi.org/10.1080/02602938.2025.2503964
Perkins, M., Furze, L., Roe, J., & MacVaugh, J. (2024b). The Artificial Intelligence Assessment Scale (AIAS): a framework for ethical integration of generative AI in educational assessment. Journal of University Teaching and Learning Practice, 21(06). https://doi.org/10.53761/q3azde36
Perkins, M., J. Roe, B. H. Vu, D. Postma, D. Hickerson, J. McGaughran, & H. Q. Khuat (2024) GenAI Detection Tools, Adversarial Techniques and Implications for Inclusivity in Higher Education. arXiv Preprint arXiv:2403.19148.