Phát triển trợ lý ảo học tập tích hợp LLM hỗ trợ học môn Cấu trúc dữ liệu và Giải thuật
Các tác giả
DOI: https://doi.org/10.59294/HIUJS2025058Từ khóa:
cá nhân hóa học tập, cấu trúc dữ liệu và giải thuật, kỹ thuật RAG, mô hình ngôn ngữ lớn, trợ lý ảo học tậpTóm tắt
Trợ lý ảo học tập là một trong những ứng dụng tiềm năng của trí tuệ nhân tạo trong giáo dục đại học, đặc biệt khi kết hợp với các mô hình ngôn ngữ lớn (LLM). Bài báo này trình bày một cách tiếp cận phát triển hệ thống trợ lý ảo hỗ trợ học tập cho môn học Cấu trúc dữ liệu và Giải thuật (CTDL>) - một trong những học phần nền tảng và bắt buộc trong chương trình đào tạo ngành Công nghệ thông tin, giữ vai trò quan trọng trong việc rèn luyện tư duy thuật toán và năng lực giải quyết vấn đề cho sinh viên. Hệ thống được xây dựng dựa trên kiến trúc tích hợp giữa mô hình ngôn ngữ lớn và kỹ thuật truy hồi kết hợp sinh (Retrieval-Augmented Generation - RAG). Nghiên cứu cũng đề xuất cách tiếp cận đánh giá trợ lý ảo học tập dựa trên ba tiêu chí: Cấu trúc câu trả lời, chất lượng nội dung và độ liên quan đến truy vấn người học. Kết quả đánh giá cho thấy hệ thống giúp sinh viên tiếp cận và ôn tập kiến thức một cách trực quan, linh hoạt và hiệu quả. Nghiên cứu mở ra hướng phát triển khả thi cho việc ứng dụng LLM trong xây dựng công cụ học tập thông minh và cá nhân hóa trong môi trường giáo dục đại học.
Abstract
Virtual learning assistants represent a promising application of artificial intelligence in higher education, especially when integrated with large language models (LLMs). This paper presents a development approach for an AI-powered assistant designed to support student learning in the course Data Structures and Algorithms - a foundational and compulsory subject in computer science education, essential for building algorithmic thinking and problem-solving skills. The system architecture integrates advanced LLMs with the Retrieval-Augmented Generation (RAG) technique. The study also proposes an evaluation method for the assistant based on three criteria: Structural quality, content accuracy, and contextual relevance of the responses. Experimental results indicate that the system facilitates more intuitive, flexible, and effective access to course knowledge compared to traditional study methods. This research demonstrates a feasible and practical approach for applying LLMs to the development of intelligent, personalized learning tools in higher education environments.
Tài liệu tham khảo
[1] L. T. Hiền, “Tác động của Chatbot AI đến việc học tập của sinh viên,” 2024 [Trực tuyến]. Available: https://digital.lib.ueh.edu.vn/handle/UEH/72395.
[2] S. Wollny, J. Schneider, D. Di Mitri, J. Weidlich, M. Rittberger and H. Drachsler, "Are We There Yet? - A Systematic Literature Review on Chatbots in Education," Frontiers in Artificial Intelligence, vol. Volume 4, July 2021.
DOI: https://doi.org/10.3389/frai.2021.654924[3] G. Caldarini, S. Jaf and K. McGarry, "A Literature Survey of Recent Advances in Chatbots," Information, vol. 13, 2022.
DOI: https://doi.org/10.3390/info13010041[4] X. Huang, "CHATBOT: Architecture, Design, & Development," in Ph.D. Thesis, Pennsylvania, University of Pennsylvania, School of Engineering and Applied Science, 2017.
[5] B. A.Alazzam, M. Alkhatib and K. Shaanlan, "Artificial Intelligence Chatbots: A Survey of Classical versus Deep Machine Learning Techniques," 28 April 2023. [Online]. Available: https://digitalcommons.aaru.edu.jo/isl/vol12/iss4/37.
DOI: https://doi.org/10.18576/isl/120437[6] A. Radford and K. Narasimhan, "Improving Language Understanding by Generative Pre-Training," 2018. [Online]. Available: https://api.semanticscholar.org/CorpusID:49313245.
7] M. Lewis, Y. Liu, N. Goyal, M. Ghazvininejad, A. Mohamed, O. Levy, V. Stoyanov and L. Zettlemoyer, "BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension," 2019.
DOI: https://doi.org/10.18653/v1/2020.acl-main.703[8] Meta, "Llama 2: Open Foundation and Fine-Tuned Chat Models," 2023. [Online]. Available: https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat- models/. [Accessed 30 April 2025].
[9] P. Lewis, E. Perez, A. Piktus, F. Petroni, V. Karpukhin, N. Goyal, H. Küttler, M. Lewis, W.-t. Yih, T. Rocktäschel, S. Riedel and D. Kiela, "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks," 2021.
[10] Q. T. Thơ, T. N. Oanh, B. C. Tuấn, N. V. Phương, H. N. N. Bảo, N. S. T. Long and B. H. Thắng, "Phát triển trợ lý ảo thông minh bằng mô hình ngôn ngữ lớn hỗ trợ giảng dạy," 24 May 2024. [Online]. Available: https://tapchikhoahochongbang.vn/js/article/view/819.
[11] B. N. Quang, "Nghiên cứu và xây dựng chatbot tư vấn người dùng trong y tế da liễu," March 2022. [Online]. [Accessed March 2025].
[12] H. N. Long, N. Đ. Thịnh, L. D. Thưởng, V. H. Đăng and T. H. Việt, "Phương pháp xây dựng ứng dụng hỗ trợ học tập dựa trên ChatGPT API," 24 May 2024. [Online]. Available: https://tapchikhoahochongbang.vn/js/article/view/820. [Accessed 01 May 2025].
[13] L. Richter, X. He, P. Minervini and M. J. Kusner, "An Auditing Test To Detect Behavioral Shift in Language Models," October 2024. [Online]. Available: https://arxiv.org/abs/2410.19406. [Accessed 30 April 2025].
[14] Microsoft, "A list of metrics for evaluating LLM-generated content," Microsoft, 25 June 2024. [Online]. Available: https://learn.microsoft.com/en-us/ai/playbook/technology-guidance/generative-ai/working-with-llms/evaluation/list-of-eval-metrics.
[15] P. Wang, S. Bai, S. Tan, S. Wang, Z. Fan and J. Bai, "Qwen2-VL: Enhancing Vision-Language Model's Perception," Alibaba, 03 October 2024. [Online]. Available: https://arxiv.org/pdf/2409.12191.
[16] HuggingFace, "Hermes 3 - Llama-3.2 3B," Teknium, [Online]. Available: https://huggingface.co/ NousResearch/Hermes-3-Llama-3.2-3B. [Accessed 30 April 2025].
[17] Đ. V. Nhơn và T. Q. Sơn, Giáo trình Cấu trúc dữ liệu & Giải thuật, NXB ĐHQG, TP. HCM, 2015.
Tải xuống
Tải xuống: 224




