Uso de pequenos modelos de linguagem como ferramentas de ensino no programa de mestrado ELSEI

Autores

  • Aammou Souhaib Abdelmalek Essaadi University
  • Tagdimi Zakaria Abdelmalek Essaadi University
  • Touis Tarik Abdelmalek Essaadi University

Palavras-chave:

Modelos linguísticos pequenos, ELSEI, Sistema de resposta a perguntas, Tutoria personalizada

Resumo

O sistema QAIP (Question Answering Introduction to Python) tem como objetivo aprimorar a experiência de aprendizado em cursos introdutórios de Python, fornecendo respostas precisas e eficientes para consultas relacionadas a Python. O surgimento de modelos de linguagem ampla (LLMs) teve um impacto significativo na educação, especialmente dentro da estrutura da Educação 4.0, que busca preparar os alunos para um mundo tecnologicamente avançado. Os LLMs, como o ChatGPT da OpenAI e o Copilot do GitHub, revolucionaram a criação de conteúdo, a tutoria personalizada e o envolvimento dos alunos, alinhando-se às metas da Educação 4.0. No entanto, o desafio de desenvolver exercícios de programação adequados e manter o aprendizado ativo em cursos introdutórios de programação persiste, especialmente devido ao rápido compartilhamento on-line de soluções. Nesse contexto, os Small Language Models (SLMs) oferecem uma alternativa leve e eficiente para a integração educacional. Este artigo explora a integração de SLMs no sistema QAIP dentro do programa E-learning and Intelligent Educational Systems (ELSEI), com o objetivo de capacitar os alunos com as habilidades para desenvolver ferramentas educacionais inovadoras. Ao reduzir a lacuna existente no conteúdo de IA, este trabalho pretende contribuir para o discurso mais amplo sobre acessibilidade e diversidade de IA. O processo de desenvolvimento envolve coleta minuciosa de dados, treinamento de modelos estratégicos e implementação cuidadosa para garantir que o sistema orientado por IA atenda efetivamente às necessidades dos alunos e aprimore os resultados da aprendizagem. Por meio desse esforço interdisciplinar, pretendemos fomentar uma cultura de inovação e contribuir de forma significativa para a evolução da IA na educação.

Biografia do Autor

Aammou Souhaib, Abdelmalek Essaadi University

Abdelmalek Essaadi University

Tagdimi Zakaria, Abdelmalek Essaadi University

Abdelmalek Essaadi University

Touis Tarik, Abdelmalek Essaadi University

Abdelmalek Essaadi University

Referências

Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., … Amodei, D. (2020). Language Models are Few-Shot Learners (arXiv:2005.14165). arXiv. http://arxiv.org/abs/2005.14165

Denny, P., Kumar, V., & Giacaman, N. (2022). Conversing with Copilot: Exploring Prompt Engineering for Solving CS1 Problems Using Natural Language (arXiv:2210.15157). arXiv. https://doi.org/10.48550/arXiv.2210.15157

Englhardt, Z., Li, R., Nissanka, D., Zhang, Z., Narayanswamy, G., Breda, J., Liu, X., Patel, S., & Iyer, V. (2024). Exploring and Characterizing Large Language Models for Embedded System Development and Debugging. Extended Abstracts of the 2024 CHI Conference on Human Factors in Computing Systems, 1–9. https://doi.org/10.1145/3613905.3650764

Gattupalli, S., Lee, W., Allessio, D., Crabtree, D., Arroyo, I., & Woolf, B. (n.d.). Exploring Pre-Service Teachers’ Perceptions of Large Language Models-Generated Hints in Online Mathematics Learning.

Grangier, D., Katharopoulos, A., Ablin, P., & Hannun, A. (2024). Specialized Language Models with Cheap Inference from Limited Domain Data (arXiv:2402.01093; Version 1). arXiv. https://doi.org/10.48550/arXiv.2402.01093

OpenAI, Achiam, J., Adler, S., Agarwal, S., Ahmad, L., Akkaya, I., Aleman, F. L., Almeida, D., Altenschmidt, J., Altman, S., Anadkat, S., Avila, R., Babuschkin, I., Balaji, S., Balcom, V., Baltescu, P., Bao, H., Bavarian, M., Belgum, J., … Zoph, B. (2024). GPT-4 Technical Report (arXiv:2303.08774). arXiv. http://arxiv.org/abs/2303.08774

Sarsa, S., Denny, P., Hellas, A., & Leinonen, J. (2022). Automatic Generation of Programming Exercises and Code Explanations using Large Language Models. Proceedings of the 2022 ACM Conference on International Computing Education Research - Volume 1, 27–43. https://doi.org/10.1145/3501385.3543957

Wang, Z., Ng, P., Ma, X., Nallapati, R., & Xiang, B. (2019). Multi-passage BERT: A Globally Normalized BERT Model for Open-domain Question Answering. In K. Inui, J. Jiang, V. Ng, & X. Wan (Eds.), Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (pp. 5878–5882). Association for Computational Linguistics. https://doi.org/10.18653/v1/D19-1599

Publicado

2024-12-27

Como Citar

Souhaib, A., Zakaria, T., & Tarik, T. (2024). Uso de pequenos modelos de linguagem como ferramentas de ensino no programa de mestrado ELSEI. Cadernos De Educação, Tecnologia E Sociedade, 17(se4). Recuperado de https://brajets.com/brajets/article/view/1735

Edição

Seção

Mobilizando a Ciência da Comunicação em Favor do Planeta