Uso de pequenos modelos de linguagem como ferramentas de ensino no programa de mestrado ELSEI
Palavras-chave:
Modelos linguísticos pequenos, ELSEI, Sistema de resposta a perguntas, Tutoria personalizadaResumo
O sistema QAIP (Question Answering Introduction to Python) tem como objetivo aprimorar a experiência de aprendizado em cursos introdutórios de Python, fornecendo respostas precisas e eficientes para consultas relacionadas a Python. O surgimento de modelos de linguagem ampla (LLMs) teve um impacto significativo na educação, especialmente dentro da estrutura da Educação 4.0, que busca preparar os alunos para um mundo tecnologicamente avançado. Os LLMs, como o ChatGPT da OpenAI e o Copilot do GitHub, revolucionaram a criação de conteúdo, a tutoria personalizada e o envolvimento dos alunos, alinhando-se às metas da Educação 4.0. No entanto, o desafio de desenvolver exercícios de programação adequados e manter o aprendizado ativo em cursos introdutórios de programação persiste, especialmente devido ao rápido compartilhamento on-line de soluções. Nesse contexto, os Small Language Models (SLMs) oferecem uma alternativa leve e eficiente para a integração educacional. Este artigo explora a integração de SLMs no sistema QAIP dentro do programa E-learning and Intelligent Educational Systems (ELSEI), com o objetivo de capacitar os alunos com as habilidades para desenvolver ferramentas educacionais inovadoras. Ao reduzir a lacuna existente no conteúdo de IA, este trabalho pretende contribuir para o discurso mais amplo sobre acessibilidade e diversidade de IA. O processo de desenvolvimento envolve coleta minuciosa de dados, treinamento de modelos estratégicos e implementação cuidadosa para garantir que o sistema orientado por IA atenda efetivamente às necessidades dos alunos e aprimore os resultados da aprendizagem. Por meio desse esforço interdisciplinar, pretendemos fomentar uma cultura de inovação e contribuir de forma significativa para a evolução da IA na educação.
Referências
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., … Amodei, D. (2020). Language Models are Few-Shot Learners (arXiv:2005.14165). arXiv. http://arxiv.org/abs/2005.14165
Denny, P., Kumar, V., & Giacaman, N. (2022). Conversing with Copilot: Exploring Prompt Engineering for Solving CS1 Problems Using Natural Language (arXiv:2210.15157). arXiv. https://doi.org/10.48550/arXiv.2210.15157
Englhardt, Z., Li, R., Nissanka, D., Zhang, Z., Narayanswamy, G., Breda, J., Liu, X., Patel, S., & Iyer, V. (2024). Exploring and Characterizing Large Language Models for Embedded System Development and Debugging. Extended Abstracts of the 2024 CHI Conference on Human Factors in Computing Systems, 1–9. https://doi.org/10.1145/3613905.3650764
Gattupalli, S., Lee, W., Allessio, D., Crabtree, D., Arroyo, I., & Woolf, B. (n.d.). Exploring Pre-Service Teachers’ Perceptions of Large Language Models-Generated Hints in Online Mathematics Learning.
Grangier, D., Katharopoulos, A., Ablin, P., & Hannun, A. (2024). Specialized Language Models with Cheap Inference from Limited Domain Data (arXiv:2402.01093; Version 1). arXiv. https://doi.org/10.48550/arXiv.2402.01093
OpenAI, Achiam, J., Adler, S., Agarwal, S., Ahmad, L., Akkaya, I., Aleman, F. L., Almeida, D., Altenschmidt, J., Altman, S., Anadkat, S., Avila, R., Babuschkin, I., Balaji, S., Balcom, V., Baltescu, P., Bao, H., Bavarian, M., Belgum, J., … Zoph, B. (2024). GPT-4 Technical Report (arXiv:2303.08774). arXiv. http://arxiv.org/abs/2303.08774
Sarsa, S., Denny, P., Hellas, A., & Leinonen, J. (2022). Automatic Generation of Programming Exercises and Code Explanations using Large Language Models. Proceedings of the 2022 ACM Conference on International Computing Education Research - Volume 1, 27–43. https://doi.org/10.1145/3501385.3543957
Wang, Z., Ng, P., Ma, X., Nallapati, R., & Xiang, B. (2019). Multi-passage BERT: A Globally Normalized BERT Model for Open-domain Question Answering. In K. Inui, J. Jiang, V. Ng, & X. Wan (Eds.), Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (pp. 5878–5882). Association for Computational Linguistics. https://doi.org/10.18653/v1/D19-1599
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2024 Aammou Souhaib, Tagdimi Zakaria, Touis Tarik
Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License. A revista segue a política para Periódicos de Acesso Livre, oferecendo acesso livre, imediato e gratuito ao seu conteúdo, seguindo o princípio de que disponibilizar gratuitamente o conhecimento científico ao público proporciona mais democratização internacional do conhecimento. Por isso, não se aplica taxas, sejam elas para submissão, avaliação, publicação, visualização ou downloads dos artigos. Além disso, a revista segue a licença Creative Common (CC BY) permitindo qualquer divulgação do artigo, desde que sejam referenciados o artigo original. Neste sentido, os autores que publicam nesta revista concordam com os seguintes termos: A) Os autores mantém os direitos autorais e concedem à revista o direito de primeira publicação, com o trabalho simultaneamente licenciado sob a Creative Commons Attribution License (CC BY), permitindo o compartilhamento do trabalho com reconhecimento da autoria do trabalho e publicação inicial nesta revista. B) Autores têm autorização para distribuição não-exclusiva da versão do trabalho publicada nesta revista (ex.: publicar em repositório institucional e não institucional, bem como capítulo de livro), com reconhecimento de autoria e publicação inicial nesta revista. C) Autores sãoo estimulados a publicar e distribuir seu trabalho online (ex.: repositórios online ou na sua página pessoal), bem como aumentar o impacto e a citação do trabalho publicado.