Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/31608
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSantos, Juliano Nunes dos-
dc.date.accessioned2024-08-28T12:51:46Z-
dc.date.available2023-12-10-
dc.date.available2024-08-28T12:51:46Z-
dc.date.issued2023-11-10-
dc.identifier.urihttps://repositorio.ufpb.br/jspui/handle/123456789/31608-
dc.description.abstractIn recent years there has been a popularization of general-purpose, large language model chatbots that use artificial intelligence to communicate with human beings. These systems have a generally satisfactory range of knowledge in several areas due to their training, which uses massive databases made up of internet data, with ChatGPT being the most popular currently. But one area in which these chatbots often have difficulty presenting correct reasoning and answers is solving mathematical problems, generally presenting lower performance compared to other areas. For this reason, this study was carried out to analyze ChatGPT's performance in mathematics questions from six ENEM tests (2017 to 2023), in order to try and identify the types of difficulties that the program encounters when trying to solve such problems. Categorizations were made depending on the successes and errors made, such as the rate of each one, the thematic units and the types of visual representations in which they fit and the categories of causes of the errors. It was observed that ChatGPT has difficulty answering questions in the area, with an accuracy rate that varies between 22.2% and 55.5%, and that it tends to have more difficulty in questions pertaining to Unit 2 (Using geometric knowledge to perform the reading and representation of reality and act on it) and that have visual representations of “described geometric shapes”. The biggest causes of error found were incorrect interpretations of the proposed problems and a lack of logic and coherence in the answers given, in addition to a high frequency of incorrect calculation of values. In future works, this type of evaluation can be expanded to other chatbots, and can also be carried out by researchers and experts in the field of mathematics in order to improve the optimization of the performance in this topic of this type of tool.pt_BR
dc.description.provenanceSubmitted by Michelle Barbosa (mi.2020@outlook.com.br) on 2024-08-28T12:51:46Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Juliano Nunes dos Santos_TCC.pdf: 1354697 bytes, checksum: 9b86466f8e4bd047474143e6e2c5e092 (MD5)en
dc.description.provenanceMade available in DSpace on 2024-08-28T12:51:46Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Juliano Nunes dos Santos_TCC.pdf: 1354697 bytes, checksum: 9b86466f8e4bd047474143e6e2c5e092 (MD5) Previous issue date: 2023-11-10en
dc.languageporpt_BR
dc.publisherUniversidade Federal da Paraíbapt_BR
dc.rightsAcesso abertopt_BR
dc.rightsAttribution-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nd/3.0/br/*
dc.subjectChatbotspt_BR
dc.subjectChatgptpt_BR
dc.subjectResolução de problemaspt_BR
dc.subjectENEMpt_BR
dc.titleAvaliação do desempenho do ChatGPT na área de Matemática dos testes do ENEMpt_BR
dc.typeTCCpt_BR
dc.contributor.advisor1Rêgo, Thaís Gaudêncio do-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3166390632199101pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/3717924715867977pt_BR
dc.description.resumoNos últimos anos houve a popularização dos chatbots de uso geral que utilizam modelos de linguagem em larga escala para se comunicarem com seres humanos. Estes sistemas possuem uma abrangência de conhecimentos geralmente satisfatória em diversas áreas devido ao seu treinamento, que utiliza bases de dados massivas compostas de dados da internet, sendo o ChatGPT o mais popular atualmente. Mas uma área que estes chatbots frequentemente tem dificuldade em apresentar um raciocínio e respostas corretas é a de resolução de problemas matemáticos, geralmente apresentando desempenho inferior em relação às outras áreas. Por essa razão, esse estudo foi feito para analisar a performance do ChatGPT em questões de matemática de seis provas ENEM (2017 a 2023), a fim de tentar identificar os tipos de dificuldades que o programa encontra ao tentar resolver tais problemas. Foram feitas categorizações em função dos acertos e erros cometidos, como a taxa de cada um, as unidades temáticas e os tipos de representações visuais nas quais se encaixam e as categorias de causa dos erros. Foi observado que o ChatGPT possui dificuldade em responder questões da área, com uma taxa de acerto que varia entre 22,2% e 55,5%, e que tende a ter mais dificuldade em questões relativas à Unidade 2 (Utilizar o conhecimento geométrico para realizar a leitura e a representação da realidade e agir sobre ela) e que possuem representações visuais de “formas geométricas descritas”. As maiores causas de erro encontradas foram interpretações incorretas dos problemas propostos e falta de lógica e coerência nas respostas dadas, além de uma alta frequência de cálculo incorreto de valores. Em trabalhos futuros, esse tipo de avaliação pode ser expandida para outros chatbots, e também pode ser feita por pesquisadores e especialistas da área de matemática a fim melhorar a otimização do desempenho deste tipo de ferramenta neste tema.pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentComputação Científicapt_BR
dc.publisher.initialsUFPBpt_BR
dc.subject.cnpqCNPQ::OUTROSpt_BR
Aparece nas coleções:TCC - Ciência da Computação - CI

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Juliano Nunes dos Santos_TCC.pdfTCC1,32 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons