Skip navigation

Use este identificador para citar ou linkar para este item: https://repositorio.ufpb.br/jspui/handle/123456789/34672
Registro completo de metadados
Campo DCValorIdioma
dc.creatorLima, Caio Vinícius Alves-
dc.date.accessioned2025-06-05T11:07:08Z-
dc.date.available2024-11-16-
dc.date.available2025-06-05T11:07:08Z-
dc.date.issued2024-11-06-
dc.identifier.urihttps://repositorio.ufpb.br/jspui/handle/123456789/34672-
dc.description.abstractThis paper proposes a tool to evaluate the quality of explanations generated by the LIME algorithm, widely used to increase the interpretability of opaque machine learning models. The tool applies the faithfulness metric, which verifies if the explanations truly reflect the behavior of the original model, reinforcing transparency and reliability in predictions. The system was tested with the Pima Indians Diabetes Database and the Random Forest model. Based on this, local explanations of predictions were generated, allowing a detailed analysis of how the attributes influence the model's decisions.pt_BR
dc.description.provenanceSubmitted by Michelle Barbosa (mi.2020@outlook.com.br) on 2025-06-05T11:07:08Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Caio Vinícius Alves Lima_TCC.pdf: 873378 bytes, checksum: 9b0eec2e6cd4e4dbc83d75490511dfee (MD5)en
dc.description.provenanceMade available in DSpace on 2025-06-05T11:07:08Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Caio Vinícius Alves Lima_TCC.pdf: 873378 bytes, checksum: 9b0eec2e6cd4e4dbc83d75490511dfee (MD5) Previous issue date: 2024-11-06en
dc.languageporpt_BR
dc.publisherUniversidade Federal da Paraíbapt_BR
dc.rightsAcesso abertopt_BR
dc.rightsAttribution-NoDerivs 3.0 Brazil*
dc.rights.urihttp://creativecommons.org/licenses/by-nd/3.0/br/*
dc.subjectExplicabilidadept_BR
dc.subjectInteligência artificialpt_BR
dc.subjectLIMEpt_BR
dc.subjectFaithfulnesspt_BR
dc.titleXAI LIMETool: Uma ferramenta que avalia explicabilidade em Inteligência Artificialpt_BR
dc.typeTCCpt_BR
dc.contributor.advisor1Lino, Natasha Correia Queiroz-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/7853125713114677pt_BR
dc.description.resumoEste trabalho propõe uma ferramenta para avaliar a qualidade das explicações geradas pelo algoritmo LIME, amplamente utilizado para aumentar a interpretabilidade de modelos de aprendizado de máquina opacos. A ferramenta aplica a métrica faithfulness, que verifica se as explicações realmente refletem o comportamento do modelo original, reforçando a transparência e confiabilidade nas previsões. O sistema foi testado com a base de dados Pima Indians Diabetes Database e com o método Random Forest. A partir disso, foram geradas explicações locais das previsões, possibilitando uma análise detalhada sobre como os atributos influenciam nas decisões do modelo de IApt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentComputação Científicapt_BR
dc.publisher.initialsUFPBpt_BR
dc.subject.cnpqCNPQ::OUTROSpt_BR
Aparece nas coleções:TCC - Ciência da Computação - CI

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Caio Vinícius Alves Lima_TCC.pdfTCC852,91 kBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons