Use este identificador para citar ou linkar para este item:
https://repositorio.ufpb.br/jspui/handle/123456789/34672Registro completo de metadados
| Campo DC | Valor | Idioma |
|---|---|---|
| dc.creator | Lima, Caio Vinícius Alves | - |
| dc.date.accessioned | 2025-06-05T11:07:08Z | - |
| dc.date.available | 2024-11-16 | - |
| dc.date.available | 2025-06-05T11:07:08Z | - |
| dc.date.issued | 2024-11-06 | - |
| dc.identifier.uri | https://repositorio.ufpb.br/jspui/handle/123456789/34672 | - |
| dc.description.abstract | This paper proposes a tool to evaluate the quality of explanations generated by the LIME algorithm, widely used to increase the interpretability of opaque machine learning models. The tool applies the faithfulness metric, which verifies if the explanations truly reflect the behavior of the original model, reinforcing transparency and reliability in predictions. The system was tested with the Pima Indians Diabetes Database and the Random Forest model. Based on this, local explanations of predictions were generated, allowing a detailed analysis of how the attributes influence the model's decisions. | pt_BR |
| dc.description.provenance | Submitted by Michelle Barbosa (mi.2020@outlook.com.br) on 2025-06-05T11:07:08Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Caio Vinícius Alves Lima_TCC.pdf: 873378 bytes, checksum: 9b0eec2e6cd4e4dbc83d75490511dfee (MD5) | en |
| dc.description.provenance | Made available in DSpace on 2025-06-05T11:07:08Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Caio Vinícius Alves Lima_TCC.pdf: 873378 bytes, checksum: 9b0eec2e6cd4e4dbc83d75490511dfee (MD5) Previous issue date: 2024-11-06 | en |
| dc.language | por | pt_BR |
| dc.publisher | Universidade Federal da Paraíba | pt_BR |
| dc.rights | Acesso aberto | pt_BR |
| dc.rights | Attribution-NoDerivs 3.0 Brazil | * |
| dc.rights.uri | http://creativecommons.org/licenses/by-nd/3.0/br/ | * |
| dc.subject | Explicabilidade | pt_BR |
| dc.subject | Inteligência artificial | pt_BR |
| dc.subject | LIME | pt_BR |
| dc.subject | Faithfulness | pt_BR |
| dc.title | XAI LIMETool: Uma ferramenta que avalia explicabilidade em Inteligência Artificial | pt_BR |
| dc.type | TCC | pt_BR |
| dc.contributor.advisor1 | Lino, Natasha Correia Queiroz | - |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/7853125713114677 | pt_BR |
| dc.description.resumo | Este trabalho propõe uma ferramenta para avaliar a qualidade das explicações geradas pelo algoritmo LIME, amplamente utilizado para aumentar a interpretabilidade de modelos de aprendizado de máquina opacos. A ferramenta aplica a métrica faithfulness, que verifica se as explicações realmente refletem o comportamento do modelo original, reforçando a transparência e confiabilidade nas previsões. O sistema foi testado com a base de dados Pima Indians Diabetes Database e com o método Random Forest. A partir disso, foram geradas explicações locais das previsões, possibilitando uma análise detalhada sobre como os atributos influenciam nas decisões do modelo de IA | pt_BR |
| dc.publisher.country | Brasil | pt_BR |
| dc.publisher.department | Computação Científica | pt_BR |
| dc.publisher.initials | UFPB | pt_BR |
| dc.subject.cnpq | CNPQ::OUTROS | pt_BR |
| Aparece nas coleções: | TCC - Ciência da Computação - CI | |
Arquivos associados a este item:
| Arquivo | Descrição | Tamanho | Formato | |
|---|---|---|---|---|
| Caio Vinícius Alves Lima_TCC.pdf | TCC | 852,91 kB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma
Licença Creative Commons
