Use este identificador para citar ou linkar para este item:
https://repositorio.ufpb.br/jspui/handle/123456789/34682
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.creator | Carvalho, Humberto Navarro de | - |
dc.date.accessioned | 2025-06-05T12:31:21Z | - |
dc.date.available | 2024-12-02 | - |
dc.date.available | 2025-06-05T12:31:21Z | - |
dc.date.issued | 2024-11-04 | - |
dc.identifier.uri | https://repositorio.ufpb.br/jspui/handle/123456789/34682 | - |
dc.description.abstract | Identifying musical instruments in polyphonic music is a crucial task in the field of Music Information Retrieval (MIR), with impacts on music cat aloging, indexing, and analysis. Traditionally, research on instrument identi f ication is typically limited to the classification of short snippets of individual sounds or mixes. However, many practical applications require the detection of instruments in full-length, polyphonic songs. In this paper, we propose a method for identifying musical instruments on entire polyphonic songs, by us ing foundational models. First, we extract the features of the instances in the OpenMICdataset using foundational audio models. Then, we train a multilayer perceptron for instrument identification on snippets. Last, we apply different aggregation methods to obtain song-level instrument predictions. To test the model, we conducted both snippet-level tests, using the test split from the Open MIC dataset, and song-level tests, using a modified version of the MoisesDB dataset. Since the classes were different on both datasets, a mapping was cre ated to convert predictions from the model to nine instrument classes. The model achieved a macro-averaged F1 Score of 0.806 for the 20 classes on the snippets and 0.772 on full-length songs for 9 classes. On the five key instruments (voice, guitar, bass, drums and piano), the model had an F1 Score of 0.91 and 0.914 on the snippet and song level, respectively. By integrating a range of aggre gation techniques, our method offers an advancement over traditional models that are primarily limited to analyzing short audio segments, demonstrating the practical applicability of the model in real-world scenarios. | pt_BR |
dc.description.provenance | Submitted by Michelle Barbosa (mi.2020@outlook.com.br) on 2025-06-05T12:31:21Z No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Humberto Navarro de Carvalho_TCC.pdf: 511307 bytes, checksum: 84a30d099ee2e580b6c1e31350d1fafc (MD5) | en |
dc.description.provenance | Made available in DSpace on 2025-06-05T12:31:21Z (GMT). No. of bitstreams: 2 license_rdf: 805 bytes, checksum: c4c98de35c20c53220c07884f4def27c (MD5) Humberto Navarro de Carvalho_TCC.pdf: 511307 bytes, checksum: 84a30d099ee2e580b6c1e31350d1fafc (MD5) Previous issue date: 2024-11-04 | en |
dc.language | por | pt_BR |
dc.publisher | Universidade Federal da Paraíba | pt_BR |
dc.rights | Acesso aberto | pt_BR |
dc.rights | Attribution-NoDerivs 3.0 Brazil | * |
dc.rights.uri | http://creativecommons.org/licenses/by-nd/3.0/br/ | * |
dc.subject | Identificação de instrumentos | pt_BR |
dc.subject | Recuperação de informação musical | pt_BR |
dc.subject | Modelos fundacionais | pt_BR |
dc.subject | Aprendizado de máquina | pt_BR |
dc.title | Instrument Recognition in Full-Length Polyphonic Songs: An Approach Using Foundational Models | pt_BR |
dc.type | TCC | pt_BR |
dc.contributor.advisor1 | Barbosa, Yuri de Almeida Malheiros | - |
dc.description.resumo | A identificação de instrumentos musicais em músicas polifônicas é uma tarefa crucial no campo da Recuperação de Informação Musical (MIR), com impactos na catalogação, indexação e análise de música. Tradicional mente, a pesquisa sobre identificação de instrumentos ´e tipicamente limitada ` A classificação de pequenos trechos de sons individuais ou mixes. No entanto, Muitas aplicações práticas requerem a detecção de instrumentos em músicas. lifônicas completas. Neste artigo, propomos um método para identificar instruções. mentos musicais em tais músicas, utilizando modelos fundacionais. Primeiro, Extraímos as características das instâncias do conjunto de dados OpenMIC us ando modelos de áudio fundacionais. Em seguida, treinamos um perceptron multicamadas para identificação de instrumentos em trechos de áudio. Por ´Ultimo, aplicamos diferentes métodos de agregação para obter predições de in Instrumentos em músicas inteiras. Para testar o modelo, realizamos testes tanto No nível de trechos de áudio, utilizando a divisão de teste do conjunto de da dos OpenMIC, quanto no nível de músicas, usando uma versão modificada do conjunto de dados MoisesDB. Como as classes eram diferentes em ambos os conjuntos de dados, foi criado um mapeamento para converter previsões do modelo para nove classes de instrumentos. O modelo alcançou uma pontuação. F1 média macro de 0,806 para as 20 classes nos trechos e 0,772 nas músicas. de longa duração para 9 classes. Em cinco instrumentos chave (voz, guitarra, baixo, bateria e piano), o modelo teve uma pontuação F1 de 0,91 e 0,914 nos Níveis de trecho e de música, respectivamente. Ao integrar uma variedade de Técnicas de agregação, nosso método oferece um avanço sobre os modelos tradicionais. cionais que estão principalmente limitados à análise de segmentos curtos de Áudio, demonstrando a aplicabilidade prática do modelo em cenários do mundo real. | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.department | Computação Científica | pt_BR |
dc.publisher.initials | UFPB | pt_BR |
dc.subject.cnpq | CNPQ::OUTROS | pt_BR |
Aparece nas coleções: | TCC - Ciência da Computação - CI |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
Humberto Navarro de Carvalho_TCC.pdf | TCC | 499,32 kB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma
Licença Creative Commons