Use este identificador para citar ou linkar para este item:
https://repositorio.ufpb.br/jspui/handle/123456789/21163
Tipo: | Dissertação |
Título: | Uma arquitetura multifluxo baseada em aprendizagem profunda para reconhecimento de sinais em libras no contexto de saúde |
Autor(es): | Silva, Diego Ramon Bezerra da |
Primeiro Orientador: | Araújo, Tiago Maritan Ugulino de |
Primeiro Coorientador: | Rêgo, Thaís Gaudêncio do |
Resumo: | Os surdos são uma parte considerável da população mundial. No entanto, embora muitos países adotem sua língua de sinais como língua oficial, existem barreiras linguísticas de acesso aos direitos fundamentais, especialmente o acesso aos serviços de saúde. Essa situação tem sido o foco de algumas políticas governamentais que obrigam os prestadores de serviços essenciais a fornecer intérpretes de língua de sinais para ajudar as pessoas surdas. No entanto, esse tipo de solução possui altos custos operacionais, principalmente para atender toda a comunidade surda em todos os ambientes. Esses contratempos motivam a investigação de metodologias e ferramentas automatizadas para apoiar esse tipo de problema. Assim, neste trabalho, é proposto um modelo de várias correntes para o reconhecimento de sinais em Língua Brasileira de Sinais (Libras). A solução proposta não utiliza nenhum sensor ou hardware de captura adicional, baseando-se inteiramente em imagens ou sequências de imagens (vídeos). Os resultados obtidos com uma arquitetura de três fluxos mostram que a melhor acurácia para o conjunto de testes foi de 99,80%, considerando um cenário em que o intérprete usado no conjunto de testes não foi usado no conjunto de treinamento. Além disso, também foi criado um novo conjunto de dados na Língua Brasileira de Sinais (Libras) contendo 5000 vídeos de 50 sinais no contexto da saúde, o que pode auxiliar no desenvolvimento e na pesquisa de outras soluções. |
Abstract: | Deaf people are a considerable part of the world population. However, although many countries adopt their sign language as an official language, there are linguistics barriers to accessing fundamental rights, especially access to health services. This situation has been the focus of some government policies that oblige essential service providers to provide sign language interpreters to assist deaf people. However, this type of solution has high operating costs, mainly to serve the entire deaf community in all environments. These setbacks motivate the investigation of methodologies and automated tools to support this type of problem. Thus, in this paper, we proposed a two-stream model for the recognition of the Brazilian Sign Language (Libras). The proposed solution does not use any additional capture sensor or hardware, being entirely base on images or sequences of images (videos). The results show that the best accuracy for the test set was 99.80%, considering a scenario where the interpreter used in the test set was not used in the training set. Besides, we also created a new dataset in the Brazilian sign language (Libras) containing 5000 videos of 50 signs in the health context, which may assist the development and research of other solutions. |
Palavras-chave: | Acessibilidade Libras Visão computacional Redes neurais convolucionais Aprendizagem profunda Multimodal Accessibility Computer vision CNN Deep learning |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Idioma: | por |
País: | Brasil |
Editor: | Universidade Federal da Paraíba |
Sigla da Instituição: | UFPB |
Departamento: | Informática |
Programa: | Programa de Pós-Graduação em Informática |
Tipo de Acesso: | Acesso aberto |
URI: | http://creativecommons.org/licenses/by-nd/3.0/br/ |
URI: | https://repositorio.ufpb.br/jspui/handle/123456789/21163 |
Data do documento: | 22-Dez-2020 |
Aparece nas coleções: | Centro de Informática (CI) - Programa de Pós-Graduação em Informática |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
DiegoRamonBezerraDaSilva_Dissert.pdf | 2,86 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma
Licença Creative Commons