Aplicativos de tradução de Libras poderão ser mais eficazes, de acordo com trabalho de professor do UNASP apresentado em congresso de Viena
Pesquisa de professor do UNASP está criando possibilidades de inserir novas expressões faciais nos avatares usados na língua de sinais para auxiliar surdos.
Texto: Glória Barreto
Na última semana o coordenador dos cursos de sistema de informação e engenharia da computação do UNASP Hortolândia, Ackley Will, apresentou virtualmente seu trabalho de doutorado no Consórcio Doutoral da Conferência internacional Eurographics 2021, que ocorreu em Viena, Áustria. Na ocasião ele demonstrou como sua pesquisa tem criado possibilidades de inserir expressões faciais nos avatares usados na tradução da língua de sinais em ambientes virtuais, com o objetivo de melhorar o entendimento pelos usuários surdos.
Língua de sinais e expressões faciais
Na Língua Brasileira de Sinais (LIBRAS) a expressão facial é um complemento à sinalização manual. Porém nos programas tridimensionais para surdos os avatares que ajudam na apresentação e tradução da língua de sinais não são totalmente eficientes, isso porque eles não contemplam diversas expressões faciais gramaticais, as quais são extremamente importantes nesse tipo de comunicação.
Segundo Will, as expressões faciais que também são gramaticais são a prioridade da pesquisa, uma vez que estas expressões fazem muita diferença no sentido da mensagem. “Identificar se uma sentença é afirmativa ou interrogativa, por exemplo, tem muito haver com a expressão facial”, explica o pesquisador.
Etapas da pesquisa
Para tornar as expressões faciais dos avatares mais reais, Will conta que é necessário capturar os movimentos feitos a partir de pessoas reais, depois disso é realizada a transferência destes movimentos para o avatar e, por fim, o mecanismo de seleção destes movimentos e expressões faciais são ajustados à mensagem a ser apresentada.
Congresso internacional
A 42ª Conferência Anual da European Association for Computer Graphics (Eurographics 2021), aconteceu nos dias 3 a 7 de maio, organizada pela Unidade de Pesquisa de Computação Gráfica da Universidade TU Wien (Viena, Austria).
Ackley Will que é doutorando na FEEC – Faculdade de Engenharia Elétrica e de Computação – UNICAMP, apresentou o trabalho em inglês: Modeling and synthesizing realistic facial expressions for 3D sign language avatars.
“É um desafio de se apresentar em um congresso como este, em outro idioma, mas também é recompensador. Tem especialistas do mundo inteiro que acabam contribuindo com a pesquisa”, relatou Will.
Previsão de resultados
A pesquisa sobre o aprimoramento das expressões faciais na língua de sinais dos avatares tridimensionais, que tem sido orientada pelo professor José Mario De Martino, deve ser concluída no final deste ano e irá beneficiar na construção de aplicativos e sites para a comunidade de surdos do Brasil.