A ideia é que a solução permita que pessoas com deficiência auditiva façam sinais para a câmera de um dispositivo enquanto um algoritmo realiza a tradução simultânea em texto, em português
(Foto: Pexels)
, conteúdo exclusivo
5 min
•
18 ago 2023
•
Atualizado: 18 ago 2023
newsletter
Start Seu dia:
A Newsletter do AGORA!
Segundo o IBGE, mais de 2,3 milhões de brasileiros possuem deficiência auditiva profunda e enfrentam dificuldades diárias de comunicação em espaços públicos, usando tanto a Língua Brasileira de Sinais (Libra) e a Língua Portuguesa de Sinais (LGP).
Tais desafios motivaram a Lenovo e o CESAR (Centro de Estudos e Sistemas Avançados do Recife), a criarem uma tecnologia proprietária de IA capaz de identificar visualmente e contextualizar gestos individuais através de um conjunto de dados de milhares de vídeos de Língua Brasileira de Sinais.
A ideia é que a solução permita que pessoas com deficiência auditiva façam sinais para a câmera de um dispositivo enquanto um algoritmo realiza a tradução simultânea em texto, em português.
A tecnologia também pode ser usada para ensinar a linguagem de sinais a pessoas ouvintes, já que é possível usar imagens computacionais para rastrear a precisão dos gestos em relação ao banco de dados personalizado em construção.
Assim, em vez de tentar traduzir sinal por sinal, a inteligência artificial e o banco de dados em desenvolvimento estão aprendendo a reconhecer posições das mãos, extrapolando dados das curvas das mãos e, principalmente, dos pontos de articulação digital dos ossos do sinalizador.
“No CESAR nós somos especialistas em aprender. Nesse projeto, aprendemos a quebrar o problema, de uma forma que a gente consegue entendê-lo, resolver e entregar valor ao longo de todo o trajeto. O importante é gerar passos intermediários e aprender com experimentação em ciclos cada vez menores, tanto sobre o público quanto sobre a tecnologia. É importante vislumbrar o próximo passo, não o topo da montanha”, diz Willian Grillo, designer de interação do CESAR, em nota.
Até agora, todos os testes e treinamento de algoritmo relacionados foram realizados dentro da Lenovo e do CESAR, e vários colaboradores com deficiência auditiva de ambas as equipes contribuíram para o projeto como treinadores, testadores e participantes de grupos focais. O modelo de tradução ao vivo funcionará não apenas com a Língua Brasileira de Sinais, como poderá ser estendido para outras línguas de sinais ao redor do mundo.
O próximo passo é escalar o projeto além dos testes internos. Bilhões de pontos de dados adicionais serão necessários para atingir o objetivo desejado de lançar uma interface de tradução de língua de sinais em tempo real.
Na busca por uma escala mais rápida e desenvolvimento de um MVP, a Lenovo está adaptando essas novas soluções de tradução para verticais específicas, incluindo bancos e varejo, com o objetivo de implementá-las no mundo real em 2024.
Gostou deste conteúdo? Deixa que a gente te avisa quando surgirem assuntos relacionados!
Assuntos relacionados
, conteúdo exclusivo
O mais conceituado portal sobre startups do Brasil. Veja mais em www.startups.com.br.
Leia o próximo artigo
newsletter
Start Seu dia:
A Newsletter do AGORA!