O LibrIA é um projeto de inteligência artificial para traduzir sinais da Língua Brasileira de Sinais (Libras) para texto. Ele utiliza redes neurais baseadas em ResNet e Transformers para reconhecer gestos em tempo real.
- Reconhecer gestos de Libras com alta precisão
- Identificar landmarks das mãos para melhorar a interpretação
- Suportar entrada de vídeo em tempo real
- Fornecer explicabilidade ao modelo com Grad‑CAM
- Implementar processamento temporal para sequências gestuais complexas
Vídeos e áudio de demonstração estão disponíveis na pasta docs/api. Se o vídeo não abrir no GitHub, faça o download e execute localmente.
- Clone este repositório
- Crie um ambiente virtual:
python3 -m venv .venv
e ative-o - Instale as dependências:
pip install -r requirements.txt
Este projeto utiliza o Libras Dataset do Kaggle.
Scripts de exemplo estão na pasta examples/
. Os gráficos de treinamento são gravados em docs/plots
.
- Suporte para múltiplos tipos de entrada (imagens, landmarks e vídeo)
- Técnicas de balanceamento e aumento de dados
- Interface para testes ao vivo com webcam
- Modelos baseados em ResNet, MobileNet e Transformer parcialmente treinados
- Inferência em tempo real utilizando MediaPipe para landmarks
- Ajustes contínuos para melhorar precisão e tempo de resposta
- Otimizar o pipeline de treinamento e inferência
- Melhorar a representatividade do dataset
- Integrar o modelo a dispositivos embarcados
- Desenvolver uma interface gráfica acessível
Consulte a política de segurança para saber como reportar vulnerabilidades.
Para instruções de contribuição, consulte CONTRIBUTING.md.
Distribuído sob a MIT License.