Este projeto utiliza uma combinação de bibliotecas para transcrever áudios, resumir o texto transcrito, e gerar uma saída de áudio com o resumo. O processo envolve três etapas principais:
- Transcrição de Áudio: O áudio é transcrito para texto usando o modelo
Whisper
da OpenAI. - Resumo do Texto: O texto transcrito é resumido usando o modelo
OllamaLLM
com o modeloLlama3.2
. - Geração de Áudio: O resumo gerado é convertido de volta para áudio utilizando o modelo
Bark
.
- Python 3.x
- Bibliotecas Python:
- whisper
- langchain_ollama
- bark
- IPython
Para instalar as dependências necessárias, siga os passos abaixo:
- Clone o repositório:
git clone https://github.com/seu_usuario/seu_repositorio.git cd seu_repositorio