Este projeto utiliza a biblioteca CrewAI para orquestrar agentes de inteligência artificial capazes de gerar questões de prova com base em um tema e nível de dificuldade definidos.
- Recebe um tema (ex: Fotossíntese) e um nível de dificuldade (ex: fácil)
- Cria agentes com papéis específicos:
- Especialista no tema
- Gerador de questão com alternativas
- Revisor pedagógico
- Gera uma questão com 4 alternativas e resposta correta
- 🆕 Suporte a múltiplos providers de LLM (OpenAI, Anthropic, Google, Groq, Ollama, HuggingFace)
- Python 3.11+
- CrewAI
- LangChain
- Providers de LLM suportados:
- OpenAI API (GPT-4, GPT-3.5)
- Anthropic Claude (Claude 3)
- Google Gemini (Gemini Pro/Flash)
- Groq (Llama, Mixtral - rápido e gratuito)
- Ollama (modelos locais)
- HuggingFace (vários modelos)
- Clone este repositório:
git clone https://github.com/seu-usuario/concursy-agente.git
cd concursy-agente
- (Opcional) Crie um ambiente virtual:
python3 -m venv venv
source venv/bin/activate # ou venv\Scripts\activate no Windows
- Instale as dependências:
pip install -r requirements.txt
Crie um arquivo .env
na raiz do projeto com a seguinte variável:
OPENAI_API_KEY=sua-chave-aqui
-
Copie o arquivo de exemplo:
cp config_example.env .env
-
Configure as API keys dos providers desejados no arquivo
.env
:# Provider preferido (opcional) PREFERRED_LLM_PROVIDER=openai # OpenAI OPENAI_API_KEY=sua-chave-openai-aqui # Anthropic Claude (opcional) ANTHROPIC_API_KEY=sua-chave-anthropic-aqui # Google Gemini (opcional) GOOGLE_API_KEY=sua-chave-google-aqui # Groq (opcional - rápido e gratuito) GROQ_API_KEY=sua-chave-groq-aqui # Para modelos locais via Ollama OLLAMA_BASE_URL=http://localhost:11434
-
Instale os providers desejados:
# Execute o configurador interativo python setup_providers.py # Ou instale manualmente: pip install langchain-anthropic # Claude pip install langchain-google-genai # Gemini pip install langchain-groq # Groq
- Groq: Rápido e com tier gratuito generoso
- Ollama: Modelos locais, sem API key necessária
python3 index.py
- Na primeira execução, o sistema mostra os providers disponíveis e permite escolher
- Providers configurados via
PREFERRED_LLM_PROVIDER
são usados automaticamente - Seleção interativa aparece quando múltiplos providers estão disponíveis
Exemplo de execução:
🚀 Configurando modelo de LLM...
🤖 Providers de LLM Disponíveis:
--------------------------------------------------
1. OpenAI - ✅ Disponível
📝 GPT-4, GPT-3.5 e outros modelos da OpenAI
🔑 API Key (OPENAI_API_KEY): ✅ Configurada
2. Groq - ✅ Disponível
📝 Modelos rápidos via Groq
🔑 API Key (GROQ_API_KEY): ✅ Configurada
🎯 Escolha um provider (número):
> 2
✅ Usando: Groq
Você verá no terminal o passo a passo dos agentes e o resultado final da questão gerada.
Execute o configurador interativo para gerenciar providers:
python setup_providers.py
Funcionalidades:
- 📦 Instalar providers automaticamente
- 🧪 Testar configuração de API keys
- 📖 Ver informações detalhadas dos providers
- 📝 Criar arquivo
.env
básico
- ✅ Múltiplos providers de LLM (OpenAI, Anthropic, Google, Groq, Ollama)
- Sistema de fallback automático entre providers
- Configuração de modelos específicos por provider
- Análise de custo por provider
- Criar interface web com Gradio ou Streamlit
- Salvar questões em planilhas ou em um banco de dados
- Escolher matérias, temas e níveis via formulário
- Sistema de templates de prova personalizáveis
- Integração com RAG para carregar editais em PDF
- Banco de questões de provas anteriores
- Análise de padrões de questões por banca
Feito com 🍺.