
Un assistente AI che legge manuali PDF e risponde alle domande citando i riferimenti.
- Python 3.9+
- Ollama installato e in esecuzione
- Modello Ollama (es.
mistral
) scaricato
- Crea e attiva un ambiente virtuale:
python -m venv .venv # Su Windows (PowerShell): .venv\Scripts\Activate.ps1 # Su macOS/Linux (bash/zsh): source .venv/bin/activate
- Installa le dipendenze:
pip install -r requirements.txt pip install langchain-huggingface langchain-ollama langchain-community pypdf pymupdf sentence-transformers faiss-cpu
- (Facoltativo) Scarica il modello Ollama desiderato:
ollama pull mistral
- Copia un manuale PDF nella cartella del progetto (es.
manuale.pdf
). - Indicizza il manuale:
python manual_reader.py manuale.pdf
- Fai una domanda:
Oppure:
python manual_reader.py manuale.pdf query "Come aggiornare il telefono?"
python manual_reader.py manuale.pdf query # poi inserisci la domanda da tastiera
- Il modello di default è
mistral
. Puoi modificarlo nel codice. - Funziona anche con altri modelli Ollama (es. qwen3, gemma, llama2).
- I chunk e l'indice sono salvati in
faiss_index/
.
Vedi .gitignore
per i file esclusi dal controllo versione.