Retour aux projets
DevLocal IA
Assistant IA local pour développeurs utilisant Ollama. L'application analyse un projet, indexe le code et fournit des fonctionnalités de chat, documentation, tests et refactor.
PythonIAOllama
À propos de ce projet
DevLocal AI
Assistant IA local pour développeurs utilisant Ollama. L'application analyse un projet, indexe le code et fournit des fonctionnalités de chat, documentation, tests et refactor.
Prérequis
Python 3.12 à 3.13 recommandé (3.14 nécessite des ajustements pour pydantic-core)
Ollama installé localement
Modèles : deepseek-coder:6.7b, qwen2.5-coder:7b
Installation
python -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
Note Python 3.14 : pydantic-core peut échouer à compiler. Dans ce cas, utilisez Python 3.12/3.13.
Configuration
Copier .env.example en .env puis ajuster si nécessaire.
Variables principales :
OLLAMA_URL (par défaut http://localhost:11434)
MODEL_CODE (par défaut deepseek-coder:6.7b)
MODEL_REASONING (par défaut qwen2.5-coder:7b)
IGNORE_FILES (par défaut .env,.env.*,*.env)
Lancement
source .venv/bin/activate
uvicorn app.main:app --reload
API
GET /health
POST /chat
POST /docs/generate
POST /tests/generate
POST /refactor/suggest
POST /projects/index
GET /projects/{id}/stats
GET /projects/{id}/tree
GET / (UI locale)
UI
Ouvrir http://127.0.0.1:8000/.
Tests
source .venv/bin/activate
pytest
Docs
Voir docs/ARCHITECTURE.md.
Prenez rendez-vous
Prêt à lancer votre prochain projet ?
Discutons de vos objectifs. Premier échange offert, sans engagement, pour évaluer comment nous pouvons vous aider.