Architecture Technique
L'Assistant Niort repose sur une architecture de micro-services conteneurisés via Docker. Cette structure assure une modularité et une isolation des composants critiques.
Composants du Système
| Service | Rôle | Technologie |
|---|---|---|
| Open WebUI | Interface utilisateur & Orchestration | ghcr.io/open-webui |
| Ollama | Moteur d'inférence LLM local (fallback) | Ollama |
| Infomaniak AI | Hébergement LLM Haute Performance | Kimi K2.5 (OpenAI-compatible) |
| Tika | Analyse de documents (PDF, Docx, etc.) | Apache Tika |
| Jupyter | Interpréteur de code & Notebooks | Jupyter-custom |
| Nginx Proxy | Gestion des accès & SSL | jwilder/nginx-proxy |
| Static DS | Serveur de fichiers statiques (Downloads) | Nginx Alpine |
Modèles de Langage (LLM)
L'Assistant utilise principalement le modèle Kimi K2.5, reconnu pour ses capacités de raisonnement et sa grande fenêtre de contexte.
- Hébergeur : Infomaniak AI (Suisse).
- Endpoint : API compatible OpenAI.
- Modèle par défaut :
moonshotai/Kimi-K2.5.
Ce choix permet de bénéficier d'une puissance de calcul importante tout en garantissant la souveraineté des données (hébergement européen chez un acteur engagé pour l'écologie).
Réseaux & Flux
Le système utilise deux réseaux Docker principaux :
web: Réseau interne de communication entre les services (Open WebUI ↔ Ollama ↔ Tika).nginx-proxy: Réseau frontal pour l'exposition des services au proxy inverse.
Gestion des Données
Les données persistantes sont stockées dans des volumes Docker dédiés :
openwebui_data: Base de données, préférences et historique des chats.openwebui_downloads: Fichiers générés ou téléchargés par l'assistant.ollama: Modèles de langage téléchargés.