Skip to main content

Architecture Technique

L'Assistant Niort repose sur une architecture de micro-services conteneurisés via Docker. Cette structure assure une modularité et une isolation des composants critiques.

Composants du Système

ServiceRôleTechnologie
Open WebUIInterface utilisateur & Orchestrationghcr.io/open-webui
OllamaMoteur d'inférence LLM local (fallback)Ollama
Infomaniak AIHébergement LLM Haute PerformanceKimi K2.5 (OpenAI-compatible)
TikaAnalyse de documents (PDF, Docx, etc.)Apache Tika
JupyterInterpréteur de code & NotebooksJupyter-custom
Nginx ProxyGestion des accès & SSLjwilder/nginx-proxy
Static DSServeur de fichiers statiques (Downloads)Nginx Alpine

Modèles de Langage (LLM)

L'Assistant utilise principalement le modèle Kimi K2.5, reconnu pour ses capacités de raisonnement et sa grande fenêtre de contexte.

  • Hébergeur : Infomaniak AI (Suisse).
  • Endpoint : API compatible OpenAI.
  • Modèle par défaut : moonshotai/Kimi-K2.5.

Ce choix permet de bénéficier d'une puissance de calcul importante tout en garantissant la souveraineté des données (hébergement européen chez un acteur engagé pour l'écologie).

Réseaux & Flux

Le système utilise deux réseaux Docker principaux :

  • web : Réseau interne de communication entre les services (Open WebUI ↔ Ollama ↔ Tika).
  • nginx-proxy : Réseau frontal pour l'exposition des services au proxy inverse.

Gestion des Données

Les données persistantes sont stockées dans des volumes Docker dédiés :

  • openwebui_data : Base de données, préférences et historique des chats.
  • openwebui_downloads : Fichiers générés ou téléchargés par l'assistant.
  • ollama : Modèles de langage téléchargés.