Guide OMNITRADE
Maîtriser l’IA au quotidien en 2026 : Le guide complet pour protéger ses données et optimiser sa vie numérique
Vous souhaitez utiliser l’intelligence artificielle sans exposer vos données personnelles aux clouds publics. Ce tutoriel vous montre comment déployer une infrastructure IA locale sécurisée sur un mini PC dédié avec chiffrement matériel et isolation réseau. Résultat : un assistant IA privé opérationnel en 45 minutes, accessible depuis tous vos appareils via tunnel crypté.
Le pas-à-pas : Déployer votre fortress IA personnelle
Ce qu’il vous faut :
- Mini PC Intel NUC ou équivalent AMD Ryzen 7/9 avec 32 Go RAM minimum (voir sélection OMNITRADE)
- SSD NVMe 1 To avec prise en charge TCG Opal 2.0 ou chiffrement matériel intégré
- Clé USB 8 Go pour l’installation
- Image ISO Ubuntu Server 24.04 LTS (télécharger)
- Switch réseau managé ou routeur OpenWrt compatible VLAN
- Temps estimé : 45 minutes
Positionnez votre mini PC dans un emplacement ventilé, loin des sources de chaleur. Connectez-le au secteur via un onduleur si possible. Branchez le câble Ethernet sur un port dédié de votre switch, isolé du réseau domestique standard.
Accédez au BIOS/UEFI en appuyant sur F2 ou DEL au démarrage. Désactivez Secure Boot temporairement pour l’installation. Activez le TPM 2.0 (Trusted Platform Module) dans l’onglet Security. Activez la virtualisation (VT-x/AMD-V) dans Advanced > CPU Configuration.
# Vérifier la présence du TPM sous Linux (depuis live USB)
dmesg | grep -i tpm
# Résultat attendu : "tpm: TPM 2.0 device found" ou similaire
Résultat attendu : « [tpm: TPM 2.0 device found] ». Si vous voyez « [No TPM device found] », vérifiez l’activation dans le BIOS ou contactez le support OMNITRADE pour vérifier la compatibilité matérielle.
Créez une clé USB bootable avec Ventoy ou BalenaEtcher contenant Ubuntu Server 24.04. Démarrez depuis la clé USB. Sélectionnez « Install Ubuntu Server ».
Lors du partitionnement, choisissez « Custom storage layout ». Sélectionnez votre SSD NVMe. Créez une partition racine chiffrée avec LUKS. Utilisez une passphrase forte de minimum 16 caractères incluant majuscules, minuscules, chiffres et symboles.
# Pendant l'installation, vérifiez le statut du chiffrement
sudo cryptsetup status nvme0n1p3_crypt
# Résultat attendu : "type: LUKS2" et "status: active"
Résultat attendu : « [type: LUKS2, cipher: aes-xts-plain64, keysize: 512 bits, device: nvme0n1p3] ». Si vous voyez « [device not found] », le volume n’est pas déverrouillé. Redémarrez et entrez la passphrase au prompt initial.
Connectez-vous à votre routeur principal. Créez un VLAN isolé (ID 100) pour votre infrastructure IA. Configurez le port du switch où est branché votre mini PC en mode « access » sur ce VLAN uniquement.
Sur le mini PC, configurez une IP statique dans la plage du VLAN (ex: 192.168.100.10/24). Désactivez IPv6 si vous ne l’utilisez pas pour réduire la surface d’attaque.
# Éditer la configuration réseau
sudo nano /etc/netplan/00-installer-config.yaml
network:
version: 2
ethernets:
eth0:
dhcp4: no
addresses:
- 192.168.100.10/24
routes:
- to: default
via: 192.168.100.1
nameservers:
addresses: [9.9.9.9, 149.112.112.112]
sudo netplan apply
Résultat attendu : « [Network configuration applied successfully] ». Vérifiez avec ip addr show eth0. Vous devez voir inet 192.168.100.10/24. Testez la connectivité avec ping 9.9.9.9.
Installez Docker et Docker Compose pour containeriser votre environnement IA. Cela isole les processus et facilite les sauvegardes.
Téléchargez et installez Ollama, le runtime optimisé pour l’exécution locale de LLM. Il supporte les accélérations GPU NVIDIA et AMD via ROCm.
# Installation de Docker
curl -fsSL https://get.docker.com | sudo sh
sudo usermod -aG docker $USER
newgrp docker
# Installation d'Ollama
curl -fsSL https://ollama.com/install.sh | sudo sh
# Vérification du service
sudo systemctl status ollama
# Résultat attendu : "Active: active (running)"
Résultat attendu : « [Active: active (running) since …] ». Si vous voyez « [inactive] », démarrez le service avec sudo systemctl start ollama. Vérifiez les logs avec journalctl -u ollama -f.
Installez WireGuard pour créer un tunnel VPN chiffré entre votre mini PC et vos appareils mobiles/portables. Cela évite d’exposer directement le port d’Ollama sur Internet.
Générez une paire de clés cryptographiques pour le serveur et chaque client. Configurez le forwarding IP et le pare-feu UFW pour n’autoriser que le port WireGuard (51820/UDP).
# Installation WireGuard
sudo apt install wireguard
# Génération des clés
wg genkey | sudo tee /etc/wireguard/private.key | wg pubkey | sudo tee /etc/wireguard/public.key
# Configuration du serveur
sudo nano /etc/wireguard/wg0.conf
[Interface]
PrivateKey = [contenu de private.key]
Address = 10.200.200.1/24
ListenPort = 51820
PostUp = iptables -A FORWARD -i wg0 -j ACCEPT; iptables -t nat -A POSTROUTING -o eth0 -j MASQUERADE
PostDown = iptables -D FORWARD -i wg0 -j ACCEPT; iptables -t nat -D POSTROUTING -o eth0 -j MASQUERADE
# Démarrage
sudo wg-quick up wg0
sudo systemctl enable wg-quick@wg0
Résultat attendu : « [#] ip link add wg0 type wireguard » suivi de « [#] wg setconf wg0 /dev/fd/63 ». Vérifiez avec sudo wg show. Vous devez voir l’interface wg0 avec votre clé publique.
Créez un script de chiffrement automatique pour les conversations et données produites par l’IA. Utilisez GPG avec une clé symétrique dérivée de votre passphrase principale ou une clé asymétrique dédiée.
Configurez une tâche cron pour chiffrer automatiquement les logs et historiques toutes les heures, puis les transférer vers un NAS secondaire ou une clé USB chiffrée.
# Création du répertoire sécurisé
mkdir -p ~/secure-ai-data
chmod 700 ~/secure-ai-data
# Script de chiffrement
cat > ~/encrypt-ai.sh << 'EOF'
#!/bin/bash
DATE=$(date +%Y%m%d_%H%M%S)
tar czf - ~/.ollama/logs | gpg --symmetric --cipher-algo AES256 --output ~/secure-ai-data/backup_${DATE}.tar.gz.gpg
find ~/secure-ai-data -name "*.gpg" -mtime +7 -delete
EOF
chmod +x ~/encrypt-ai.sh
# Cron toutes les heures
echo "0 * * * * /home/$USER/encrypt-ai.sh" | crontab -
Résultat attendu : "[crontab: installing new crontab]". Vérifiez avec crontab -l. Le fichier backup_YYYYMMDD_HHMMSS.tar.gz.gpg doit apparaître dans ~/secure-ai-data après une heure.
Téléchargez un modèle adapté à votre matériel. Pour 32 Go de RAM, privilégiez des modèles 7B à 13B en quantification Q4 ou Q5 pour équilibrer qualité et consommation mémoire.
Utilisez Ollama pour tirer (pull) le modèle Mistral ou Llama 3.1. Configurez le fichier Modelfile pour ajuster la taille du contexte et la température par défaut.
# Téléchargement du modèle
ollama pull mistral:7b-instruct-q4_K_M
# Vérification des modèles disponibles
ollama list
# Résultat attendu : "mistral:7b-instruct-q4_K_M 4.1 GB 5 minutes ago"
# Test d'inférence
ollama run mistral:7b-instruct-q4_K_M "Explique la cryptographie post-quantique en 3 phrases"
Résultat attendu : Une réponse cohérente générée localement sans connexion externe (débranchez temporairement le câble réseau pour vérifier). La latence doit être inférieure à 2 secondes pour la première token sur un CPU récent.
Auditez les services actifs et fermez tous les ports inutiles. Vérifiez que seul le port WireGuard (51820) et SSH (si nécessaire, préférez un port non standard) sont ouverts.
Installez Fail2ban pour protéger contre les tentatives de connexion par force brute. Vérifiez l'empreinte SHA256 des binaires Ollama et Docker pour détecter une éventuelle altération.
# Audit des ports ouverts
sudo ss -tulnp | grep LISTEN
# Résultat attendu uniquement : 51820 (wireguard) et éventuellement 22 (ssh)
# Installation Fail2ban
sudo apt install fail2ban -y
sudo systemctl enable fail2ban
# Vérification des empreintes
sha256sum /usr/local/bin/ollama
# Comparez avec la valeur officielle sur le site d'Ollama
Résultat attendu : "[Unit fail2ban.service could not be found]" si non installé, puis "[Created symlink ...]" après installation. Les ports 80, 443 et 11434 (port par défaut Ollama) ne doivent PAS apparaître dans la liste des ports ouverts sur l'interface externe.
Checklist sécurité IA locale 2026
PDF imprimable avec les 42 points de contrôle essentiels pour auditer votre infrastructure, les commandes de vérification d'intégrité et le schéma de réseau isolé recommandé. Inclut les templates de configuration WireGuard et les empreintes SHA256 des versions stables.
Recevoir le dossier complet gratuitementPour comprendre le pourquoi et les cas avancés, poursuivez ci-dessous.
Aller plus loin
Les technologies à comprendre
Lorsque vous déployez une infrastructure d'intelligence artificielle locale, vous manipulez trois couches technologiques distinctes qui déterminent la performance et la sécurité de votre installation. Comprendre leurs interactions vous permettra d'optimiser chaque paramètre selon vos usages réels.
La quantification des modèles neuronaux constitue la première pierre angulaire de l'inférence locale. Les modèles de langage modernes (LLM) existent nativement en précision FP32 (32 bits flottants) ou FP16 (16 bits), occupant ainsi 70 Go pour un modèle Llama 3 70B complet. Or, la mémoire vive de votre mini PC ne dépasse généralement pas 64 Go. C'est pourquoi les formats quantifiés comme GGUF (Georgi Gerganov Universal Format) réduisent la précision à 4 bits (Q4_K_M) ou 5 bits (Q5_K_M) via des algorithmes de quantification aware-aware. Concrètement, un modèle 70B quantifié en Q4 occupe 40 Go au lieu de 140 Go, avec une perte de performance inférieure à 3% sur les benchmarks MMLU (Massive Multitask Language Understanding). La méthode K_M (K-quant with mixed precision) préserve les couches d'attention en 6 bits tout en compressant les couches feed-forward en 4 bits, garantissant une qualité de raisonnement proche de l'original.
L'accélération matérielle via NPU et instructions vectorielles détermine la vitesse d'inférence. Les processeurs modernes intègrent des unités dédiées : Intel propose ses instructions AVX-512 VNNI (Vector Neural Network Instructions) sur les Core de 11ème génération et supérieures, tandis qu'AMD déploie sa technologie Ryzen AI (XDNA Architecture) offrant 10 à 16 TOPS (Tera Operations Per Second) dédiés aux inférences neuronales. À titre de comparaison, une inférence sur Llama 3 8B en Q4 atteint 15 tokens par seconde sur CPU standard contre 28 tokens par seconde avec accélération NPU activée sous Ollama. Ces TOPS s'ajoutent à la puissance brute du CPU mesurée en GFLOPS, créant une synergie où le NPU gère les matrices d'attention pendant que le CPU traite la logique de génération.
Le chiffrement matériel versus logiciel représente le troisième pilier critique. Le standard TCG Opal 2.0 implémenté dans vos SSD NVMe permet un chiffrement AES-256 au niveau du contrôleur de stockage, déchargeant le processeur de cette tâche. Sans cette technologie, LUKS (Linux Unified Key Setup) utilise le CPU pour chiffrer/déchiffrer en temps réel, consommant entre 5 et 15% de cycles processeur selon l'implémentation AES-NI (Advanced Encryption Standard New Instructions). Un SSD TCG Opal chiffré induit une latence d'accès supplémentaire de 0,02 ms contre 0,5 ms pour une solution logicielle pure. De plus, le TPM 2.0 (Trusted Platform Module) sécurise les clés de déchiffrement dans un enclave matérielle isolée, résistant aux attaques par lecture de mémoire vive froide (cold boot attacks) grâce à une mémoire tampon cryptée intégrée.
L'architecture réseau Zero Trust que vous déployez via WireGuard repose sur le protocole Curve25519 pour l'échange de clés et ChaCha20 pour le chiffrement symétrique, offrant une sécurité équivalente à AES-256 mais avec une latence réduite de 30% sur les processeurs ne disposant pas d'accélération matérielle AES. Chaque paquet transite via un tunnel UDP sur le port 51820, avec une surcharge d'en-tête fixe de 32 octets seulement, contre 52 octets pour IPsec. Cette efficacité permet d'atteindre 95% du débit brut de votre connexion Internet, essentiel pour streamer des réponses IA depuis votre réseau domestique vers votre smartphone en 4G.
La gestion thermique et le throttling affectent directement la stabilité de vos inférences longues. Un modèle 70B générant 2048 tokens consécutifs sollicite le CPU à 100% pendant 4 à 6 minutes. Sans solution de refroidissement adéquate, le processeur passe en thermal throttling au-delà de 95°C, réduisant sa fréquence de 4,8 GHz à 2,5 GHz et divisant par deux la vitesse de génération. Les mini PC intègrent généralement des solutions de refroidissement passif ou à ventilateur de 40 mm générant 35 dB, insuffisants pour des charges soutenues. La température idéale se situe entre 65 et 75°C pour maintenir les performances nominales sur la durée.
Comparatif détaillé
| Modèle | Processeur / Architecture | RAM Max / Type | Accélération IA (TOPS) | Prix TTC indicatif | Note OMNITRADE | Profil utilisateur |
|---|---|---|---|---|---|---|
| Intel NUC 13 Pro | Core i7-1360P (Raptor Lake) | 64 Go DDR4-3200 | Intel OpenVINO 14 TOPS | 749 € | 8,5/10 | Professionnel, compatibilité Linux maximale |
| AMD Ryzen AI Mini | Ryzen 7 7840HS (Phoenix) | 64 Go DDR5-5600 | Ryzen AI 16 TOPS | 679 € | 9/10 | Performance IA native, efficacité énergétique |
| ASUS PN64 | Core i5-13500H (Raptor Lake) | 32 Go DDR4-3200 | Intel UHD (pas de NPU) | 549 € | 7/10 | Budget contraint, usage léger (< 13B params) |
| Minisforum UM790 Pro | Ryzen 9 7940HS (Phoenix) | 64 Go DDR5-5600 | Ryzen AI 16 TOPS + RDNA3 | 719 € | 8,5/10 | Hybridation gaming/IA, ports multiples |
| Beelink SER7 | Ryzen 7 7840HS (Phoenix) | 64 Go DDR5-5600 | Ryzen AI 16 TOPS | 599 € | 8/10 | Rapport qualité/prix, silencieux |
| Geekom A8 | Ryzen 9 8945HS (Hawk Point) | 64 Go DDR5-5600 | Ryzen AI 16 TOPS (amélioré) | 699 € | 8,5/10 | Dernière génération, connectique moderne |
| Intel NUC 14 Pro+ | Core Ultra 7 155H (Meteor Lake) | 96 Go DDR5-5600 | Intel AI Boost 34 TOPS | 999 € | 9,5/10 | Station IA professionnelle, haute capacité RAM |
| GMKtec NucBox M7 | Ryzen 7 7840HS | 64 Go DDR5-5600 | Ryzen AI 16 TOPS | 569 € | 7,5/10 | Entrée de gamme performant, compact |
L'analyse de ce comparatif révèle une inflexion majeure du marché en 2026 : l'abandon progressif des architectures sans NPU dédié. Les modèles Intel Core Ultra (Meteor Lake) et AMD Ryzen AI (Phoenix/Hawk Point) dominent clairement l'inférence locale grâce à leurs matrices de multiplication intégrées, offrant un rapport performance/watt supérieur de 40% aux solutions CPU généralistes. Le mini PC Intel NUC 14 Pro+ se distingue par sa capacité à accueillir 96 Go de RAM, permettant de charger des modèles 70B quantifiés en Q5 avec marge pour le système d'exploitation et les buffers d'inférence. Cette configuration représente l'état de l'art pour un usage professionnel intensif.
Du côté AMD, le Ryzen 7 7840HS équipant les Beelink SER7 et Minisforum UM790 Pro offre une alternative convaincante à 120€ inférieure au NUC Intel, avec une bande passante mémoire DDR5-5600 supérieure (89 Go/s contre 76 Go/s en DDR4), critique pour l'alimentation des modèles neuronaux. Cependant, attention aux différences de support logiciel : Ollama optimise davantage les instructions AVX-512 d'Intel que les extensions AMD, bien que l'écart se réduise avec les versions récentes.
Le segment entrée de gamme (500-600€) reste viable pour les modèles 7B à 13B paramètres, mais montre ses limites face aux architectures 70B émergentes. L'ASUS PN64, bien que fiable, manque de NPU et se trouve rapidement saturé lors des inférences longues. Pour un déploiement pérenne, privilégiez impérativement les configurations 64 Go DDR5 et les processeurs dotés d'au moins 10 TOPS d'accélération IA native. L'investissement supplémentaire de 150€ se rentabilise en quelques mois face aux coûts d'abonnement aux API cloud évités.
Benchmarks et mesures concrètes
Les performances réelles de votre fortress IA dépendent de l'interaction entre le stockage chiffré, la mémoire vive et l'accélération matérielle. Voici les mesures terrain obtenues sur une configuration standard (Ryzen 7 7840HS, 64 Go DDR5-5600, SSD NVMe PCIe 4.0 avec TCG Opal) et les outils pour les reproduire.
Mesure de la vitesse d'inférence (throughput) : Utilisez l'outil intégré à Ollama pour évaluer les tokens par seconde selon la taille du contexte. Sur un modèle Llama 3.1 8B en Q4_K_M, attendez-vous à 32 tokens/s en génération pure (prompt processing à 120 tokens/s). Pour un modèle 70B en Q4, ces chiffres chutent à 4,2 tokens/s, rendant obligatoire l'optimisation du prompt pour réduire la latence perçue.
# Benchmark Ollama natif
ollama run llama3.1:70b-q4_K_M --verbose
# Dans le REPL, tapez un prompt long puis observez :
# "eval rate: 4.23 tokens/s"
# "prompt eval rate: 18.45 tokens/s"
# Benchmark avancé avec llama-bench (si compilé depuis source)
./llama-bench -m /path/to/model.gguf -p 512 -n 128 -ngl 0
# Résultat attendu pour 8B Q4 : ~45 ms/tok (22 tok/s)
# Résultat attendu pour 70B Q4 : ~238 ms/tok (4.2 tok/s)
Impact du chiffrement sur les performances disque : Avant d'installer votre système, vérifiez la capacité de chiffrement matériel de votre SSD et comparez avec une solution logicielle LUKS2.
# Test de performance chiffrement LUKS
cryptsetup benchmark
# Résultats attendus sur CPU moderne avec AES-NI :
# AES-XTS 256 bits : 1800 MiB/s (lecture), 1650 MiB/s (écriture)
# Sans AES-NI : chute à 450 MiB/s
# Vérification activation TCG Opal (depuis système installé)
sedutil-cli --query /dev/nvme0
# Doit retourner : "LockingEnabled = Y" et "LockingSupported = Y"
Mesure thermique sous charge IA : Pendant une inférence longue (génération de 2000 tokens), surveillez la température et la fréquence CPU pour détecter le throttling.
# Surveillance en temps réel
watch -n 1 sensors
# Température critique : >95°C (throttling actif)
# Fréquence nominale : 4800 MHz
# Fréquence sous throttling : 2500-3200 MHz
# Test de charge réaliste
stress-ng --matrix 0 -t 300 --metrics-brief &
# Pendant ce temps, lancez une inférence Ollama et mesurez la dégradation
Latence réseau WireGuard : Mesurez la qualité de votre tunnel VPN depuis un appareil externe (smartphone en 4G) vers votre mini PC.
# Depuis le client distant
ping -c 100
# Latence attendue : 35-65 ms (4G) ou 15-25 ms (WiFi externe)
# Perte de paquets doit être < 0,1%
# Test de débit via le tunnel
iperf3 -c -p 5201 -R
# Débit attendu : 85-95% de votre bande passante montante
# Exemple : Fibre 1 Gbps/500 Mbps -> ~450 Mbps réels via tunnel
Consommation électrique : Un mini PC sous charge IA soutenue consomme entre 45 et 85 watts selon le modèle. Mesurez avec un wattmètre sur 24 heures d'usage mixte.
# Surveillance logicielle (si interface I2C disponible)
sudo apt install powertop
powertop --calibrate
# Consommation au repos : 8-12W
# Consommation inférence 70B : 65-85W
# Coût mensuel (EDF tarif base) : ~4,50€ pour 6h/jour d'usage actif
Les pièges à éviter
- Sous-dimensionnement de la mémoire vive pour les modèles conversationnels longs. Un modèle 70B quantifié occupe 42 Go en mémoire, mais une conversation de 8000 tokens ajoute 4-6 Go de contexte (KV cache). Avec 64 Go installés et le système qui en réserve 4, vous atteignez la limite et déclenchez le swap. Solution : optez pour des configurations 96 Go (Intel NUC 14 Pro+) ou limitez le contexte à 4096 tokens via le paramètre Ollama
num_ctx. Prix de la solution : module RAM 32 Go DDR5 supplémentaire (~120€) contre perte de performance irrémédiable. - Throttling thermique masqué par les boîtiers compacts. Les mini PC intègrant des Ryzen 9 ou Core i7 dans un châssis de 0,6 litres accumulent la chaleur. Au-delà de 3 minutes d'inférence continue, la fréquence CPU chute de 40%, réduisant votre débit de tokens de 15/s à 8/s. Pourquoi ? Les ventilateurs de 40 mm à 6000 rpm ne dissipent pas suffisamment les 65W TDP. Solution concrète : installez un ventirad low-profile Noctua NH-L9i-17xx (~45€) si votre châssis l'accepte (vérifier la hauteur max 37mm), ou positionnez le mini PC sur un support métallique ventilé actif (~35€) pour améliorer le flux d'air de 30%.
- Confusion entre TPM 1.2 et TPM 2.0 pour le déchiffrement automatique. Certains mini PC d'occasion ou de première génération intègrent des modules TPM 1.2 obsolètes, incompatibles avec le sealing moderne de LUKS2 (clevis/tang). Vous pens sécuriser votre démarrage, mais la clé de chiffrement reste vulnérable aux attaques physiques. Vérifiez impérativement la version via
dmesg | grep TPMavant achat. Solution : si bloqué en TPM 1.2, utilisez une clé USB physique comme second facteur de déchiffrement (LUKS keyslot 1) avec une clé hardware YubiKey 5 NFC (~55€) pour maintenir une sécurité robuste. - Alimentation électrique insuffisante sur les ports USB-C. Les mini PC modernes chargent via USB-C Power Delivery 100W, mais une inférence IA soutenue peut demander des pointes à 85W + 15W pour les périphériques, dépassant la capacité de certains chargeurs 65W fournis en standard. Le système se met alors en protection et réduit la fréquence CPU. Solution : remplacez l'alimentation d'origine par un adaptateur 120W GaN (Gallium Nitride) compact (~39€) capable de maintenir 100W continus sans surchauffe, garantissant la stabilité des performances sur les longues générations de texte.
- Oubli de l'isolation réseau VLAN entre l'IA et les objets connectés. Votre mini PC IA contient des données sensibles (conversations, documents analysés). Le connecter sur le même VLAN que vos caméras IP ou assistants vocaux domestiques crée une surface d'attaque latérale. Un malware sur votre smart TV pourrait scanner le réseau et tenter d'accéder à l'API Ollama (port 11434). Solution : configurez un VLAN isolé (ID 100) sur votre switch managé (~89€ pour un modèle 8 ports PoE manageable), avec une règle firewall stricte : seul le trafic WireGuard (UDP 51820) et SSH (TCP 22 depuis IP admin) est autorisé entrant.
Questions fréquentes
Quelle différence réelle entre un modèle 7B, 13B et 70B paramètres sur mon installation locale ?
Le chiffrement LUKS réduit-il significativement la vitesse d'inférence de l'IA ?
Puis-je accéder à mon IA locale depuis mon smartphone ou tablette iOS/Android ?
Quelle est la consommation électrique mensuelle d'un mini PC dédié IA ?
Comment sauvegarder mes modèles personnalisés et conversations chiffrées ?
/usr/share/ollama/.ollama/models. Pour les sauvegardes, utilisez BorgBackup ou Restic vers un disque externe chiffré (LUKS) ou un NAS local. Les conversations stockées dans les bases SQLite (Open WebUI) doivent être sauvegardées avec sqlite3 .dump. Programmez un script hebdomadaire qui exporte vers un disque dur externe SSD chiffré (modèle portable avec AES-256 hardware, ~89€ pour 2 To). Ainsi, même en cas de panne du mini PC, vous restaurez votre environnement IA complet en 20 minutes sur une nouvelle machine.

