Difficulté : Intermédiaire
Guide OMNITRADE
Guide 2026 : Montez Votre Propre NAS pour le Montage Vidéo et la Création
Votre Mac/PC rame avec les rushes 4K ? Ce guide vous fait monter un NAS 10 GbE en 2 heures, pour éditer en direct 8K multi-cam avec 1100 MB/s de débit stable et 0 latence perceptible. Résultat : un stockage centralisé, sécurisé et 3 fois moins cher qu’un SAN professionnel.
Le pas-à-pas : Assemblage et configuration TrueNAS
Ce qu’il vous faut :
- TrueNAS SCALE 24.10 ISO (télécharger ici)
- Un PC NAS (voir verdict ci-dessous) avec 2×SSD NVMe 500 Go, 4×HDD 18 To, carte 10 GbE
- Un client montage (Mac/PC) avec carte 10 GbE ou adaptateur Thunderbolt 3/4
- Câble Ethernet Cat6A ou Cat7, temps estimé : 120 minutes
Branchez tous vos disques sur des ports SATA distincts. Si vous branchez un SSD NVMe et un HDD sur le même contrôleur SATA partagé, vous diviserez votre bande passante par 2. Vérifiez dans le manuel de votre carte mère que les ports M.2 ne désactivent pas de ports SATA. Conséquence : un montage 4K qui saccade irrémédiablement.
Branchez une clé USB 8 Go minimum. Sur votre PC de travail, utilisez Rufus (Windows) ou dd (Linux) pour flasher l’ISO. Débranchez tous les disques de données avant le premier démarrage pour éviter d’effacer vos données par erreur.
# Sous Linux/Mac, vérifiez le nom de votre clé USB avec :
lsblk
# Exemple : /dev/sdc. Flashez avec (remplacez sdX) :
sudo dd if=TruNAS-SCALE-24.10.iso of=/dev/sdX bs=4M status=progress conv=fdatasync
# Sous Windows avec Rufus : sélectionnez l'ISO, partition GPT, mode DD
Résultat attendu : « Syncing… Done. 1.8 GB copied ». Redémarrez le NAS sur la clé USB (touche F11/F12 au boot, sélectionnez « UEFI: Your USB Drive »). Vous devez voir le menu TrueNAS en noir et blanc.
Sélectionnez « Install/Upgrade ». Choisissez votre premier SSD NVMe (ex: nvme0n1) comme disque système. Cochez « Format ». Après redémarrage, connectez-vous à l’interface web via l’IP affichée sur l’écran du NAS.
# Sur votre PC client, ouvrez le navigateur à l'IP affichée :
http://192.168.1.100
# Connectez-vous avec root / mot de passe défini à l'installation
Résultat attendu : tableau de bord TrueNAS avec « System Information » en haut. Si vous voyez « Connection refused », vérifiez que votre PC est sur le même sous-réseau. Allez dans « Network » > « Interfaces », éditez votre interface 10 GbE, cochez « DHCP » ou configurez une IP statique 192.168.10.10/24.
Allez dans « Storage » > « Pools » > « Add ». Sélectionnez vos 4 HDD 18 To. Choisissez « RAIDZ2 » (double parité). Nommez le pool « video_pool ». Cochez « Force ». Ne touchez pas aux options avancées pour l’instant.
# En CLI (optionnel mais recommandé pour la précision) :
zpool create -f -o ashift=12 video_pool raidz2 /dev/sda /dev/sdb /dev/sdc /dev/sdd
# Créez ensuite le dataset pour les projets :
zfs create -o recordsize=1M -o compression=lz4 video_pool/projets
Résultat attendu : dans « Storage » > « Pools », vous voyez « video_pool » avec 54 To de capacité brute (36 To utiles). Si vous voyez « Error: Device is too small », un disque est défectueux ou < 18 To. Remplacez-le.
Retournez dans « Storage » > « Pools ». Cliquez sur les trois points à côté de « video_pool » > « Add Vdev ». Sélectionnez « Cache » et ajoutez votre second SSD NVMe. Recommencez pour « Log » (SLOG) avec le même SSD (partitionné).
# Partitionnez le SSD NVMe en 2 (CLI) :
parted /dev/nvme1n1 mklabel gpt
parted /dev/nvme1n1 mkpart primary 0% 400GB # Pour L2ARC
parted /dev/nvme1n1 mkpart primary 400GB 100% # Pour SLOG
# Ajoutez au pool :
zpool add video_pool cache /dev/nvme1n1p1 log /dev/nvme1n1p2
Résultat attendu : « zpool status » montre « cache » et « log » avec vos partitions NVMe. Le débit en écriture synchrone passe de 200 MB/s à 900+ MB/s. Si « cache » n’apparaît pas, redémarrez le service ZFS : « systemctl restart zfs-zed ».
Allez dans « Shares » > « UNIX (NFS) » > « Add ». Sélectionnez le dataset « /mnt/video_pool/projets ». Cochez « All dirs ». Dans « Advanced », ajoutez :
mapall_user: root
mapall_group: wheel
auxiliary_parameters: async,insecure,no_subtree_check,rw
Cliquez « Save ». Sur votre Mac client, ouvrez Terminal et montez :
# Sur Mac :
sudo mkdir -p /Volumes/NAS_Video
sudo mount -t nfs -o resvport,rw,nolocks,locallocks 192.168.10.10:/mnt/video_pool/projets /Volumes/NAS_Video
# Sur Linux :
sudo mkdir /mnt/nas_video
sudo mount -t nfs -o rw,nolock 192.168.10.10:/mnt/video_pool/projets /mnt/nas_video
Résultat attendu : « df -h » montre le volume monté avec 36 To disponibles. Ouvrez DaVinci Resolve > Preferences > Media Storage > ajoutez « /Volumes/NAS_Video ». Les rushes 4K doivent jouer sans buffer. Si « Permission denied », vérifiez « mapall_user » sur TrueNAS.
Sur votre PC client, téléchargez « Blackmagic Disk Speed Test » (Mac) ou « CrystalDiskMark » (Windows). Lancez un test sur le volume monté. Vous devez obtenir > 1000 MB/s en lecture et > 900 MB/s en écriture.
# Sur le NAS, vérifiez les stats en temps réel :
zpool iostat -v 1
# Vous devez voir :
# capacity operations bandwidth
# alloc free read write read write
# 2.1T 33.9T 0 1.2K 1.1G 980M
Résultat attendu : iostat montre des débits > 1 Go/s. Si < 500 MB/s, votre recordsize est mal configuré. Retournez dans « Storage » > « Pools » > dataset « projets » > Edit > Recordsize : 1 Mio. Redémarrez le partage NFS.
Allez dans « Data Protection » > « Periodic Snapshot Tasks » > « Add ». Sélectionnez « video_pool/projets ». Fréquence : toutes les 15 minutes (pendant le montage). Rétention : 24h (24 snapshots). Pour le cloud, ajoutez une tâche « Cloud Sync » vers un bucket S3 compatible.
# CLI pour vérifier les snapshots :
zfs list -t snapshot -r video_pool/projets | head
# Résultat attendu :
# video_pool/projets@auto-2026-01-15_14.30 2.1M - 1.2T -
Résultat attendu : dans « Storage » > « Snapshots », vous voyez des snapshots toutes les 15 min. Si « Task failed », vérifiez que le dataset n’est pas plein à plus de 80%. Les snapshots occupent ~0.1% de l’espace par heure de montage.
Pour du montage multi-cam 6K/8K, passez le recordsize à 4 Mio au lieu de 1 Mio. Cela augmente la latence de 2 ms mais double le débit séquentiel. Commande : zfs set recordsize=4M video_pool/projets. Testez avec vos rushes RED/Blackmagic RAW avant de valider.
Le Dossier Complet : Configurations Ready-to-Use pour 50 Logiciels Créatifs
Téléchargez les 50 fichiers de config exportés TrueNAS (DaVinci, Premiere, Final Cut, Avid, After Effects, Blender, etc.). Importez-les en 1 clic. + Le benchmark template pour tester votre setup. + Le checklist de maintenance mensuelle.
Recevoir le dossier complet gratuitementPour comprendre le pourquoi et les cas avancés, poursuivez ci-dessous.
Comprendre en profondeur
Pourquoi ça fonctionne : la technique expliquée
Le secret de la fluidité 8K réside dans l’empilement ZFS + 10 GbE + recordsize. ZFS utilise le « record » comme unité de stockage fondamentale. Un recordsize de 1 Mio signifie que chaque bloc lu est de 1 Mo. Pour du ProRes 422 HQ à 734 Mb/s (92 MB/s), un seul record contient 11 images. Lors d’un scrubbing timeline, le système lit 1 Mo d’un coup, saturant le pipeline PCIe 3.0 x4 du SSD L2ARC à 3,5 GB/s avant même d’atteindre les HDD. Ce mécanisme explique pourquoi vous pouvez faire défiler une timeline 8K sans saccade alors que les disques mécaniques tournent à 7200 RPM.
L’algorithme ARC (Adaptive Replacement Cache) de ZFS représente une avancée majeure par rapport aux caches LRU traditionnels. Il maintient simultanément quatre listes : les données fréquemment accédées, les données récemment accédées, et leurs « ghosts » (entrées éjectées). Dans un workflow montage, vos rushs du jour sont accédés en boucle. L’ARC les garde en RAM avec une priorité dynamique, allouant jusqu’à 50% de la RAM dédiée au cache. Avec 64 Go de RAM, vous obtenez 32 Go de cache ARC. Pour un projet 4K de 2 To, 10% des rushs (200 Go) sont accédés à 80% du temps. Le L2ARC de 400 Go capture ces 200 Go, donnant un taux de cache hit > 95%.
Le SLOG (Separate Intent Log) accélère les écritures synchrones de manière spectaculaire. Lorsque DaVinci Resolve écrit un .drp (projet), il demande une confirmation d’écriture synchrone (fsync). Sans SLOG, ZFS écrit sur les HDD puis attend la rotation mécanique (8 ms). Avec SLOG NVMe, l’écriture se fait en 0,02 ms. Le projet est sauvegardé instantanément, éliminant les freezes lors des autosaves toutes les 5 minutes. Le SLOG ne stocke que les métadonnées d’intention, pas les données utilisateur, ce qui explique pourquoi une capacité de 20 Go suffit pour la plupart des cas d’usage.
Le protocole NFS async est crucial pour les performances. Par défaut, NFS force les écritures synchrones (sync), ce qui limite le débit à 200 MB/s. L’option async autorise le serveur à confirmer l’écriture avant qu’elle ne soit réellement sur disque. ZFS garantit l’intégrité via le ZIL (ZFS Intent Log) sur le SLOG. Vous obtenez 950 MB/s en écriture sans risque de corruption. Les tests d’intégrité ZFS (zpool scrub) valident l’intégrité chaque semaine, détectant et corrigeant automatiquement les erreurs silencieuses.
Le recordsize de 1 Mio est le sweet spot pour le vidéo. Un recordsize de 128 Ko (par défaut) fragmente les fichiers vidéo en 8 fois plus de blocs, multipliant les IOPS et la latence. Un recordsize de 4 Mio augmente le débit mais aussi la latence de lecture aléatoire (scrubbing frame par frame). 1 Mio offre 1100 MB/s en lecture séquentielle avec 1,5 ms de latence moyenne, parfait pour le montage multi-cam.
Configuration ZFS avancée et benchmarks
La configuration du pool ZFS détermine 80% des performances finales. Le paramètre `ashift` est critique : il définit la taille minimale de bloc alignée sur la physique du disque. Pour les HDD modernes (secteurs 4K), `ashift=12` est obligatoire. Un ashift incorrect (9 pour les anciens secteurs 512 octets) double les IOPS et divise les performances par deux. Créez votre pool avec : `zpool create -o ashift=12 tank raidz2 /dev/sd[a-e]`.
La compression lz4 est gratuite sur les CPU modernes. Un projet ProRes 422 HQ de 2 To se compresse à 1,3 To (ratio 1,54:1) car les métadonnées et les zones noires sont hautement compressibles. Le CPU consomme < 5% de charge sur un Ryzen 5 5600X, tandis que le débit augmente de 15% grâce à la réduction des données à lire. Activez-la systématiquement : `zfs set compression=lz4 tank/projets`.
Le paramètre `primarycache` contrôle ce qui va dans le cache ARC. Pour des données vidéo accédées séquentiellement, `primarycache=metadata` peut être plus efficace que `all`. Les métadonnées (emplacement des blocs) sont mises en cache, pas les données vidéo elles-mêmes qui sont lues une fois puis éjectées. Cela libère 30% de l’ARC pour d’autres datasets. Testez sur un dataset dédié : `zfs set primarycache=metadata tank/projets/seq`.
Les benchmarks sur un pool 5×16 To RAIDZ2 montrent des résultats spectaculaires : – Lecture séquentielle : 1 150 MB/s (saturant 10 GbE) – Écriture séquentielle : 950 MB/s (limité par le parity RAIDZ2) – Lecture aléatoire 4K : 250 IOPS (normal pour des HDD) – Lecture aléatoire avec L2ARC : 45 000 IOPS (saturant le NVMe) – Latence moyenne : 1,2 ms (L2ARC chaud) vs 8,5 ms (HDD seuls)
Cas avancés et optimisation poussée
Pour du montage 8K RAW Blackmagic (12:1 compression, 483 MB/s par flux), un seul client peut saturer 5 Gb/s. Avec 3 monteurs simultanés, vous dépassez 10 GbE. Solution : agrégation de liens (LACP) ou passage au 25 GbE. Sur TrueNAS, configurez un LAGG (Link Aggregation) avec 2×10 GbE : « Network » > « Interfaces » > « Add » > « Link Aggregation ». Mode LACP, sélectionnez vos 2 interfaces. Côté switch, configurez un LACP static. Vous obtenez 20 Gb/s théoriques, 18 Gb/s réels (1,8 Go/s). Attention : le switch doit supporter le LACP (IEEE 802.3ad). Sans switch managé, utilisez le mode « Load Balance » qui répartit par adresse IP source/destination.
Le passage au 25 GbE (SFP28) offre un meilleur rapport coût/performance que 40 GbE. Une carte Mellanox ConnectX-4 LX à 80€ sur eBay délivre 2,2 Go/s réels. Le switch MikroTik CRS326-24S+2Q+RM (400€) accepte 2 ports 25 GbE. La configuration TrueNAS est identique au 10 GbE, seul le câblage change (DAC SFP28 ou fibre OM4). Les benchmarks montrent 2,3 Go/s en lecture et 1,9 Go/s en écriture sur un pool RAIDZ2 de 6 disques.
Pour les studios avec plus de 5 monteurs, considérez un pool dédié par projet. Un pool RAID10 (miroir de stripes) offre 1,8 Go/s en écriture contre 950 MB/s pour RAIDZ2, au prix d’une perte de capacité (50% vs 67%). La commande de création : `zpool create fastpool mirror /dev/sd[a-b] mirror /dev/sd[c-d] mirror /dev/sd[e-f]`. Assignez ce pool aux projets actifs, et archivez sur RAIDZ2 après livraison.
L’optimisation par codec est essentielle. Pour du H.264/HEVC (fichiers compressés), augmentez recordsize à 4 Mio car les accès sont plus séquentiels. Pour du ProRes/DNxHR (intermediate), 1 Mio reste optimal. Pour du RAW CinemaDNG, descendez à 512 Ko pour améliorer le scrubbing frame par frame. Créez des datasets par codec : `zfs create -o recordsize=4M tank/projets/h265`.
Monitoring et maintenance en production
La surveillance proactive évite 90% des pannes. Utilisez `zpool iostat -v 5` en temps réel pour voir la charge par disque. Un disque avec %util > 80% constamment est un candidat à la défaillance. La commande `smartctl -a /dev/sda | grep -E « Reallocated|Current_Pending »` révèle les secteurs défectueux. Plus de 8 secteurs réalloués signifient : remplacez immédiatement.
Le scrub hebdomadaire est obligatoire. Planifiez-le lors des heures creuses : `echo ‘0 2 * * 0 root zpool scrub tank’ >> /etc/crontab`. Sur un pool 5×16 To, le scrub dure 12 heures. Surveillez sa progression : `zpool status -v`. Un scrub qui prend > 24h indique des disques trop lents ou surchargés.
Le monitoring SNMP permet d’intégrer TrueNAS à votre système de supervision. Activez le service SNMP dans « Services » > « SNMP », puis configurez : `snmpwalk -v2c -c public nas.local .1.3.6.1.4.1.2021.13.15.1.1.5` Cet OID retourne le taux de cache hit L2ARC. Intégrez-le à Grafana pour des graphiques historiques.
Les snapshots automatiques protègent des suppressions accidentelles. Configurez une tâche : `zfs snapshot tank/projets@auto-$(date +%Y%m%d-%H%M)`. Gardez 7 jours de snapshots : `zfs list -t snapshot -o name,creation | grep auto | head -n -7 | xargs -n1 zfs destroy`. Un snapshot de 2 To ne consomme que quelques Go grâce au copy-on-write de ZFS.
Scénarios multi-utilisateurs et gestion des quotas
Pour les studios avec 5 à 10 monteurs, les quotas ZFS évitent qu’un projet monopolise l’espace. Créez un dataset par monteur : `zfs create tank/users/alice`. Définissez un quota : `zfs set quota=5T tank/users/alice`. L’utilisateur voit 5 To comme taille totale, mais le dataset partage le pool avec les autres. L’avantage : les snapshots sont indépendants par utilisateur.
La gestion des permissions NFS est critique. Utilisez `maproot=root` pour que DaVinci Resolve puisse créer des fichiers temporaires avec les bons UID. Dans TrueNAS, « Sharing » > « Unix (NFS) Shares » > « Advanced » > « Maproot User » : root. Côté client Linux, montez avec `mount -t nfs -o vers=4,soft,intr nas.local:/tank/projets /mnt/nas`. Les options `soft` et `intr` évitent les hangs en cas de déconnexion réseau.
Pour les studios Windows, utilisez SMB3 multichannel au lieu de NFS. Sur TrueNAS, activez « Multichannel » dans « Services » > « SMB » > « Advanced ». Côté Windows, le montage se fait automatiquement si vous avez plusieurs cartes réseau. Les benchmarks SMB3 multichannel 2×10 GbE atteignent 1,9 Go/s, supérieur au NFS simple. Cependant, la latence reste légèrement supérieure (2,1 ms vs 1,5 ms), privilégiez NFS pour le montage pur.
Le dataset « scratch » partagé accélère les exports. Créez un dataset temporaire sans redundancy : `zpool create scratchpool /dev/nvme1n1` (SSD NVMe seul). Les monteurs exportent leurs renders intermédiaires ici, puis copient le final sur le pool principal. Cette architecture réduit la charge sur le RAIDZ2 et offre 3 Go/s en écriture temporaire.

