NAS montage vidéo : guide complet

·

← Guide précédenteGuide suivante →

Difficulté : Intermédiaire

Guide OMNITRADE

Guide 2026 : Montez Votre Propre NAS pour le Montage Vidéo et la Création

Votre Mac/PC rame avec les rushes 4K ? Ce guide vous fait monter un NAS 10 GbE en 2 heures, pour éditer en direct 8K multi-cam avec 1100 MB/s de débit stable et 0 latence perceptible. Résultat : un stockage centralisé, sécurisé et 3 fois moins cher qu’un SAN professionnel.

Le pas-à-pas : Assemblage et configuration TrueNAS

Ce qu’il vous faut :

  • TrueNAS SCALE 24.10 ISO (télécharger ici)
  • Un PC NAS (voir verdict ci-dessous) avec 2×SSD NVMe 500 Go, 4×HDD 18 To, carte 10 GbE
  • Un client montage (Mac/PC) avec carte 10 GbE ou adaptateur Thunderbolt 3/4
  • Câble Ethernet Cat6A ou Cat7, temps estimé : 120 minutes
Avant de visser quoi que ce soit

Branchez tous vos disques sur des ports SATA distincts. Si vous branchez un SSD NVMe et un HDD sur le même contrôleur SATA partagé, vous diviserez votre bande passante par 2. Vérifiez dans le manuel de votre carte mère que les ports M.2 ne désactivent pas de ports SATA. Conséquence : un montage 4K qui saccade irrémédiablement.

1
Créez la clé USB d'installation TrueNAS et démarrez le NAS

Branchez une clé USB 8 Go minimum. Sur votre PC de travail, utilisez Rufus (Windows) ou dd (Linux) pour flasher l’ISO. Débranchez tous les disques de données avant le premier démarrage pour éviter d’effacer vos données par erreur.

# Sous Linux/Mac, vérifiez le nom de votre clé USB avec :
lsblk
# Exemple : /dev/sdc. Flashez avec (remplacez sdX) :
sudo dd if=TruNAS-SCALE-24.10.iso of=/dev/sdX bs=4M status=progress conv=fdatasync
# Sous Windows avec Rufus : sélectionnez l'ISO, partition GPT, mode DD

Résultat attendu : « Syncing… Done. 1.8 GB copied ». Redémarrez le NAS sur la clé USB (touche F11/F12 au boot, sélectionnez « UEFI: Your USB Drive »). Vous devez voir le menu TrueNAS en noir et blanc.

2
Installez TrueNAS sur le SSD système et configurez le réseau 10 GbE

Sélectionnez « Install/Upgrade ». Choisissez votre premier SSD NVMe (ex: nvme0n1) comme disque système. Cochez « Format ». Après redémarrage, connectez-vous à l’interface web via l’IP affichée sur l’écran du NAS.

# Sur votre PC client, ouvrez le navigateur à l'IP affichée :
http://192.168.1.100
# Connectez-vous avec root / mot de passe défini à l'installation

Résultat attendu : tableau de bord TrueNAS avec « System Information » en haut. Si vous voyez « Connection refused », vérifiez que votre PC est sur le même sous-réseau. Allez dans « Network » > « Interfaces », éditez votre interface 10 GbE, cochez « DHCP » ou configurez une IP statique 192.168.10.10/24.

3
Créez le pool de stockage ZFS en RAIDZ2 pour la sécurité

Allez dans « Storage » > « Pools » > « Add ». Sélectionnez vos 4 HDD 18 To. Choisissez « RAIDZ2 » (double parité). Nommez le pool « video_pool ». Cochez « Force ». Ne touchez pas aux options avancées pour l’instant.

# En CLI (optionnel mais recommandé pour la précision) :
zpool create -f -o ashift=12 video_pool raidz2 /dev/sda /dev/sdb /dev/sdc /dev/sdd
# Créez ensuite le dataset pour les projets :
zfs create -o recordsize=1M -o compression=lz4 video_pool/projets

Résultat attendu : dans « Storage » > « Pools », vous voyez « video_pool » avec 54 To de capacité brute (36 To utiles). Si vous voyez « Error: Device is too small », un disque est défectueux ou < 18 To. Remplacez-le.

4
Activez le cache SSD L2ARC et le SLOG pour la fluidité 8K

Retournez dans « Storage » > « Pools ». Cliquez sur les trois points à côté de « video_pool » > « Add Vdev ». Sélectionnez « Cache » et ajoutez votre second SSD NVMe. Recommencez pour « Log » (SLOG) avec le même SSD (partitionné).

# Partitionnez le SSD NVMe en 2 (CLI) :
parted /dev/nvme1n1 mklabel gpt
parted /dev/nvme1n1 mkpart primary 0% 400GB  # Pour L2ARC
parted /dev/nvme1n1 mkpart primary 400GB 100% # Pour SLOG
# Ajoutez au pool :
zpool add video_pool cache /dev/nvme1n1p1 log /dev/nvme1n1p2

Résultat attendu : « zpool status » montre « cache » et « log » avec vos partitions NVMe. Le débit en écriture synchrone passe de 200 MB/s à 900+ MB/s. Si « cache » n’apparaît pas, redémarrez le service ZFS : « systemctl restart zfs-zed ».

5
Créez le partage NFS optimisé pour DaVinci Resolve

Allez dans « Shares » > « UNIX (NFS) » > « Add ». Sélectionnez le dataset « /mnt/video_pool/projets ». Cochez « All dirs ». Dans « Advanced », ajoutez :

mapall_user: root
mapall_group: wheel
auxiliary_parameters: async,insecure,no_subtree_check,rw

Cliquez « Save ». Sur votre Mac client, ouvrez Terminal et montez :

# Sur Mac :
sudo mkdir -p /Volumes/NAS_Video
sudo mount -t nfs -o resvport,rw,nolocks,locallocks 192.168.10.10:/mnt/video_pool/projets /Volumes/NAS_Video
# Sur Linux :
sudo mkdir /mnt/nas_video
sudo mount -t nfs -o rw,nolock 192.168.10.10:/mnt/video_pool/projets /mnt/nas_video

Résultat attendu : « df -h » montre le volume monté avec 36 To disponibles. Ouvrez DaVinci Resolve > Preferences > Media Storage > ajoutez « /Volumes/NAS_Video ». Les rushes 4K doivent jouer sans buffer. Si « Permission denied », vérifiez « mapall_user » sur TrueNAS.

6
Testez le débit réel et ajustez le recordsize pour le montage

Sur votre PC client, téléchargez « Blackmagic Disk Speed Test » (Mac) ou « CrystalDiskMark » (Windows). Lancez un test sur le volume monté. Vous devez obtenir > 1000 MB/s en lecture et > 900 MB/s en écriture.

# Sur le NAS, vérifiez les stats en temps réel :
zpool iostat -v 1
# Vous devez voir : 
# capacity     operations     bandwidth
# alloc   free   read  write   read  write
# 2.1T   33.9T      0   1.2K  1.1G   980M

Résultat attendu : iostat montre des débits > 1 Go/s. Si < 500 MB/s, votre recordsize est mal configuré. Retournez dans « Storage » > « Pools » > dataset « projets » > Edit > Recordsize : 1 Mio. Redémarrez le partage NFS.

7
Activez le snapshot automatique et la réplication cloud

Allez dans « Data Protection » > « Periodic Snapshot Tasks » > « Add ». Sélectionnez « video_pool/projets ». Fréquence : toutes les 15 minutes (pendant le montage). Rétention : 24h (24 snapshots). Pour le cloud, ajoutez une tâche « Cloud Sync » vers un bucket S3 compatible.

# CLI pour vérifier les snapshots :
zfs list -t snapshot -r video_pool/projets | head
# Résultat attendu :
# video_pool/projets@auto-2026-01-15_14.30  2.1M  -  1.2T  -

Résultat attendu : dans « Storage » > « Snapshots », vous voyez des snapshots toutes les 15 min. Si « Task failed », vérifiez que le dataset n’est pas plein à plus de 80%. Les snapshots occupent ~0.1% de l’espace par heure de montage.

Astuce OMNITRADE : le recordsize magique

Pour du montage multi-cam 6K/8K, passez le recordsize à 4 Mio au lieu de 1 Mio. Cela augmente la latence de 2 ms mais double le débit séquentiel. Commande : zfs set recordsize=4M video_pool/projets. Testez avec vos rushes RED/Blackmagic RAW avant de valider.

Le Dossier Complet : Configurations Ready-to-Use pour 50 Logiciels Créatifs

Téléchargez les 50 fichiers de config exportés TrueNAS (DaVinci, Premiere, Final Cut, Avid, After Effects, Blender, etc.). Importez-les en 1 clic. + Le benchmark template pour tester votre setup. + Le checklist de maintenance mensuelle.

Recevoir le dossier complet gratuitement

Pour comprendre le pourquoi et les cas avancés, poursuivez ci-dessous.

Comprendre en profondeur

Pourquoi ça fonctionne : la technique expliquée

Le secret de la fluidité 8K réside dans l’empilement ZFS + 10 GbE + recordsize. ZFS utilise le « record » comme unité de stockage fondamentale. Un recordsize de 1 Mio signifie que chaque bloc lu est de 1 Mo. Pour du ProRes 422 HQ à 734 Mb/s (92 MB/s), un seul record contient 11 images. Lors d’un scrubbing timeline, le système lit 1 Mo d’un coup, saturant le pipeline PCIe 3.0 x4 du SSD L2ARC à 3,5 GB/s avant même d’atteindre les HDD. Ce mécanisme explique pourquoi vous pouvez faire défiler une timeline 8K sans saccade alors que les disques mécaniques tournent à 7200 RPM.

L’algorithme ARC (Adaptive Replacement Cache) de ZFS représente une avancée majeure par rapport aux caches LRU traditionnels. Il maintient simultanément quatre listes : les données fréquemment accédées, les données récemment accédées, et leurs « ghosts » (entrées éjectées). Dans un workflow montage, vos rushs du jour sont accédés en boucle. L’ARC les garde en RAM avec une priorité dynamique, allouant jusqu’à 50% de la RAM dédiée au cache. Avec 64 Go de RAM, vous obtenez 32 Go de cache ARC. Pour un projet 4K de 2 To, 10% des rushs (200 Go) sont accédés à 80% du temps. Le L2ARC de 400 Go capture ces 200 Go, donnant un taux de cache hit > 95%.

Le SLOG (Separate Intent Log) accélère les écritures synchrones de manière spectaculaire. Lorsque DaVinci Resolve écrit un .drp (projet), il demande une confirmation d’écriture synchrone (fsync). Sans SLOG, ZFS écrit sur les HDD puis attend la rotation mécanique (8 ms). Avec SLOG NVMe, l’écriture se fait en 0,02 ms. Le projet est sauvegardé instantanément, éliminant les freezes lors des autosaves toutes les 5 minutes. Le SLOG ne stocke que les métadonnées d’intention, pas les données utilisateur, ce qui explique pourquoi une capacité de 20 Go suffit pour la plupart des cas d’usage.

Le protocole NFS async est crucial pour les performances. Par défaut, NFS force les écritures synchrones (sync), ce qui limite le débit à 200 MB/s. L’option async autorise le serveur à confirmer l’écriture avant qu’elle ne soit réellement sur disque. ZFS garantit l’intégrité via le ZIL (ZFS Intent Log) sur le SLOG. Vous obtenez 950 MB/s en écriture sans risque de corruption. Les tests d’intégrité ZFS (zpool scrub) valident l’intégrité chaque semaine, détectant et corrigeant automatiquement les erreurs silencieuses.

Le recordsize de 1 Mio est le sweet spot pour le vidéo. Un recordsize de 128 Ko (par défaut) fragmente les fichiers vidéo en 8 fois plus de blocs, multipliant les IOPS et la latence. Un recordsize de 4 Mio augmente le débit mais aussi la latence de lecture aléatoire (scrubbing frame par frame). 1 Mio offre 1100 MB/s en lecture séquentielle avec 1,5 ms de latence moyenne, parfait pour le montage multi-cam.

Diagnostic : latence élevée malgré le L2ARC Si vous constatez des latences > 10 ms malgré un L2ARC configuré, vérifiez trois points critiques : 1. Le L2ARC n’est pas chaud : il faut 2-3 heures de travail pour remplir le cache. Utilisez `zpool iostat -v 5` pour voir le taux de remplissage. 2. Le recordsize est incorrect : un recordsize de 128 Ko sur des fichiers 4K multiplie les IOPS par 8. Vérifiez avec `zfs get recordsize pool/projet`. 3. Le L2ARC est sur un SATA SSD : la latence SATA (0,5 ms) est 5 fois supérieure au NVMe (0,1 ms). Utilisez `smartctl -a /dev/nvme0n1` pour vérifier le modèle.
Astuce : benchmark réel avec fio Pour tester vos performances avant la mise en production, utilisez fio avec un profil vidéo réel : `fio –name=video_test –rw=readwrite –rwmixread=80 –bs=1M –direct=1 –size=100G –numjobs=4 –runtime=300 –group_reporting` Ce benchmark simule 4 flux vidéo 4K avec 80% de lecture, reproduisant fidèlement un workflow montage.

Configuration ZFS avancée et benchmarks

La configuration du pool ZFS détermine 80% des performances finales. Le paramètre `ashift` est critique : il définit la taille minimale de bloc alignée sur la physique du disque. Pour les HDD modernes (secteurs 4K), `ashift=12` est obligatoire. Un ashift incorrect (9 pour les anciens secteurs 512 octets) double les IOPS et divise les performances par deux. Créez votre pool avec : `zpool create -o ashift=12 tank raidz2 /dev/sd[a-e]`.

La compression lz4 est gratuite sur les CPU modernes. Un projet ProRes 422 HQ de 2 To se compresse à 1,3 To (ratio 1,54:1) car les métadonnées et les zones noires sont hautement compressibles. Le CPU consomme < 5% de charge sur un Ryzen 5 5600X, tandis que le débit augmente de 15% grâce à la réduction des données à lire. Activez-la systématiquement : `zfs set compression=lz4 tank/projets`.

Le paramètre `primarycache` contrôle ce qui va dans le cache ARC. Pour des données vidéo accédées séquentiellement, `primarycache=metadata` peut être plus efficace que `all`. Les métadonnées (emplacement des blocs) sont mises en cache, pas les données vidéo elles-mêmes qui sont lues une fois puis éjectées. Cela libère 30% de l’ARC pour d’autres datasets. Testez sur un dataset dédié : `zfs set primarycache=metadata tank/projets/seq`.

Les benchmarks sur un pool 5×16 To RAIDZ2 montrent des résultats spectaculaires : – Lecture séquentielle : 1 150 MB/s (saturant 10 GbE) – Écriture séquentielle : 950 MB/s (limité par le parity RAIDZ2) – Lecture aléatoire 4K : 250 IOPS (normal pour des HDD) – Lecture aléatoire avec L2ARC : 45 000 IOPS (saturant le NVMe) – Latence moyenne : 1,2 ms (L2ARC chaud) vs 8,5 ms (HDD seuls)

1
Configurez le recordsize optimal
Connectez-vous à TrueNAS Shell et vérifiez la valeur actuelle : `zfs get recordsize tank/projets` Si ce n’est pas 1M, changez-le : `zfs set recordsize=1M tank/projets` Pour les fichiers existants, la nouvelle valeur s’applique aux nouvelles écritures uniquement. Pour forcer la réécriture : `zfs snapshot tank/projets@migration` `zfs send tank/projets@migration | zfs receive tank/projets_new` `zfs rename tank/projets tank/projets_old` `zfs rename tank/projets_new tank/projets`
2
Activez et monitorer le L2ARC
Ajoutez votre SSD NVMe comme L2ARC : `zpool add tank cache /dev/nvme0n1p1` Surveillez le taux de cache hit : `arcstat -f time,arcsz,l2size,l2hits,l2miss 5` Un taux de l2hits > 90% indique un L2ARC efficace. Si inférieur à 70%, augmentez la taille du L2ARC ou vérifiez le recordsize.

Cas avancés et optimisation poussée

Pour du montage 8K RAW Blackmagic (12:1 compression, 483 MB/s par flux), un seul client peut saturer 5 Gb/s. Avec 3 monteurs simultanés, vous dépassez 10 GbE. Solution : agrégation de liens (LACP) ou passage au 25 GbE. Sur TrueNAS, configurez un LAGG (Link Aggregation) avec 2×10 GbE : « Network » > « Interfaces » > « Add » > « Link Aggregation ». Mode LACP, sélectionnez vos 2 interfaces. Côté switch, configurez un LACP static. Vous obtenez 20 Gb/s théoriques, 18 Gb/s réels (1,8 Go/s). Attention : le switch doit supporter le LACP (IEEE 802.3ad). Sans switch managé, utilisez le mode « Load Balance » qui répartit par adresse IP source/destination.

Le passage au 25 GbE (SFP28) offre un meilleur rapport coût/performance que 40 GbE. Une carte Mellanox ConnectX-4 LX à 80€ sur eBay délivre 2,2 Go/s réels. Le switch MikroTik CRS326-24S+2Q+RM (400€) accepte 2 ports 25 GbE. La configuration TrueNAS est identique au 10 GbE, seul le câblage change (DAC SFP28 ou fibre OM4). Les benchmarks montrent 2,3 Go/s en lecture et 1,9 Go/s en écriture sur un pool RAIDZ2 de 6 disques.

Pour les studios avec plus de 5 monteurs, considérez un pool dédié par projet. Un pool RAID10 (miroir de stripes) offre 1,8 Go/s en écriture contre 950 MB/s pour RAIDZ2, au prix d’une perte de capacité (50% vs 67%). La commande de création : `zpool create fastpool mirror /dev/sd[a-b] mirror /dev/sd[c-d] mirror /dev/sd[e-f]`. Assignez ce pool aux projets actifs, et archivez sur RAIDZ2 après livraison.

L’optimisation par codec est essentielle. Pour du H.264/HEVC (fichiers compressés), augmentez recordsize à 4 Mio car les accès sont plus séquentiels. Pour du ProRes/DNxHR (intermediate), 1 Mio reste optimal. Pour du RAW CinemaDNG, descendez à 512 Ko pour améliorer le scrubbing frame par frame. Créez des datasets par codec : `zfs create -o recordsize=4M tank/projets/h265`.

Diagnostic : débits erratiques sur LACP Si vos débits oscillent entre 500 MB/s et 1,5 Go/s sur un LACP 2×10 GbE, le hashing est mal configuré. TrueNAS utilise l’adresse MAC par défaut, ce qui peut coller tous vos flux sur une seule interface. Forcez le hashing par adresse IP : `ifconfig lagg0 laggproto lacp lagghash l3,l4` Vérifiez la répartition : `laggstat -v lagg0`. Vous devez voir du trafic sur les deux ports.
Astuce : QoS pour le montage temps réel Activez le QoS sur votre switch pour prioriser le trafic NFS. Sur un switch MikroTik : `/interface bridge filter add chain=forward action=set-priority new-priority=5 ip-protocol=udp ip-dst-port=2049` Cela donne la priorité maximale aux paquets NFS, évitant les saccades lorsqu’un collègue lance un gros transfert.

Monitoring et maintenance en production

La surveillance proactive évite 90% des pannes. Utilisez `zpool iostat -v 5` en temps réel pour voir la charge par disque. Un disque avec %util > 80% constamment est un candidat à la défaillance. La commande `smartctl -a /dev/sda | grep -E « Reallocated|Current_Pending »` révèle les secteurs défectueux. Plus de 8 secteurs réalloués signifient : remplacez immédiatement.

Le scrub hebdomadaire est obligatoire. Planifiez-le lors des heures creuses : `echo ‘0 2 * * 0 root zpool scrub tank’ >> /etc/crontab`. Sur un pool 5×16 To, le scrub dure 12 heures. Surveillez sa progression : `zpool status -v`. Un scrub qui prend > 24h indique des disques trop lents ou surchargés.

Le monitoring SNMP permet d’intégrer TrueNAS à votre système de supervision. Activez le service SNMP dans « Services » > « SNMP », puis configurez : `snmpwalk -v2c -c public nas.local .1.3.6.1.4.1.2021.13.15.1.1.5` Cet OID retourne le taux de cache hit L2ARC. Intégrez-le à Grafana pour des graphiques historiques.

Les snapshots automatiques protègent des suppressions accidentelles. Configurez une tâche : `zfs snapshot tank/projets@auto-$(date +%Y%m%d-%H%M)`. Gardez 7 jours de snapshots : `zfs list -t snapshot -o name,creation | grep auto | head -n -7 | xargs -n1 zfs destroy`. Un snapshot de 2 To ne consomme que quelques Go grâce au copy-on-write de ZFS.

3
Configurez les alertes par email
Dans TrueNAS, allez dans « System » > « Alert Settings ». Configurez votre SMTP. Créez une alerte personnalisée pour les erreurs ZFS : `echo ‘zpool status -x | grep -q « errors: No known data errors » || echo « ZFS ERRORS DETECTED » | mail -s « URGENT NAS » admin@studio.com’ >> /usr/local/bin/zfs_check.sh` Ajoutez au crontab toutes les heures. Vous serez alerté en temps réel en cas de corruption silencieuse.
Diagnostic : scrub qui ne progresse pas Si `zpool status` montre un scrub bloqué à 0% depuis des heures, un disque est en timeout. Vérifiez d’abord : `dmesg | grep -i « timeout\|reset »` Puis forcez le scrub à ignorer le disque problématique : `zpool scrub -s tank` `zpool offline tank /dev/sda` `zpool scrub tank` Remplacez le disque avant de le remettre online.

Scénarios multi-utilisateurs et gestion des quotas

Pour les studios avec 5 à 10 monteurs, les quotas ZFS évitent qu’un projet monopolise l’espace. Créez un dataset par monteur : `zfs create tank/users/alice`. Définissez un quota : `zfs set quota=5T tank/users/alice`. L’utilisateur voit 5 To comme taille totale, mais le dataset partage le pool avec les autres. L’avantage : les snapshots sont indépendants par utilisateur.

La gestion des permissions NFS est critique. Utilisez `maproot=root` pour que DaVinci Resolve puisse créer des fichiers temporaires avec les bons UID. Dans TrueNAS, « Sharing » > « Unix (NFS) Shares » > « Advanced » > « Maproot User » : root. Côté client Linux, montez avec `mount -t nfs -o vers=4,soft,intr nas.local:/tank/projets /mnt/nas`. Les options `soft` et `intr` évitent les hangs en cas de déconnexion réseau.

Pour les studios Windows, utilisez SMB3 multichannel au lieu de NFS. Sur TrueNAS, activez « Multichannel » dans « Services » > « SMB » > « Advanced ». Côté Windows, le montage se fait automatiquement si vous avez plusieurs cartes réseau. Les benchmarks SMB3 multichannel 2×10 GbE atteignent 1,9 Go/s, supérieur au NFS simple. Cependant, la latence reste légèrement supérieure (2,1 ms vs 1,5 ms), privilégiez NFS pour le montage pur.

Le dataset « scratch » partagé accélère les exports. Créez un dataset temporaire sans redundancy : `zpool create scratchpool /dev/nvme1n1` (SSD NVMe seul). Les monteurs exportent leurs renders intermédiaires ici, puis copient le final sur le pool principal. Cette architecture réduit la charge sur le RAIDZ2 et offre 3 Go/s en écriture temporaire.

Pourquoi mon L2ARC ne se remplit-il pas malgré des heures de travail ?
Vérifiez trois paramètres : 1. `vfs.zfs.l2arc_write_max` : limite l’écriture sur L2ARC à 8 Mo/s par défaut. Augmentez-le à 100 Mo/s dans `System` > `Advanced` > `Sysctl` : `vfs.zfs.l2arc_write_max=104857600`. 2. Votre dataset a `primarycache=none` : les données ne passent pas par l’ARC, donc jamais dans le L2ARC. Corrigez avec `zfs set primarycache=all`. 3. Le L2ARC est trop petit : si vos rushs du jour font 500 Go et votre L2ARC 100 Go, le taux d’éviction sera élevé. Surveillez avec `arcstat | grep l2evict`.
Quelle différence entre SLOG et L2ARC ?
Le SLOG accélère les **écritures synchrones** (fsync) comme les sauvegardes de projets. Il ne stocke que les intentions d’écriture, pas les données. 20 Go suffisent. Le L2ARC accélère les **lectures** en mettant en cache les données fréquemment accédées. Il stocke des centaines de Go de rushs actifs. Un NAS de montage a besoin des deux : SLOG pour la réactivité, L2ARC pour la fluidité.
Puis-je mélanger des HDD de tailles différentes dans RAIDZ2 ?
Oui, mais le plus petit disque détermine la capacité de tous. Un RAIDZ2 avec 4×16 To + 1×8 To donne 24 To utiles (8 To × 3). De plus, les performances seront limitées par le disque le lent. Pour un NAS pro, utilisez des disques identiques. Si vous devez mélanger, créez un pool miroir séparé pour les disques de taille différente.
Comment migrer mon pool ZFS vers de plus gros disques sans downtime ?
Utilisez le remplacement en ligne : 1. `zpool replace tank /dev/sda /dev/sdn` (remplacez sda par le nouveau disque) 2. Attendez la resilver (12h pour 16 To) : `zpool status` 3. Répétez pour chaque disque 4. Une fois tous les disques remplacés, étendez le pool : `zpool online -e tank /dev/sdn` ZFS agrandit automatiquement le pool à la nouvelle capacité. Vous pouvez travailler pendant la migration.
Mon monteur sur Mac M1 a des débits de 300 MB/s seulement, pourquoi ?
Les Mac M1/M2 ont un contrôleur 10 GbE limité à 3,2 Go/s théorique, mais le pilote NFS d’Apple est mal optimisé. Solutions : 1. Passez en SMB3 : macOS l’optimise mieux que NFS. 2. Utilisez `nfsvers=3` au lieu de 4 : plus stable sur Apple Silicon. 3. Activez jumbo frames (MTU 9000) sur le Mac : `sudo ifconfig en0 mtu 9000`. 4. Vérifiez que le câble est bien en Cat6A et le switch en 10 GbE full duplex.
Le verdict OMNITRADE
Pour un studio de 3 à 5 monteurs en 4K/8K, la configuration RAIDZ2 + L2ARC 400 Go + SLOG 20 Go + 10 GbE offre le meilleur compromis performance/prix. Budget total : 2 500€ pour 48 To utiles. Si vous dépassez 5 monteurs ou travaillez en 12K RAW, investissez dans du 25 GbE et un pool RAID10 dédié. La solution TrueNAS SCALE garantit 5 ans de support communautaire et des mises à jour de sécurité mensuelles. [Commencez votre build dès aujourd’hui avec notre configurateur interactif](/configurateur-nas-video) et recevez un blueprint personnalisé en 5 minutes.
📊

Avez-vous réussi à suivre ce tuto ?

← Guide précédenteGuide suivante →


OMNITRADE
Equipe technique & commerciale