Recommandations de taille de cluster pour ReFS et NTFS
Amplification des E/S:
L'amplification IO fait référence au large ensemble de circonstances dans lesquelles une opération IO en déclenche une autre., opérations d'E/S involontaires. Bien qu'il puisse sembler qu'une seule opération d'E/S s'est produite, en réalité, le système de fichiers a dû effectuer plusieurs opérations d'E/S pour réussir à gérer l'E/S initiale. Ce phénomène peut s'avérer particulièrement coûteux si l'on considère les différentes optimisations que le système de fichiers ne peut plus effectuer.:
- Lors d'une écriture, le système de fichiers pourrait effectuer cette écriture en mémoire et vider cette écriture dans le stockage physique le cas échéant.
- Certains écrits, cependant, pourrait forcer le système de fichiers à effectuer des opérations d'E/S supplémentaires, comme lire des données déjà écrites sur un périphérique de stockage. La lecture de données à partir d'un périphérique de stockage retarde considérablement l'achèvement de l'écriture d'origine., car le système de fichiers doit attendre que les données appropriées soient récupérées du stockage avant d'effectuer l'écriture..
Tailles des clusters ReFS:
ReFS propose des clusters 4K et 64K. 4K est la taille de cluster par défaut pour ReFS, et nous vous recommandons d'utiliser des tailles de cluster 4K pour la plupart des déploiements ReFS car cela aide à réduire l'amplification coûteuse des E/S:
- En général, si la taille du cluster dépasse la taille de l'IO, certains flux de travail peuvent déclencher des E/S involontaires. Considérez le scénario suivant dans lequel un volume ReFS est formaté avec des clusters 64 000
- En choisissant des clusters 4K au lieu de clusters 64K, on peut réduire le nombre d'E/S qui se produisent et qui sont inférieures à la taille du cluster, empêchant les amplifications IO coûteuses de se produire aussi fréquemment.
En plus, 4Les tailles de grappes K offrent une plus grande compatibilité avec la granularité hyper-v io, Nous recommandons donc fortement d'utiliser des tailles de cluster 4K avec Hyper-V sur les références. Les clusters 64K sont applicables lorsque vous travaillez avec, E/S séquentielles, mais sinon, 4K devrait être la taille de cluster par défaut.
Tailles des clusters NTFS:
NTFS propose des tailles de cluster allant de 512 à 64K, mais en général, nous recommandons une taille de cluster 4K sur NTFS, car les clusters 4K aident à minimiser le gaspillage d'espace lors du stockage de petits fichiers. Nous déconseillons également fortement l'utilisation de tailles de cluster inférieures à 4K.. Il y a deux cas, cependant, où les clusters 64K pourraient être appropriés:
- 4Les clusters K limitent le volume maximum et la taille des fichiers à 16 To
- 64Les tailles de cluster K peuvent offrir une capacité de volume et de fichiers accrue, ce qui est pertinent si vous hébergez un déploiement important sur votre volume NTFS, comme l'hébergement VHDS ou un déploiement SQL.
- NTFS a une limite de fragmentation, et des tailles de cluster plus grandes peuvent aider à réduire la probabilité d'atteindre cette limite
- Parce que NTFS est rétrocompatible, il doit utiliser des structures internes qui n'ont pas été optimisées pour les demandes de stockage modernes. Ainsi, les métadonnées dans NTFS empêchent tout fichier d'avoir plus d'environ 1,5 million d'extensions.
- On peut, cependant, utilisez l'option « format /L » pour augmenter la limite de fragmentation à ~6 millions.
- 64Les déploiements de cluster K sont moins sensibles à cette limite de fragmentation, les clusters 64K constituent donc une meilleure option si la limite de fragmentation NTFS pose problème. (Déduplication des données, fichiers clairsemés, et les déploiements SQL peuvent provoquer un degré élevé de fragmentation.)
- La compression NTFS ne fonctionne qu'avec les clusters 4K, donc l'utilisation de clusters 64K ne convient pas lors de l'utilisation de la compression NTFS. Envisagez plutôt d'augmenter la limite de fragmentation, comme décrit dans les puces précédentes.
Alors qu'une taille de cluster 4K est le paramètre par défaut pour NTFS, il existe de nombreux scénarios dans lesquels des tailles de cluster de 64 Ko ont du sens, tel que: Hyper-v, SQL, déduplication, ou lorsque la plupart des fichiers d'un volume sont volumineux.