WindowsServer2019、2016 ReFS、NTFSでのデータ重複除去 最大ボリュームサイズについての情報です。最近ではサーバのディスクサイズもシステムによっては巨大化しているケースがあります。
その場合に、気にしなければならないのがディスクサイズ、ボリュームサイズになりますが、一応、マイクロソフトの公開情報でReFS、NTFSでのデータ重複除去 最大ボリュームサイズが公開されていますので、サーバ構築時は確認しておいたほうがいいですね。
また、データ重複除去はディスクの空き容量を増やしてくれることにつながりますが、一方でデータ容量が増えるとサーバ負荷になる為、利用には注意が必要なケースもあります。
Windows Server 2019 では、データ重複除去の機能についての抜粋です。
同じボリューム上に、ReFS ファイルシステムの重複除去と圧縮を使用して最大10倍のデータを格納します。 ( 1 回クリックするだけで、Windows 管理センターで有効にすることができます)。オプションの圧縮を使用した可変サイズのチャンクストアでは、節約率が最大になりますが、マルチスレッドの後処理アーキテクチャではパフォーマンスに影響を最小限に抑えることができます。 は、最大 64 TB のボリュームをサポートし、各ファイルの最初の 4 TB を重複除去します。
最大で64TBのボリュームとあります。最近では、100TB以上のディスクを持つサーバもありますから、適用には注意が必要です。
続いてWindows Server 2016についてです。
●大量ボリュームのサポート
Windows Server 2016 以前では、想定されるチャーンに合わせてボリュームのサイズを具体的に設定する必要があり、10 TB を超えるサイズのボリュームは重複除去に適していませんでした。 Windows Server 2016 のデータ重複除去では、最大 64 TB のボリューム サイズがサポートされます。
●大きなファイルのサポート
Windows Server 2016 の前では、1 TB に近いサイズのファイルは重複除去に適した候補ではありませんでした。 Windows Server 2016 では、1 TB までのファイルが完全にサポートされます。
データの重複除去についてはWindows Server 2016以降で機能改善されたようです。2012 R2は適していないと書かれていますね。こういった最大容量を意識しながら、重複データを排除して、ディスクを有効活用したい場合にはおすすめの機能です。VDIなどでも効果的と言われています。Hyper-Vなどではメリットがありそうですね。