在 AI 模型訓練集爆發、PB(Petabyte)級資料湖(Data Lakes)急遽擴張,以及法規要求長期保留備份資料的今天,企業的儲存架構正面臨著嚴峻的挑戰,如何兼顧海量吞吐效能與每 TB 的建置成本?
儘管全快閃(All-Flash NVMe)陣列在極致隨機讀寫上稱王,但在面對大量循序資料搬移與成本效益的權衡時,高密度的傳統硬碟(HDD)伺服器依然是現代資料中心無可取代的,畢竟比較便宜哪。
為了解答 Infra 架構師們心中常有的疑問,也就是「如果不依賴任何 SSD 快取,一個純靠 HDD 打造的超大型 ZFS 儲存池,究竟能壓榨出多大的原生極限效能?」,東芝 Toshiba 歐洲電子(TEE)HDD 創新實驗室資深產品行銷工程師 Igor Miskó 及其團隊,近期發布了一份極具指標意義的測試報告,《High-Density HDD ZFS Performance Evaluation on AIC SB407-VA server》。
CyberQ 觀察這份報告的優點,就是大膽地拔除了所有外掛,為我們揭開了高密度 ZFS 儲存架構最真實的底層面紗。
1.44 PB 的單機大規模檔案測試環境
為了測出最真實的硬碟原生極限,Toshiba 實驗室打造了一個無網路干擾、無快取輔助的直連式(Directly Attached)測試平台。以下是本次測試的硬體規格,
儲存伺服器平台 AIC SB407-VA
這是一款專為高密度儲存設計的頂級伺服器機箱,具備前後導流散熱與機構設計,確保 60 顆硬碟滿載運作時不會因過熱或機箱共振而產生效能瓶頸。
硬碟陣容 60 顆 Toshiba MG11ACA24TE (24TB 企業級硬碟)
60 顆 24TB 硬碟總共創造了高達 1,440 TB (約 1.44 PB) 的驚人原始物理容量。這是 Toshiba 專為企業打造的大容量主力,能承受嚴苛的 24/7 運作負載。
ZFS 拓樸架構 6 組 RAIDZ2 vdevs
團隊將這 60 顆硬碟規畫為 6 組 RAIDZ2 的虛擬裝置(vdevs),每組採用 8 Data + 2 Parity(8 顆資料碟 + 2 顆同位元碟)的黃金比例配置。
這場測試對 IT 架構師的啟發
當今許多 ZFS 效能跑分報告,往往會重度依賴 SSD 作為讀寫快取(如 ZIL/SLOG 或 L2ARC),或是受限於 10GbE / 25GbE 網路卡的頻寬上限。這導致測出來的數字往往只是SSD 的極速或網路的極限,而無法反映底層硬碟的真實能耐。
Toshiba 的測試策略非常精準,逼迫所有的 I/O 負載直接與這 60 顆機械硬碟硬碰硬。
透過排除 SSD 快取層與外部網路介面,這份報告讓架構師能清楚看見,當快取被龐大的資料流擊穿(Cache Miss)、系統需要進行長時間、持續性的海量寫入(Sustained Load)時,RAIDZ2 原生演算法與底層硬碟之間最真實的物理吞吐極限與行為模式。
實測直擊突破 17 GB/s!純 HDD ZFS 架構的原生吞吐極限
拔掉所有的 SSD 快取、斷開網路傳輸的干擾,純靠 60 顆傳統機械硬碟究竟能跑多快?Toshiba 團隊透過嚴苛的無網路直連(Network-less)測試,給出了令人滿意的解答。
為了測出最真實的底層物理極限,這 60 顆 24TB 硬碟劃分為 6 組 RAIDZ2,建立出一個 750 TB 的 ZVOL 區塊裝置,他們將 ZFS 的區塊大小(volblocksize)精準設定為 128KB,對齊虛擬機 Windows Server 2022 內 ReFS 檔案系統的 64KB 叢集,降低寫入放大率。
在完全不依賴 ZIL/SLOG 同步寫入快取、無 L2ARC 讀取快取的裸機環境下,透過 FIO 工具測出了高達硬體理論極限 85% 到 90% 的強悍實力,
連續讀取(Sequential Read)高達 17.2 GB/s
在大區塊(128KB)、高佇列深度(Queue Depth 1024,16 個執行緒)的嚴苛讀取測試下,這套純 HDD 陣列飆出了高達 16.0 GiB/s(約 17.2 GB/s) 的驚人連續吞吐量,並伴隨約 131,000 IOPS。
CyberQ 認為,更令人印象深刻的是其延遲表現平均延遲僅 7.8 毫秒 (ms),甚至 99% (p99) 的 I/O 延遲都穩穩控制在 8.8 ~ 9.5 毫秒 之間。由 6 組 vdev(共 48 顆資料碟)所構成的寬條帶化(Wide Striping)架構,完美實現了近乎線性的頻寬疊加。單靠這台伺服器的原生讀取實力,就足以輕鬆灌爆一條 100GbE 甚至逼近 200GbE 的高速網路。這對於需要頻繁讀取大量資料的 AI 、科學分析或大型多媒體素材庫(Media & Entertainment)來說,提供了極強悍的底層儲存能力。
穩如泰山的連續寫入(Sequential Write)12.9 GB/s 的海量吞吐
面對 ZFS 最考驗 CPU 計算 RAIDZ2 同位元(Parity Overhead)效能的連續寫入負載(QD 64, 12 執行緒),陣列同樣繳出了 12.0 GiB/s(約 12.9 GB/s) 的優秀成績,寫入 IOPS 逼近 98,500。平均延遲維持在極低的 7.7 毫秒,p99 延遲也僅約 51 毫秒。
CyberQ 認為,在完全沒有 NVMe SSD 幫忙吸收寫入碎片的狀態下能維持近 13 GB/s 寫入不掉速,證明了 6 組 vdev 的平行處理優勢。這正是大型企業備份中心軟體(如 Veeam 或 Commvault、QNAP HDP)在面臨嚴苛備份窗口(Backup Window)時,執行大量備份資料匯入時需要的持續不掉速能力。
效能不打折的運算餘裕與 AI 擴充潛力
報告中特別強調一個關鍵重點,能達到如此貼近物理極限的榨取率,且伺服器僅搭載單顆 Intel Xeon Platinum 8468 處理器與 64GB 記憶體,這證明了基礎的運算與虛擬化資源完全沒有成為效能瓶頸。
CyberQ 認為,這台 AIC SB407-VA 伺服器主機板其實支援雙 CPU、多組 PCIe 5.0 x16 擴充槽以及 6 個前置 NVMe 托架。這為企業留下了一步絕佳的活棋,未來只需安插 GPU 加速卡進行 AI 模型推論或微調,並利用 NVMe 建立高 IOPS 的暫存層(Scratch Space)或 SLOG 快取,就能在同一台設備上無縫打造兼具「海量冷資料吞吐與強大 AI 邊緣運算」的超級混合戰艦。
架構設計背後的巧思與應用價值
測試中所採用的 6 組 (8+2) RAIDZ2 配置,是 ZFS 企業界公認的優秀實作方式。ZFS 具備相當的安全性與容錯率,每組 10 顆硬碟的 vdev 允許同時壞掉 2 顆硬碟而不遺失資料。將 60 顆硬碟打散成 6 組獨立的故障域(Fault Domains),能有效將硬碟重建(Resilvering)期間的資料外洩風險控制在最小範圍。
另外,這種架構也設計了好的空間利用率,能維持約 80% 的儲存淨效率。在 1.44 PB 的原始容量下,能提供極為可觀的可用淨容量,不會因為過度保護而浪費昂貴的儲存空間。
至於業界會關心的循序吞吐量(Sequential Throughput),在 ZFS 中,連續讀寫的頻寬會隨著資料碟的數量線性疊加。透過 6 組 vdev 的平行處理,這個純 HDD 陣列在實務上能展現出足以灌爆多條高速網路通道的連續讀寫頻寬。
適合 AI 、資料中心與企業核心商業應用場景
從這份報告的結論來看,這種無 SSD 快取的純高密度 HDD ZFS 架構,能夠符合以下企業需求和問題,
大數據與 AI 資料湖(Data Lakes),模型訓練前通常需要匯入、清洗海量的非結構化資料。純 HDD 架構提供了最低的每 TB 儲存成本,同時能滿足大檔連續吞吐的嚴苛需求。
次世代備份與長期歸檔(Backup & Archive Repositories),作為 QNAP HDP、Veeam 等企業級備份軟體的 Target 端,備份任務通常是巨大的連續寫入負載,這套系統能確保在有限的備份窗口時間內,快速吞下每日數十 TB 的備份影像檔、虛擬機檔案等等。
大型影音監控與多媒體素材庫(M&E),處理多路未壓縮的影音專案或無間斷的影像監控歸檔,需要的是長時間持續不掉速的寫入能力,這正是高密度 ZFS HDD 陣列的表現舞台。
容量與效能的性價比平衡
全面走向全快閃或許是個美好的願景,但在預算與巨量資料雙重壓力的現實考量下,高密度 HDD 伺服器仍是無可取代的基石。
Toshiba 與 AIC 的這份聯合測試報告向業界證明,只要具備正確的 ZFS 拓樸設定與優良的硬體平台(如 AIC SB407-VA + Toshiba 24TB 企業硬碟,或者是 QNAP 企業級產品 ES1686dc R2、QSN-3050、QSN-3000 等等這類高效能儲存平台),傳統大容量硬碟陣列依然能榨出令人驚豔的效能極限。 這對於評估大型儲存建置成本與效能期望值的企業決策者來說,是一份無須猜測、基於真實物理極限的基準指南。
CyberQ 建議 IT 專業人士點此前往下載《TOSHIBA Lab Report, AIC SB407-VA》完整 PDF 報告,親自檢視其在各項區塊大小(Block sizes)下的詳細 IOPS 與 MB/s 吞吐量實測資料,為您的下一個大型資料中心專案做好更好的規劃和準備。







