型號: | H100 |
---|---|
品牌: | 英偉達NVIDIA |
原產地: | 美國 |
類別: | 電子、電力 / 其它電力、電子 |
標籤︰ | 英偉達NVIDIA , GPU算力租賃 , 服務器 |
單價: |
-
|
最少訂量: | 1 件 |
最後上線︰2024/09/23 |
NVIDIA H100 Tensor Core GPU為各類數據中心提供出色的性能、可擴展性和安全性。
加速計算的數量級飛躍
通過 NVIDIA H100 Tensor Core GPU,在每個工作負載中實現出色性能、可擴展性和安全性。使用 NVIDIA® NVLink® Switch 系統,可連接多達 256 個 H100 來加速百億億級 (Exascale) 工作負載,另外可通過專用的 Transformer 引擎來處理萬億參數語言模型。與上一代產品相比,H100 的綜合技術創新可以將大型語言模型的速度提高 30 倍,從而提供業界領先的對話式 AI。
準備好迎接企業 AI 了嗎?
企業採用 AI 現已成為主流,企業組織需要端到端的 AI 就緒型基礎架構,加快自身邁向新時代的步伐。
適用於主流服務器的 H100 隨附五年期 NVIDIA AI Enterprise 軟件套件訂閱(包括企業支持),能夠以強大的性能簡化 AI 的採用。這可確保組織能夠訪問構建 H100 加速的 AI 工作流所需的 AI 框架和工具,例如 AI 聊天機器人、推薦引擎和視覺 AI 等。
NVIDIA英偉達H100人工智能服務器GPU算力租賃配置參數:
項目 |
標準配置 |
框架 |
8U 機架式服務器 |
處理器 |
2 顆至強 Platinum 8468 48 核/3.8GHz 主頻/105MB 緩存 |
內存 |
DDR5 4800MHz ECC 內存容量 512GB |
GPU |
NVIDIA HGX H100 GPU 模組 |
系統硬盤 |
M.2 NVMe PCIe 接口 2TB SSD |
數據硬盤 |
2*10TB 企業級 SATA 硬盤 RAID 10 陣列配置 |
InfiniBand 網絡 |
200G/雙端口/QSFP56 |
Ethernet 網卡 |
OCP 網卡/雙電口/10G |
PICE 插槽 |
9 個 PCIe 5.0 擴展插槽 |
電源 |
6*3000W,2*2700W,AC220 輸入 |
風扇 |
10 個 54V 風扇組 |
操作系統 |
Windows Server/RedHat Enterprise Linux/SUSE Linux Enterprise Server/CentOS/Ubuntu/Vmware EXSi |
工作溫度 |
+5°~+35° |
其他接口 |
機箱后部:1 個 RJ45 管理接口,2 個 USB 3.0,1 個 VGA 機箱前部:2 個 USB 3.0,1 個 VGA |
整機淨重 |
120KG(以實際配置為準) |
NVIDIA H100 TENSOR CORE GPU 規格 (SXM4 和 PCIE 外形規格)
外形規格 |
H100 SXM4 |
H100 PCIE |
FP64 |
34 teraFLOPS |
26 teraFLOPS |
FP64 Tensor Core |
67 teraFLOPS |
51 teraFLOPS |
FP32 |
67 teraFLOPS |
51 teraFLOPS |
TF32 Tensor Core |
989 teraFLOPS* |
756teraFLOPS* |
BFLOAT16 Tensor Core |
1979 teraFLOPS* |
1,513 teraFLOPS* |
FP16 Tensor Core |
1979 teraFLOPS* |
1,513 teraFLOPS* |
FP8 Tensor Core |
3958 teraFLOPS* |
3026 teraFLOPS* |
INT8 Tensor Core |
3958 TOPS* |
3026 TOPS* |
GPU 顯存 |
80GB |
80GB |
GPU 顯存帶寬 |
3.35TB/s |
2TB/s |
解碼器 |
7 NVDEC/7 JPEG |
7 NVDEC/7 JPEG |
最大熱設計功率 (TDP) |
高達 700 瓦(可配置) |
300-350 瓦(可配置) |
多實例 GPU |
最多 7 個 MIG @每個 10GB |
|
外形規格 |
SXM |
PCIe雙插槽風冷式 |
安全地加速從企業級到百億億次級規模的工作負載
實時深度學習推理:AI 正在利用一系列廣氾的神經網絡解決範圍同樣廣氾的一系列商業挑戰。出色的 AI 推理加速器不僅要提供非凡性能,還要利用通用性加速這些神經網絡。
H100 進一步擴展了 NVIDIA 在推理領域的市場領先地位,其多項先進技術可將推理速度提高 30 倍,並提供超低的延遲。第四代 Tensor Core 可加速所有精度(包括 FP64、TF32、FP32、FP16 和 INT8)。Transformer 引擎可結合使用 FP8 和 FP16 精度,減少內存占用並提高性能,同時仍能保持大型語言模型的準確性。
超大模型的 AI 推理性能提升高達 30 倍
HPC 應用的性能提升高達 7 倍
百億億次級高性能計算:NVIDIA 數據中心平台性能持續提升,超越摩爾定律。H100 的全新突破性 AI 性能進一步加強了 HPC+AI 的力量,加速科學家和研究人員的探索,讓他們全身心投入工作,解決世界面臨的重大挑戰。
H100 使雙精度 Tensor Core 的每秒浮點運算 (FLOPS) 提升 3 倍,為 HPC 提供 60 teraFLOPS 的 FP64 浮點運算。融合 AI 的高性能計算應用可以利用 H100 的 TF32 精度實現 1 petaFLOP 的吞吐量,從而在不更改代碼的情況下,實現單精度矩陣乘法運算。
H100 還採用 DPX 指令,其性能比 NVIDIA A100 Tensor Core GPU 高 7 倍,在動態編程算法(例如,用於 DNA 序列比對 Smith-Waterman)上比僅使用傳統雙路 CPU 的服務器快 40 倍。
加速數據分析:在 AI 應用開發過程中,數據分析通常會消耗大部分時間。原因在於,大型數據集分散在多台服務器上,由僅配備商用 CPU 服務器組成橫向擴展式的解決方案缺乏可擴展的計算性能,從而陷入困境。
搭載 H100 的加速服務器可以提供相應的計算能力,並利用 NVLink 和 NVSwitch 每個 GPU 3 TB/s 的顯存帶寬和可擴展性,憑借高性能應對數據分析以及通過擴展支持龐大的數據集。通過結合使用 NVIDIA Quantum-2 InfiniBand、Magnum IO 軟件、GPU 加速的 Spark 3.0 和 NVIDIA RAPIDS™,NVIDIA 數據中心平台能夠以出色的性能和效率加速這些大型工作負載。
為企業提高資源利用率:IT 經理設法更大限度地提高數據中心計算資源的利用率(峰值和平均值)。他們通常會通過動態重新配置來合理調整計算資源,從而滿足正在處理的工作負載的需求。
H100 中的第二代多實例 GPU (MIG) 技術通過安全地將每個 GPU 分為 7 個獨立實例,更大限度地提高每個 GPU 的利用率。憑借機密計算支持,H100 可實現端到端多租戶的安全使用,非常適合云服務提供商 (CSP) 環境。
使用支持 MIG 技術的 H100,基礎架構管理員可對其 GPU 加速的基礎架構作標準化處理,同時能夠靈活地為 GPU 資源配置更精細的粒度,從而安全地為開發者提供正確的加速計算量,並確保其所有 GPU 資源得到充分利用。
內置機密計算:當今的機密計算解決方案基於 CPU,對於 AI 和 HPC 等計算密集型工作負載來說,這些解決方案遠遠無法滿足需求。NVIDIA 機密計算是 NVIDIA Hopper™ 架構的內置安全功能,該功能使 H100 成為 NVIDIA 率先推出的具有機密計算功能的加速器。用戶可以在獲取 H100 GPU 出色加速功能的同時,保護使用中的數據和應用的機密性和完整性。它創建了基於硬件的可信執行環境 (TEE),用於保護並隔離在單個 H100 GPU、節點內多個 H100 GPU 或單個 MIG 實例上運行的整個工作負載。在 TEE 內,GPU 加速應用的運行可以保持不變,且不必對其進行分區。用戶可以將適用於 AI 和 HPC 的 NVIDIA 軟件的強大功能與 NVIDIA 機密計算提供的硬件信任根的安全性相結合。
為大規模 AI 和高性能計算提供出色的性能:Hopper Tensor Core GPU 將為 NVIDIA Grace Hopper CPU+GPU 架構提供支持,該架構專為 TB 級加速計算而構建,可為大型 AI 和 HPC 提供 10 倍的性能。NVIDIA Grace CPU 利用 Arm® 架構的靈活性來創建 CPU 和服務器架構,該架構是專門針對加速計算而從頭開始設計的。Hopper GPU 與 Grace CPU 搭配,使用 NVIDIA 超快速的芯片間互連技術,可提供 900GB/s 的帶寬,比 PCIe 5.0 快 7 倍。與當今運行最快的服務器相比,這種創新設計將 GPU 的聚合系統顯存帶寬提高 30 倍,並且會將運行數萬億字節數據的應用性能提高 10 倍。