H100 NVL

GPT-3급 초대규모 모델 학습, 데이터센터 AI 가속의 표준

주요스펙

AI 성능

3,341 TFLOPS

FP64

30 TFLOPS

메모리

94 GB

메모리 대역폭

3.9 TB/s

AI 성능

3,341 TFLOPS

FP64

30 TFLOPS

메모리

94 GB

메모리 대역폭

3.9 TB/s

H100 NVL

GPT-3급 초대규모 모델 학습, 데이터센터 AI 가속의 표준

주요스펙

AI 성능

3,341 TFLOPS

메모리

94 GB

FP64

30 TFLOPS

메모리 대역폭

3.9 TB/s

GPT-3급 초대규모 모델 학습, 데이터센터 AI 가속의 표준.

GPT-3급 초대규모 모델 학습,
데이터센터 AI 가속의 표준.

초대규모 AI 학습 및 추론 가속

H100은 대규모 언어 모델과 생성형 AI 워크로드를 빠르게 처리해, 학습 시간을 줄이고 추론 성능을 높입니다.

더 크고 빠른 메모리로 더 높은 성능

NVIDIA H200은 141GB HBM3e 메모리와 4.8TB/s 대역폭을 제공하는 최초의 GPU로, 생성형 AI·LLM·HPC 작업을 더 효율적으로 가속합니다.

고성능 LLM 추론으로 통찰력 잠금 해제

H200은 대규모 추론 환경에서 높은 처리량과 낮은 TCO를 제공하며, Llama 2 같은 LLM 처리 시 H100 대비 최대 2배 빠른 성능을 지원합니다.

고성능 컴퓨팅을 슈퍼차지하세요

H200의 높은 메모리 대역폭은 HPC 작업의 데이터 병목을 줄여, 시뮬레이션·과학 연구·AI 분야에서 CPU 대비 최대 110배 빠른 성능을 제공합니다.

에너지 및 TCO 절감

H200은 H100과 같은 전력 범위에서 더 높은 성능을 제공해, 에너지 효율과 TCO를 더욱 개선합니다.

데이터 분석 및 처리 성능 향상

대용량 데이터 분석과 전처리 작업을 가속해, 더 빠른 인사이트 도출과 효율적인 워크플로우를 지원합니다.

엔터프라이즈급 안정성과 확장성

기업 환경에 최적화된 소프트웨어 및 인프라 지원으로, 보안성과 운영 효율을 동시에 강화합니다.

대규모 AI·HPC 워크로드 최적화

과학 계산, 시뮬레이션, 고성능 컴퓨팅까지 폭넓게 지원해 복잡한 연산 환경에서도 뛰어난 성능을 제공합니다.

NVIDIA Blackwell 아키텍처

NVIDIA Ada Lovelace 아키텍처

향후 10년의 AI 증강 그래픽 혁신을 주도할 차세대 전문가용 GPU 아키텍처

Ada Lovelace 아키텍처로 완성한 최대 10배 성능의 새로운 기준

HPC·AI 가속 4세대 Tensor 코어

단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여

복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.

NVIDIA 컨피덴셜 컴퓨팅

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.

3세대 NVIDIA NVSwitch ™

단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

4세대 NVIDIA® NVLink®

컴퓨팅 집약적 워크로드에 대해 더 높은 대역폭과 감소된 지연 시간을 제공합니다. 고속 공동 작업을 가능하게 하기 위해 각 NVSwitch에는 네트워크 내 감소 및 멀티 캐스트 가속을 위한 NVIDIA SHARP ™ 용 엔진이 장착된 64개의 NVLink 포트가 있습니다.

2세대 MIG(Multi-Instance GPU)

Hopper 아키텍처는 최대 7개의 GPU 인스턴스에 걸쳐 가상화된 환경에서 다중 테넌트, 다중 사용자 구성을 지원하여 MIG를 더욱 강화하고 하드웨어 및 하이퍼바이저 수준에서 기밀 컴퓨팅으로 각 인스턴스를 안전하게 격리합니다. 각 MIG 인스턴스에 대한 전용 비디오 디코더는 공유 인프라에서 안전한 고처리량 IVA를 제공합니다. 또한 동시 MIG 프로파일링을 통해 관리자는 적절한 크기의 GPU 가속을 모니터링하고 사용자를 위한 최적화된 리소스 할당이 가능합니다.

DPX Instructions

동적 프로그래밍은 복잡한 재귀 문제를 더 간단한 하위 문제로 분해하여 해결하는 알고리즘 기술로 나중에 다시 계산할 필요가 없도록 하위 문제의 결과를 저장함으로써 기하급수적인 문제 해결의 시간과 복잡성을 줄입니다. Hopper의 DPX 명령은 동적 프로그래밍 알고리즘을 기존의 듀얼 소켓 CPU 전용 서버 대비 40배, NVIDIA Ampere 아키텍처 GPU 대비 7배 가속화합니다. 이를 통해 질병 진단 및 라우팅 최적화 시간뿐 아니라 그래프 분석 시간까지 획기적으로 단축할 수 있습니다.

HPC·AI 가속 4세대 Tensor 코어

단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여

복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.

NVIDIA 컨피덴셜 컴퓨팅

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.

4세대 NVIDIA® NVLink®

컴퓨팅 집약적 워크로드에 대해 더 높은 대역폭과 감소된 지연 시간을 제공합니다. 고속 공동 작업을 가능하게 하기 위해 각 NVSwitch에는 네트워크 내 감소 및 멀티 캐스트 가속을 위한 NVIDIA SHARP ™ 용 엔진이 장착된 64개의 NVLink 포트가 있습니다.

3세대 NVIDIA NVSwitch ™

단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

2세대 MIG(Multi-Instance GPU)

Hopper 아키텍처는 최대 7개의 GPU 인스턴스에 걸쳐 가상화된 환경에서 다중 테넌트, 다중 사용자 구성을 지원하여 MIG를 더욱 강화하고 하드웨어 및 하이퍼바이저 수준에서 기밀 컴퓨팅으로 각 인스턴스를 안전하게 격리합니다. 각 MIG 인스턴스에 대한 전용 비디오 디코더는 공유 인프라에서 안전한 고처리량 IVA를 제공합니다. 또한 동시 MIG 프로파일링을 통해 관리자는 적절한 크기의 GPU 가속을 모니터링하고 사용자를 위한 최적화된 리소스 할당이 가능합니다.

DPX Instructions

동적 프로그래밍은 복잡한 재귀 문제를 더 간단한 하위 문제로 분해하여 해결하는 알고리즘 기술로 나중에 다시 계산할 필요가 없도록 하위 문제의 결과를 저장함으로써 기하급수적인 문제 해결의 시간과 복잡성을 줄입니다. Hopper의 DPX 명령은 동적 프로그래밍 알고리즘을 기존의 듀얼 소켓 CPU 전용 서버 대비 40배, NVIDIA Ampere 아키텍처 GPU 대비 7배 가속화합니다. 이를 통해 질병 진단 및 라우팅 최적화 시간뿐 아니라 그래프 분석 시간까지 획기적으로 단축할 수 있습니다.

NVIDIA HOPPER 아키텍처

최첨단 TSMC 4N 프로세스를 통해 800억 개 이상의 트랜지스터로 구축

HPC·AI 가속 4세대 Tensor 코어

NVIDIA Hopper 아키텍처는 새로운 8비트 부동 소수점 정밀도(FP8)를 사용하는 Transformer Engine으로 4세대 Tensor 코어를 발전시켜 1조 매개변수 모델 교육을 위해 FP16보다 6배 더 높은 성능을 제공합니다. TF32, FP64, FP16 및 INT8 정밀도를 사용하여 3배 향상된 성능과 결합된 Hopper Tensor Core는 모든 워크로드에 최고의 속도 향상을 제공합니다.

NVIDIA 컨피덴셜 컴퓨팅

강력한 하드웨어 기반 보안을 통해 사용자는 온프레미스, 클라우드, 엣지에서 애플리케이션을 실행할 수 있으며, 사용 중인 애플리케이션 코드와 데이터를 허가되지 않은 엔티티가 보거나 수정할 수 없다고 확신할 수 있습니다. 이를 통해 데이터와 애플리케이션의 기밀성과 무결성을 보호하는 동시에 AI 훈련, AI 추론, HPC 워크로드를 위한 H200 GPU의 전례 없는 가속에 액세스할 수 있습니다.

4세대 NVIDIA® NVLink®

컴퓨팅 집약적 워크로드에 대해 더 높은 대역폭과 감소된 지연 시간을 제공합니다. 고속 공동 작업을 가능하게 하기 위해 각 NVSwitch에는 네트워크 내 감소 및 멀티 캐스트 가속을 위한 NVIDIA SHARP ™ 용 엔진이 장착된 64개의 NVLink 포트가 있습니다.

3세대 NVIDIA NVSwitch ™

단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

2세대 MIG(Multi-Instance GPU)

Hopper 아키텍처는 최대 7개의 GPU 인스턴스에 걸쳐 가상화된 환경에서 다중 테넌트, 다중 사용자 구성을 지원하여 MIG를 더욱 강화하고 하드웨어 및 하이퍼바이저 수준에서 기밀 컴퓨팅으로 각 인스턴스를 안전하게 격리합니다. 각 MIG 인스턴스에 대한 전용 비디오 디코더는 공유 인프라에서 안전한 고처리량 IVA를 제공합니다. 또한 동시 MIG 프로파일링을 통해 관리자는 적절한 크기의 GPU 가속을 모니터링하고 사용자를 위한 최적화된 리소스 할당이 가능합니다.

DPX Instructions

동적 프로그래밍은 복잡한 재귀 문제를 더 간단한 하위 문제로 분해하여 해결하는 알고리즘 기술로 나중에 다시 계산할 필요가 없도록 하위 문제의 결과를 저장함으로써 기하급수적인 문제 해결의 시간과 복잡성을 줄입니다. Hopper의 DPX 명령은 동적 프로그래밍 알고리즘을 기존의 듀얼 소켓 CPU 전용 서버 대비 40배, NVIDIA Ampere 아키텍처 GPU 대비 7배 가속화합니다. 이를 통해 질병 진단 및 라우팅 최적화 시간뿐 아니라 그래프 분석 시간까지 획기적으로 단축할 수 있습니다.

NVIDIA Ada Lovelace 아키텍처

향후 10년의 AI 증강 그래픽 혁신을 주도할 차세대 전문가용 GPU 아키텍처

HPC·AI 가속 4세대 Tensor 코어

단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여

복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.

NVIDIA 컨피덴셜 컴퓨팅

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.

3세대 NVIDIA NVSwitch ™

단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

4세대 NVIDIA® NVLink®

컴퓨팅 집약적 워크로드에 대해 더 높은 대역폭과 감소된 지연 시간을 제공합니다. 고속 공동 작업을 가능하게 하기 위해 각 NVSwitch에는 네트워크 내 감소 및 멀티 캐스트 가속을 위한 NVIDIA SHARP ™ 용 엔진이 장착된 64개의 NVLink 포트가 있습니다.

2세대 MIG(Multi-Instance GPU)

Hopper 아키텍처는 최대 7개의 GPU 인스턴스에 걸쳐 가상화된 환경에서 다중 테넌트, 다중 사용자 구성을 지원하여 MIG를 더욱 강화하고 하드웨어 및 하이퍼바이저 수준에서 기밀 컴퓨팅으로 각 인스턴스를 안전하게 격리합니다. 각 MIG 인스턴스에 대한 전용 비디오 디코더는 공유 인프라에서 안전한 고처리량 IVA를 제공합니다. 또한 동시 MIG 프로파일링을 통해 관리자는 적절한 크기의 GPU 가속을 모니터링하고 사용자를 위한 최적화된 리소스 할당이 가능합니다.

DPX Instructions

동적 프로그래밍은 복잡한 재귀 문제를 더 간단한 하위 문제로 분해하여 해결하는 알고리즘 기술로 나중에 다시 계산할 필요가 없도록 하위 문제의 결과를 저장함으로써 기하급수적인 문제 해결의 시간과 복잡성을 줄입니다. Hopper의 DPX 명령은 동적 프로그래밍 알고리즘을 기존의 듀얼 소켓 CPU 전용 서버 대비 40배, NVIDIA Ampere 아키텍처 GPU 대비 7배 가속화합니다. 이를 통해 질병 진단 및 라우팅 최적화 시간뿐 아니라 그래프 분석 시간까지 획기적으로 단축할 수 있습니다.

NVIDIA HOPPER 아키텍처

최첨단 TSMC 4N 프로세스를 통해 800억 개 이상의 트랜지스터로 구축

HPC·AI 가속 4세대 Tensor 코어

단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여

복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.

NVIDIA 컨피덴셜 컴퓨팅

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.

3세대 NVIDIA NVSwitch ™

단일 서버에서 더 많은 GPU를 지원하며 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭으로 딥 러닝 성능을 다음 단계로 끌어올립니다. 각 GPU의 NVLink 12개가 NVSwitch로 완전히 연결되어 올투올(All-to-all) 고속 통신을 지원합니다.

4세대 NVIDIA® NVLink®

컴퓨팅 집약적 워크로드에 대해 더 높은 대역폭과 감소된 지연 시간을 제공합니다. 고속 공동 작업을 가능하게 하기 위해 각 NVSwitch에는 네트워크 내 감소 및 멀티 캐스트 가속을 위한 NVIDIA SHARP ™ 용 엔진이 장착된 64개의 NVLink 포트가 있습니다.

2세대 MIG(Multi-Instance GPU)

Hopper 아키텍처는 최대 7개의 GPU 인스턴스에 걸쳐 가상화된 환경에서 다중 테넌트, 다중 사용자 구성을 지원하여 MIG를 더욱 강화하고 하드웨어 및 하이퍼바이저 수준에서 기밀 컴퓨팅으로 각 인스턴스를 안전하게 격리합니다. 각 MIG 인스턴스에 대한 전용 비디오 디코더는 공유 인프라에서 안전한 고처리량 IVA를 제공합니다. 또한 동시 MIG 프로파일링을 통해 관리자는 적절한 크기의 GPU 가속을 모니터링하고 사용자를 위한 최적화된 리소스 할당이 가능합니다.

DPX Instructions

동적 프로그래밍은 복잡한 재귀 문제를 더 간단한 하위 문제로 분해하여 해결하는 알고리즘 기술로 나중에 다시 계산할 필요가 없도록 하위 문제의 결과를 저장함으로써 기하급수적인 문제 해결의 시간과 복잡성을 줄입니다. Hopper의 DPX 명령은 동적 프로그래밍 알고리즘을 기존의 듀얼 소켓 CPU 전용 서버 대비 40배, NVIDIA Ampere 아키텍처 GPU 대비 7배 가속화합니다. 이를 통해 질병 진단 및 라우팅 최적화 시간뿐 아니라 그래프 분석 시간까지 획기적으로 단축할 수 있습니다.

가속화된 컴퓨팅을 위한 비약적인 도약

가속화된 컴퓨팅을 위한
비약적인 도약

NVIDIA H100은 Hopper 아키텍처와 초고속 메모리 성능으로 대규모 AI와 HPC 워크로드를 강력하게 가속합니다.

NVIDIA H100은 Hopper 아키텍처와 초고속 메모리 성능으로
대규모 AI와 HPC 워크로드를 강력하게 가속합니다.

NVIDIA H100은 Hopper 아키텍처와 초고속 메모리 성능으로
대규모 AI와 HPC 워크로드를 강력하게 가속합니다.

AI 트레이닝

GPU로 AI 트레이닝 시간을 줄이고 비용

효율을 높이세요.

AI 추론

빠른 AI 추론으로 이미지, 음성, 영상 기반

서비스 응답을 강화하세요.

고성능 컴퓨팅(HPC)

700개 이상의 GPU 가속 애플리케이션으로

과학·연구 워크플로우를 확장하세요.

데이터 분석

GPU 기반 데이터 사이언스로 분석부터

학습·배포까지 더 빠르게 처리하세요.

AI 트레이닝

GPU로 AI 트레이닝 시간을 줄이고 비용

효율을 높이세요.

AI 추론

빠른 AI 추론으로 이미지, 음성, 영상 기반

서비스 응답을 강화하세요.

고성능 컴퓨팅(HPC)

700개 이상의 GPU 가속 애플리케이션으로

과학·연구 워크플로우를 확장하세요.

데이터 분석

GPU 기반 데이터 사이언스로 분석부터

학습·배포까지 더 빠르게 처리하세요.

AI 트레이닝

GPU로 AI 트레이닝 시간을 줄이고 비용

효율을 높이세요.

AI 추론

빠른 AI 추론으로 이미지, 음성, 영상 기반

서비스 응답을 강화하세요.

고성능 컴퓨팅(HPC)

700개 이상의 GPU 가속 애플리케이션으로

과학·연구 워크플로우를 확장하세요.

데이터 분석

GPU 기반 데이터 사이언스로 분석부터

학습·배포까지 더 빠르게 처리하세요.

인프라 호환성 진단

인프라 호환성 진단

H100 NVL 94GB 기반최적의

인프라 구성을 간편하게 확인해 보세요.

H100 NVL 94GB 기반최적의

인프라 구성을 간편하게 확인해 보세요.

H100 NVL 94GB 기반최적의

인프라 구성을 간편하게 확인해 보세요.

1.0

워크스테이션, 서버 호환성 체크

워크스테이션, 서버 호환성 체크

Dell, HP, Lenovo 등 주요 브랜드 워크스테이션과의 물리적 장착 및 ISV 인증 여부 확인

Dell, HP, Lenovo 등 주요 브랜드 워크스테이션과의 물리적 장착 및 ISV 인증 여부 확인

2.0

멀티 GPU 시뮬레이션

단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로

워크로드별 최적의 확장 환경 예측

3.0

구매 옵션 최적화

전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지,

비즈니스 규모에 맞춘 최적의 도입 경로 제안

2.0

멀티 GPU 시뮬레이션

단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로

워크로드별 최적의 확장 환경 예측

3.0

구매 옵션 최적화

전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지,

비즈니스 규모에 맞춘 최적의 도입 경로 제안

상세 기술 사양

H100 NVL 94GB의 전체 기술 사양입니다.

H100 NVL 94GB의 전체 기술 사양입니다.

제품 구성이미지

제품 구성이미지

제품 구성이미지

H100 NVL 94GB

H100 NVL 94GB

H100 NVL 94GB

제품 상세 스펙

제품 상세 스펙

제품 상세 스펙

폼 팩

폼 팩

H100 SXM

H100 SXM

H100 SXM

H100 NVL

H100 NVL

H100 NVL

FP64

FP64

34 TFLOPS

34 TFLOPS

34 TFLOPS

30 TFLOPS

30 TFLOPS

30 TFLOPS

FP64 Tensor 코어

FP64 Tensor 코어

67 TFLOPS

67 TFLOPS

67 TFLOPS

60 TFLOPS

60 TFLOPS

60 TFLOPS

FP32

FP32

67 TFLOPS

67 TFLOPS

67 TFLOPS

60 TFLOPS

60 TFLOPS

60 TFLOPS

TF32 Tensor 코어²

TF32 Tensor 코어²

989 TFLOPS

989 TFLOPS

989 TFLOPS

835 TFLOPS

835 TFLOPS

835 TFLOPS

BFLOAT16 Tensor 코어²

BFLOAT16

Tensor 코어²

BFLOAT16

Tensor 코어²

1,979 TFLOPS

1,979 TFLOPS

1,979 TFLOPS

1,671 TFLOPS

1,671 TFLOPS

1,671 TFLOPS

FP16 Tensor 코어²

FP16 Tensor 코어²

1,979 TFLOPS

1,979 TFLOPS

1,979 TFLOPS

1,671 TFLOPS

1,671 TFLOPS

1,671 TFLOPS

FP8 Tensor 코어²

FP8 Tensor 코어²

3,958 TFLOPS

3,958 TFLOPS

3,958 TFLOPS

3,341 TFLOPS

3,341 TFLOPS

3,341 TFLOPS

INT8 Tensor 코어²

INT8 Tensor 코어²

3,958 TFLOPS

3,958 TFLOPS

3,958 TFLOPS

3,341 TFLOPS

3,341 TFLOPS

3,341 TFLOPS

GPU 메모리

GPU 메모리

80GB

80GB

80GB

94GB

94GB

94GB

GPU 메모리 대역폭

GPU 메모리 대역폭

3.35TB/s

3.35TB/s

3.35TB/s

3.9TB/s

3.9TB/s

3.9TB/s

디코더

디코더

7 NVDEC

7 JPEG

7 NVDEC

7 JPEG

7 NVDEC

7 JPEG

7 NVDEC
7 JPEG

7 NVDEC
7 JPEG

7 NVDEC
7 JPEG

최대 열 설계 전력(TDP)

최대 열 설계 전력(TDP)

최대 700W(구성 가능)

최대 700W(구성 가능)

최대 700W(구성 가능)

350-400W(구성 가능)

350-400W(구성 가능)

350-400W(구성 가능)

멀티 인스턴스 GPU(MIG)

멀티 인스턴스 GPU(MIG)

최대 7개의 MIG, 각각 10GB

최대 7개의 MIG,

각각 18GB

최대 7개의 MIG,

각각 18GB

최대 7개의 MIG, 각각 12GB

최대 7개의 MIG,

각각 12GB

최대 7개의 MIG,

각각 12GB

폼 팩터

폼 팩터

SXM

SXM

SXM

PCIe 듀얼 슬롯(공랭식)

PCIe

듀얼 슬롯(공랭식)

PCIe 듀얼 슬롯(공랭식)

인터커넥트

인터커넥트

NVIDIA NVLink™: 900GB/s
PCIe Gen5: 128GB/s

NVIDIA

NVLink™: 900GB/s
PCIe Gen5: 128GB/s

NVIDIA NVLink™: 900GB/s
PCIe Gen5: 128GB/s

NVIDIA NVLink: 600GB/s
PCIe Gen5: 128GB/s

NVIDIA

NVLink: 600GB/s
PCIe Gen5: 128GB/s

NVIDIA NVLink: 600GB/s
PCIe Gen5: 128GB/s

서버 옵션

서버 옵션

GPU가 4개 또는 8개인 NVIDIA HGX H100

파트너 및 NVIDIA-Certified Systems™ GPU가 8개인 NVIDIA DGX H100

GPU가 4개 또는 8개인

NVIDIA HGX™ H200 파트너 및 NVIDIA-Certified System™

GPU가 1~8개인 파트너 인증 시스템

및 NVIDIA-Certified System™

GPU가 1~8개인 파트너 인증 시스템

및 NVIDIA-Certified System™

GPU가 1~8개인 파트너 인증 시스템 및 NVIDIA-Certified System™

NVIDIA AI Enterprise

NVIDIA AI Enterprise

Add-on

Add-on

Add-on

포함 항목

포함 항목

포함 항목

제품 정보

제품 정보

제품 정보

상품명

상품명

NVIDIA H100 NVL 94GB 엔비디아코리아 정품

NVIDIA H100 NVL 94GB

엔비디아코리아 정품

KC 인증번호

KC 인증번호

-

-

정격전압 / 최대소비전력

정격전압 / 최대소비전력

-

-

품질 보증

품질 보증

3년 무상보증

3년 무상보증

출시년월

출시년월

24/04

24/04

제조사

제조사

NVIDIA Corporation

NVIDIA Corporation

제조국

제조국

중국

중국

크기

크기

-

-