
GPT-3급 초대규모 모델 학습, 데이터센터 AI 가속의 표준
NVIDIA H100 NVL
주요 스펙
LLama2 70B 추론
1.9배 더 빠른 속도
고성능 컴퓨팅
110배 더 빠른 속도
GPT3-175B 추론
1.6배 더 빠른 속도
GPU 메모
141 GB
GPT-3급 초대규모 모델 학습, 데이터센터 AI 가속의 표준.
가속화된 컴퓨팅 환경을 위한 한 단계 더 진화한 GPU 성능을 경험해보세요.
초대규모 AI 학습 및 추론 가속
H100은 대규모 언어 모델과 생성형 AI 워크로드를 빠르게 처리해, 학습 시간을 줄이고 추론 성능을 높입니다.
데이터 분석 및 처리 성능 향상
대용량 데이터 분석과 전처리 작업을 가속해, 더 빠른 인사이트 도출과 효율적인 워크플로우를 지원합니다.
엔터프라이즈급 안정성과 확장성
기업 환경에 최적화된 소프트웨어 및 인프라 지원으로, 보안성과 운영 효율을 동시에 강화합니다.
대규모 AI·HPC 워크로드 최적화
과학 계산, 시뮬레이션, 고성능 컴퓨팅까지 폭넓게 지원해 복잡한 연산 환경에서도 뛰어난 성능을 제공합니다.
NVIDIA Hopper 아키텍처
HPC·AI 가속 4세대 Tensor 코어
Hopper Tensor Core는 FP8 기반 Transformer Engine으로 초대형 AI 모델 학습과 다양한 정밀도 연산을 더 빠르게 가속합니다.
NVIDIA 컨피덴셜 컴퓨팅
Hopper의 하드웨어 기반 보안은 온프레미스·클라우드·엣지 환경에서 AI와 HPC 워크로드의 데이터와 코드를 안전하게 보호합니다.
4세대 NVIDIA® NVLink®
NVSwitch는 고대역폭·저지연 GPU 통신을 지원해 대규모 연산 환경에서 여러 GPU 간 협업 성능을 높입니다.
3세대 NVIDIA NVSwitch ™
NVLink는 서버 내 다중 GPU를 고속으로 연결해 딥러닝 학습과 대규모 병렬 연산의 처리 효율을 향상시킵니다.
2세대 MIG(Multi-Instance GPU)
MIG는 하나의 GPU를 여러 인스턴스로 분할해 다중 사용자 환경에서도 안전하고 효율적인 GPU 리소스 운영을 지원합니다.
DPX Instructions
DPX 명령은 복잡한 동적 프로그래밍 연산을 가속해 질병 분석, 경로 최적화, 그래프 처리 시간을 단축합니다.
비즈니스 환경에 맞는 산업별 솔루션
GPU로 AI 트레이닝 시간을 줄이고 비용 효율을 높이세요.
AI 트레이닝
→

Bank-grade encryption and compliance. Your data is protected with military-level security protocols.
→

Intelligent automation that learns from your workflow. Let AI handle the repetitive tasks.
→

인프라 호환성 진단
NVIDIA H200 NVL 기반최적의 인프라 구성을 간편하게 확인해 보세요.

워크스테이션, 서버 호환성 체크
Dell, HP, Lenovo 등 주요 브랜드 장착 호환 여부 확인 물리적 설치 가능 여부와 운영 안정성 사전 검토 ISV 인증 지원 여부까지 함께 체크

멀티 GPU 시뮬레이션
다중 GPU 구성 시 성능 확장성 예측 워크로드별 연산 효율과 처리 성능 검토 확장 환경에 맞는 최적의 시스템 방향 제안

구매 옵션 최적화
단품 구매부터 완제 시스템까지 폭넓게 비교 비즈니스 규모에 맞는 도입 방식 제안 예산과 운영 목적에 맞춘 최적 옵션 설계
NVIDIA Hopper 시리즈
어떤 GPU 서버가 필요한지 고민되시나요?

커스텀 GPU 서버 구성
연구 분야, 데이터셋 크기, 예산을 입력하면 최적의 GPU 서버 구성을 추천해드립니다.실시간 가격과 상세 견적서를 지금 바로 확인하세요.
빠른 견적 확인하기
→

추천 블로그
상세 기술 사양
NVIDIA H100 NVL의 전체 기술 사양입니다.
제품 구성 이미지

NVIDIA H100 NVL
제품 상세 스펙
폼 팩
H100 SXM
H100 NVL
FP64
34 TFLOPS
30 TFLOPS
FP64 Tensor 코어
67 TFLOPS
60 TFLOPS
FP32
67 TFLOPS
60 TFLOPS
TF32 Tensor 코어²
989 TFLOPS
835 TFLOPS
BFLOAT16 Tensor 코어²
1,979 TFLOPS
1,671 TFLOPS
FP16 Tensor 코어²
1,979 TFLOPS
1,671 TFLOPS
FP8 Tensor 코어²
3,958 TFLOPS
3,341 TFLOPS
INT8 Tensor 코어²
3,958 TFLOPS
3,341 TFLOPS
GPU 메모리
80GB
94GB
GPU 메모리 대역폭
3.35TB/s
3.9TB/s
디코더
7 NVDEC 7 JPEG
컨피덴셜 컴퓨팅
지원
최대 열 설계 전력(TDP)
최대 700W(구성 가능)
350-400W(구성 가능)
멀티 인스턴스 GPU(MIG)
최대 7개의 MIG, 각각 10GB
최대 7개의 MIG, 각각 12GB
폼 팩터
SXM
PCIe 듀얼 슬롯(공랭식)
인터커넥트
NVIDIA NVLink™: 900GB/s PCIe Gen5: 128GB/s
NVIDIA NVLink: 600GB/s PCIe Gen5: 128GB/s
서버 옵션
GPU가 4개 또는 8개인 NVIDIA HGX H100 파트너 및 NVIDIA-Certified Systems™ GPU가 8개인 NVIDIA DGX H100
GPU가 1~8개인 파트너 인증 시스템 및 NVIDIA-Certified System™
NVIDIA AI Enterprise
Add-on
포함 항목
제품 정보
상품명
NVIDIA H100 NVL
KC 인증번호
-
정격전압 / 최대소비전력
-
품질 보증
3년 무상보증
출시년월
24/04
제조사
NVIDIA Corporation
제조국
중국
크기
-
XDNODE를 통해 한정된 예산을 얼마나 잘 활용할 수 있을지 확인해 보세요.
상세 스펙과 맞춤형 견적서를
빠르게 받아보세요.
서비스 이용약관
(주)엑스디노드
주소: 서울시 성동구 성수일로 89 메타모르포 501, 505호
전화번호: 02-6671-9000
통신판매 신고번호: 2024-서울송파-3420
사업자등록번호 : 393-86-02729





