
모든 규모에서의 유례 없는 가속화
NVIDIA RTX A100
주요 스펙
AI 성능
53.8 TFLOPS
메모리
40 / 80 GB GDDR6
FP32
6.7 TFLOPS
최대 소비전력
50 W
모든 규모에서의 유례 없는 가속화.
NVIDIA Ampere GPU로 대규모 렌더링, AI 그래픽 연구, 시뮬레이션 워크플로우를 더 빠르고 정밀하게 구현해보세요.
세계 최고 성능의 데이터센터 GPU
NVIDIA A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 기존 V100 대비 최대 20배 높은 성능을 제공합니다.
딥 러닝 훈련 가속
A100은 대규모 AI 모델 학습을 가속화하며, 가장 큰 규모의 모델에서도 최대 3배의 AI 훈련 성능을 제공합니다.
딥 러닝 추론 성능 향상
A100은 추론 워크로드에서도 높은 처리량을 제공하며, CPU 대비 최대 249배 높은 AI 추론 성능을 제공합니다.
고성능 컴퓨팅 지원
A100은 HPC 애플리케이션에서 강력한 성능을 제공하며, 이전 세대 대비 최대 4년 만에 큰 폭의 HPC 성능 향상을 보여줍니다.
NVIDIA Ampere 아키텍처
3세대 Tensor Core
A100은 Tensor Float 32, FP16, BFLOAT16, INT8 등 다양한 정밀도를 지원하는 3세대 Tensor Core를 탑재했습니다.
멀티 인스턴스 GPU, MIG
하나의 A100 GPU를 최대 7개의 독립 GPU 인스턴스로 분할해, 여러 워크로드를 동시에 안정적으로 실행할 수 있습니다.
NVLink 및 NVSwitch 지원
A100은 NVIDIA NVLink와 NVSwitch를 통해 GPU 간 고속 연결을 지원하며, 대규모 서버 확장에 적합합니다.
PCIe Gen 4 지원
PCIe용 A100은 PCI Express Gen 4를 지원해 CPU와 GPU 간 데이터 전송 속도를 높입니다.
비즈니스 환경에 맞는 산업별 솔루션
대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.
AI 트레이닝
→

Bank-grade encryption and compliance. Your data is protected with military-level security protocols.
→

Intelligent automation that learns from your workflow. Let AI handle the repetitive tasks.
→

인프라 호환성 진단
NVIDIA RTX A100기반최적의 인프라 구성을 간편하게 확인해 보세요.

워크스테이션, 서버 호환성 체크
Dell, HP, Lenovo 등 주요 브랜드 장착 호환 여부 확인 물리적 설치 가능 여부와 운영 안정성 사전 검토 ISV 인증 지원 여부까지 함께 체크

멀티 GPU 시뮬레이션
다중 GPU 구성 시 성능 확장성 예측 워크로드별 연산 효율과 처리 성능 검토 확장 환경에 맞는 최적의 시스템 방향 제안

구매 옵션 최적화
단품 구매부터 완제 시스템까지 폭넓게 비교 비즈니스 규모에 맞는 도입 방식 제안 예산과 운영 목적에 맞춘 최적 옵션 설계
NVIDIA Ampere 시리즈
어떤 GPU 서버가 필요한지 고민되시나요?

커스텀 GPU 서버 구성
연구 분야, 데이터셋 크기, 예산을 입력하면 최적의 GPU 서버 구성을 추천해드립니다.실시간 가격과 상세 견적서를 지금 바로 확인하세요.
빠른 견적 확인하기
→

추천 블로그
상세 기술 사양
NVIDIA RTX A100의 전체 기술 사양입니다.
제품 구성 이미지

HGX용 NVIDIA A100

PCIe용 NVIDIA A100
제품 상세 스펙
A100 40GB PCIe
A100 80GB PCIe
A100 40GB SXM
A100 80GB SXM
FP64
9.7 TFLOPS
FP64 Tensor Core
19.5 TFLOPS
FP32
19.5 TFLOPS
Tensor Float 32 (TF32)
156 TFLOPS | 312 TFLOPS*
BFLOAT16 Tensor Core
312 TFLOPS | 624 TFLOPS*
FP16 Tensor Core
312 TFLOPS | 624 TFLOPS*
INT8 Tensor Core
624 TOPS | 1248 TOPS*
GPU Memory
40GB HBM2
80GB HBM2e
40GB HBM2
80GB HBM2e
GPU Memory Bandwidth
1,555GB/s
1,935GB/s
1,555GB/s
2,039GB/s
Max Thermal Design Power (TDP)
250W
300W
400W
400W
Multi-Instance GPU
Up to 7 MIGs @ 5GB
Up to 7 MIGs @ 10GB
Up to 7 MIGs @ 5GB
Up to 7 MIGs @ 10GB
Form Factor
PCIe
SXM
Interconnect
NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s
NVLink: 600GB/s PCIe Gen4: 64GB/s
Server Options
Partner and NVIDIACertified Systems™ with 1-8 GPUs
NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10
제품 정보
상품명
NVIDIA RTX A100
KC 인증번호
R-R-NVA-PG172A
정격전압 / 최대소비전력
50 W
품질 보증
3년 무상보증
출시년월
24
제조사
NVIDIA Corporation
제조국
중국, 대만, 미국, 베트남
크기
68.5 x 162.5 (mm), Single slot
XDNODE를 통해 한정된 예산을 얼마나 잘 활용할 수 있을지 확인해 보세요.
상세 스펙과 맞춤형 견적서를
빠르게 받아보세요.
서비스 이용약관
(주)엑스디노드
주소: 서울시 성동구 성수일로 89 메타모르포 501, 505호
전화번호: 02-6671-9000
통신판매 신고번호: 2024-서울송파-3420
사업자등록번호 : 393-86-02729






