모든 규모에서의 유례 없는 가속화.

세계 최고 성능의 데이터센터 GPU
NVIDIA A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 기존 V100 대비 최대 20배 높은 성능을 제공합니다.
세계 최고 성능의 데이터센터 GPU
NVIDIA A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 기존 V100 대비 최대 20배 높은 성능을 제공합니다.

딥 러닝 훈련 가속
A100은 대규모 AI 모델 학습을 가속화하며, 가장 큰 규모의 모델에서도 최대 3배의 AI 훈련 성능을 제공합니다.

딥 러닝 추론 성능 향상
A100은 추론 워크로드에서도 높은 처리량을 제공하며, CPU 대비 최대 249배 높은 AI 추론 성능을 제공합니다.


고성능 컴퓨팅 지원
A100은 HPC 애플리케이션에서 강력한 성능을 제공하며, 이전 세대 대비 최대 4년 만에 큰 폭의 HPC 성능 향상을 보여줍니다.



딥 러닝 훈련 가속
A100은 대규모 AI 모델 학습을 가속화하며, 가장 큰 규모의 모델에서도 최대 3배의 AI 훈련 성능을 제공합니다.

딥 러닝 추론 성능 향상
A100은 추론 워크로드에서도 높은 처리량을 제공하며, CPU 대비 최대 249배 높은 AI 추론 성능을 제공합니다.

고성능 컴퓨팅 지원
A100은 HPC 애플리케이션에서 강력한 성능을 제공하며, 이전 세대 대비 최대 4년 만에 큰 폭의 HPC 성능 향상을 보여줍니다.

기본 설계된 탁월한 성능의
Ampere 아키텍쳐
Ada Lovelace CUDA 코어
단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여
복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.
3세대 RT 코어
이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.
16GB의 GPU 메모리
16GB GDDR6 메모리를 탑재한 NVIDIA RTX 2000 Ada Generation은 데이터 사이언티스트, 엔지니어 및 크리에이티브 전문가에게 렌더링, 데이터 사이언스 및 시뮬레이션과 같은 대규모 데이터 세트 및 워크로드로 작업하는 데 필요한 대용량 메모리를 제공합니다.
NVIDIA 가상 GPU 지원
NVIDIA RTX 가상 워크스테이션(vWS) 소프트웨어 지원을 통해 개인 워크스테이션의 용도를 여러 고성능 가상 워크스테이션 인스턴스 용도로 바꿀 수 있습니다. 그럼으로써 원격 사용자는 고급 디자인, AI 및 컴퓨팅 워크로드를 주도하는 리소스를 공유할 수 있게 됩니다.
AV1 인코더
8세대 전용 하드웨어 인코더(NVENC)의 AV1 인코딩은 H.264보다 40% 더 효율적입니다.
동일한 비트 전송률과 품질로 해상도를 1080p에서 1440p까지 높일 수 있습니다.
PCI Express Gen 4
PCI Express Gen 4 지원은 PCIe Gen 3의 대역폭을 2배로
증가시켜 AI 및 데이터 사이언스와 같은 데이터 집약적인 작업을 위한 CPU 메모리의 데이터 전송 속도를 개선합니다.
기본 설계된 탁월한 성능의 Ampere 아키텍쳐
3세대 Tensor Core
A100은 Tensor Float 32, FP16, BFLOAT16, INT8 등 다양한 정밀도를 지원하는 3세대 Tensor Core를 탑재했습니다.
멀티 인스턴스 GPU, MIG
하나의 A100 GPU를 최대 7개의 독립 GPU 인스턴스로 분할해, 여러 워크로드를 동시에 안정적으로 실행할 수 있습니다.
NVLink 및 NVSwitch 지원
A100은 NVIDIA NVLink와 NVSwitch를 통해 GPU 간 고속 연결을 지원하며, 대규모 서버 확장에 적합합니다.
PCIe Gen 4 지원
PCIe용 A100은 PCI Express Gen 4를 지원해 CPU와 GPU 간 데이터 전송 속도를 높입니다.
3세대 Tensor Core
A100은 Tensor Float 32, FP16, BFLOAT16, INT8 등 다양한 정밀도를 지원하는 3세대 Tensor Core를 탑재했습니다.
멀티 인스턴스 GPU, MIG
하나의 A100 GPU를 최대 7개의 독립 GPU 인스턴스로 분할해, 여러 워크로드를 동시에 안정적으로 실행할 수 있습니다.
NVLink 및 NVSwitch 지원
A100은 NVIDIA NVLink와 NVSwitch를 통해 GPU 간 고속 연결을 지원하며, 대규모 서버 확장에 적합합니다.
PCIe Gen 4 지원
PCIe용 A100은 PCI Express Gen 4를 지원해 CPU와 GPU 간 데이터 전송 속도를 높입니다.

기본 설계된 탁월한 성능의
Ampere 아키텍쳐
Ada Lovelace CUDA 코어
단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여
복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.
3세대 RT 코어
이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.
16GB의 GPU 메모리
16GB GDDR6 메모리를 탑재한 NVIDIA RTX 2000 Ada Generation은 데이터 사이언티스트, 엔지니어 및 크리에이티브 전문가에게 렌더링, 데이터 사이언스 및 시뮬레이션과 같은 대규모 데이터 세트 및 워크로드로 작업하는 데 필요한 대용량 메모리를 제공합니다.
NVIDIA 가상 GPU 지원
NVIDIA RTX 가상 워크스테이션(vWS) 소프트웨어 지원을 통해 개인 워크스테이션의 용도를 여러 고성능 가상 워크스테이션 인스턴스 용도로 바꿀 수 있습니다. 그럼으로써 원격 사용자는 고급 디자인, AI 및 컴퓨팅 워크로드를 주도하는 리소스를 공유할 수 있게 됩니다.
AV1 인코더
8세대 전용 하드웨어 인코더(NVENC)의 AV1 인코딩은 H.264보다 40% 더 효율적입니다.
동일한 비트 전송률과 품질로 해상도를 1080p에서 1440p까지 높일 수 있습니다.
PCI Express Gen 4
PCI Express Gen 4 지원은 PCIe Gen 3의 대역폭을 2배로
증가시켜 AI 및 데이터 사이언스와 같은 데이터 집약적인 작업을 위한 CPU 메모리의 데이터 전송 속도를 개선합니다.
기본 설계된 탁월한 성능의 Ampere 아키텍쳐
3세대 Tensor Core
이전 세대 대비 최대 3배 향상된 성능. FP4 정밀도 및 DLSS 4 멀티 프레임 생성 기술을
지원하여 로컬 LLM 가속화, AI 모델 프로토타이핑, 향상된 콘텐츠 제작 및 그래픽을 구현합니다.
멀티 인스턴스 GPU, MIG
이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계, 제조 프로토타이핑을 위한
렌더링을 가속화. RTX Mega Geometry로 최대 100배 더 많은 레이 트레이싱 트라이앵글을
구현합니다.
NVLink 및 NVSwitch 지원
FP8 데이터 형식을 사용하여 이전 세대 대비 2배 이상의 AI 성능을 제공합니다.
RTX 기반 AI 워크스테이션에서 직접 신속한 모델 훈련과 추론을 실행할 수 있습니다.
PCIe Gen 4 지원
FP8 데이터 형식을 사용하여 이전 세대 대비 2배 이상의 AI 성능을 제공합니다.
RTX 기반 AI 워크스테이션에서 직접 신속한 모델 훈련과 추론을 실행할 수 있습니다.

워크로드를 위한 NVIDIA RTX의 성능 활용
NVIDIA RTX의 성능으로
워크로드를 가속화
생성형 AI부터 3D 렌더링, 시뮬레이션, 영상 제작까지 — RTX A100은 이전 세대 대비 최대 10배의 성능으로 전문가의 작업 수준을 한 차원 높입니다.
생성형 AI부터 3D 렌더링, 시뮬레이션, 영상 제작까지
— RTX A1000은 이전 세대 대비 최대 10배의 성능으로
전문가의 작업 수준을 한 차원 높입니다.
생성형 AI부터 3D 렌더링, 시뮬레이션, 영상 제작까지
— RTX A1000은 이전 세대 대비 최대 10배의 성능으로 전문가의 작업 수준을 한 차원 높입니다.

AI 트레이닝
대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

데이터 분석
고성능 데이터 분석 환경에서 대규모 데이터를 빠르게 처리할 수 있도록 GPU 가속 성능을 제공합니다.

AI 추론
A100은 학습된 AI 모델을 빠르게 실행해, 실시간 추천·검색·이미지 분석 등 추론 워크로드에 적합합니다.

HPC 시뮬레이션
과학 연구, 시뮬레이션, 고성능 컴퓨팅 애플리케이션에서 높은 연산 성능을 제공합니다.

AI 트레이닝
대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

데이터 분석
고성능 데이터 분석 환경에서 대규모 데이터를 빠르게 처리할 수 있도록 GPU 가속 성능을 제공합니다.

AI 추론
A100은 학습된 AI 모델을 빠르게 실행해, 실시간 추천·검색·이미지 분석 등 추론 워크로드에 적합합니다.

HPC 시뮬레이션
과학 연구, 시뮬레이션, 고성능 컴퓨팅 애플리케이션에서 높은 연산 성능을 제공합니다.

AI 트레이닝
대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

데이터 분석
고성능 데이터 분석 환경에서 대규모 데이터를 빠르게 처리할 수 있도록 GPU 가속 성능을 제공합니다.

AI 추론
A100은 학습된 AI 모델을 빠르게 실행해, 실시간 추천·검색·이미지 분석 등 추론 워크로드에 적합합니다.


HPC 시뮬레이션
과학 연구, 시뮬레이션, 고성능 컴퓨팅 애플리케이션에서 높은 연산 성능을 제공합니다.

NVIDIA Ampere 시리즈
NVIDIA Ampere 시리즈
NVIDIA Ampere 시리즈

인프라 호환성 진단
인프라 호환성 진단
RTX A100 그래픽 카드 기반최적의
인프라 구성을 간편하게 확인해 보세요.
RTX A100 그래픽 카드 기반최적의
인프라 구성을 간편하게 확인해 보세요.
RTX A100 그래픽 카드 기반최적의
인프라 구성을 간편하게 확인해 보세요.
1.0
워크스테이션, 서버 호환성 체크
워크스테이션, 서버 호환성 체크
Dell, HP, Lenovo 등 주요 브랜드 워크스테이션과의 물리적 장착 및 ISV 인증 여부 확인
Dell, HP, Lenovo 등 주요 브랜드 워크스테이션과의 물리적 장착 및 ISV 인증 여부 확인
2.0
멀티 GPU 시뮬레이션
단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로
워크로드별 최적의 확장 환경 예측
3.0
구매 옵션 최적화
전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지,
비즈니스 규모에 맞춘 최적의 도입 경로 제안
2.0
멀티 GPU 시뮬레이션
단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로
워크로드별 최적의 확장 환경 예측
3.0
구매 옵션 최적화
전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지,
비즈니스 규모에 맞춘 최적의 도입 경로 제안
상세 기술 사양
RTX A100 그래픽 카드의 전체 기술 사양입니다.
RTX A100 그래픽 카드의 전체 기술 사양입니다.
제품 구성이미지
제품 구성이미지
제품 구성이미지


HGX용 NVIDIA A100
HGX용 NVIDIA A100
HGX용 NVIDIA A100

PCIe용 NVIDIA A100
PCIe용 NVIDIA A100
PCIe용 NVIDIA A100
제품 상세 스펙
제품 상세 스펙
제품 상세 스펙
A100
40GB PCIe
A100
40GB PCIe
A100
80GB PCIe
A100
80GB PCIe
A100
40GB SXM
A100
40GB SXM
A100
80GB SXM
A100
80GB SXM
FP64
FP64
9.7 TFLOPS
9.7 TFLOPS
FP64 Tensor Core
FP64 Tensor Core
19.5 TFLOPS
19.5 TFLOPS
FP32
FP32
19.5 TFLOPS
19.5 TFLOPS
Tensor Float 32 (TF32)
Tensor Float 32 (TF32)
156 TFLOPS | 312 TFLOPS*
156 TFLOPS | 312 TFLOPS*
BFLOAT16 Tensor Core
NVIDIA®
CUDA® Cores
312 TFLOPS | 624 TFLOPS*
312 TFLOPS | 624 TFLOPS*
FP16 Tensor Core
FP16 Tensor Core
312 TFLOPS | 624 TFLOPS*
312 TFLOPS | 624 TFLOPS*
INT8 Tensor Core
INT8 Tensor Core
624 TOPS | 1248 TOPS*
624 TOPS | 1248 TOPS*
GPU Memory
GPU Memory
40GB
HBM2
40GB
HBM2
80GB
HBM2e
80GB
HBM2e
40GB
HBM2
40GB
HBM2
80GB
HBM2e
80GB
HBM2e
GPU Memory Bandwidth
GPU Memory Bandwidth
1,555GB/s
1,555GB/s
1,935GB/s
1,935GB/s
1,555GB/s
1,555GB/s
2,039GB/s
2,039GB/s
Max Thermal
Design Power (TDP)
Max Thermal
Design Power (TDP)
250W
250W
300W
300W
400W
400W
400W
400W
Multi-Instance GPU
Multi-Instance GPU
Up to 7
MIGs @ 5GB
Up to 7
MIGs @ 5GB
Up to 7
MIGs @ 10GB
Up to 7
MIGs @ 10GB
Up to 7
MIGs @ 5GB
Up to 7
MIGs @ 5GB
Up to 7
MIGs @ 10GB
Up to 7
MIGs @ 10GB
Form Factor
Form Factor
PCIe
PCIe
PCIe
SXM
SXM
SXM
Interconnect
Interconnect
NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s
NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s
NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s
NVLink: 600GB/s
PCIe Gen4: 64GB/s
NVLink: 600GB/s
PCIe Gen4: 64GB/s
NVLink: 600GB/s
PCIe Gen4: 64GB/s
Server Options
Server Options
Partner and NVIDIACertified Systems™ with 1-8 GPUs
Partner and NVIDIACertified Systems™ with 1-8 GPUs
Partner and NVIDIACertified Systems™ with 1-8 GPUs
NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10
NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10
NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10
제품 정보
제품 정보
제품 정보
상품명
상품명
NVIDIA RTX A100 엔비디아코리아 정품
NVIDIA RTX A100 엔비디아코리아 정품
KC 인증번호
KC 인증번호
R-R-NVA-PG172A
R-R-NVA-PG172A
정격전압 / 최대소비전력
정격전압 / 최대소비전력
50 W
50 W
품질 보증
품질 보증
3년 무상보증
3년 무상보증
출시년월
출시년월
24
24
제조사
제조사
NVIDIA Corporation
NVIDIA Corporation
제조국
제조국
중국, 대만, 미국, 베트남
중국, 대만, 미국, 베트남
크기
크기
68.5 x 162.5 (mm), Single slot
68.5 x 162.5 (mm), Single slot






