RTX A100

모든 규모에서의 유례 없는 가속화

주요스펙

AI 성능

53.8 TFLOPS

FP32

6.7 TFLOPS

메모리

40 / 80 GB GDDR6

최대 소비전력

50 W

AI 성능

53.8 TFLOPS

FP32

6.7 TFLOPS

메모리

40 / 80 GB GDDR6

최대 소비전력

50 W

RTX A100

모든 규모에서의 유례 없는 가속화

주요스펙

AI 성능

53.8 TFLOPS

메모리

40 / 80 GB GDDR6

FP32

6.7 TFLOPS

최대 소비전력

50 W

모든 규모에서의 유례 없는 가속화.

세계 최고 성능의 데이터센터 GPU

NVIDIA A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 기존 V100 대비 최대 20배 높은 성능을 제공합니다.

세계 최고 성능의 데이터센터 GPU

NVIDIA A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 기존 V100 대비 최대 20배 높은 성능을 제공합니다.

딥 러닝 훈련 가속

A100은 대규모 AI 모델 학습을 가속화하며, 가장 큰 규모의 모델에서도 최대 3배의 AI 훈련 성능을 제공합니다.

딥 러닝 추론 성능 향상

A100은 추론 워크로드에서도 높은 처리량을 제공하며, CPU 대비 최대 249배 높은 AI 추론 성능을 제공합니다.

고성능 컴퓨팅 지원

A100은 HPC 애플리케이션에서 강력한 성능을 제공하며, 이전 세대 대비 최대 4년 만에 큰 폭의 HPC 성능 향상을 보여줍니다.

딥 러닝 훈련 가속

A100은 대규모 AI 모델 학습을 가속화하며, 가장 큰 규모의 모델에서도 최대 3배의 AI 훈련 성능을 제공합니다.

딥 러닝 추론 성능 향상

A100은 추론 워크로드에서도 높은 처리량을 제공하며, CPU 대비 최대 249배 높은 AI 추론 성능을 제공합니다.

고성능 컴퓨팅 지원

A100은 HPC 애플리케이션에서 강력한 성능을 제공하며, 이전 세대 대비 최대 4년 만에 큰 폭의 HPC 성능 향상을 보여줍니다.

기본 설계된 탁월한 성능의
Ampere 아키텍쳐

Ada Lovelace CUDA 코어

단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여

복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.

3세대 RT 코어

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.

16GB의 GPU 메모리

16GB GDDR6 메모리를 탑재한 NVIDIA RTX 2000 Ada Generation은 데이터 사이언티스트, 엔지니어 및 크리에이티브 전문가에게 렌더링, 데이터 사이언스 및 시뮬레이션과 같은 대규모 데이터 세트 및 워크로드로 작업하는 데 필요한 대용량 메모리를 제공합니다.

NVIDIA 가상 GPU 지원

NVIDIA RTX 가상 워크스테이션(vWS) 소프트웨어 지원을 통해 개인 워크스테이션의 용도를 여러 고성능 가상 워크스테이션 인스턴스 용도로 바꿀 수 있습니다. 그럼으로써 원격 사용자는 고급 디자인, AI 및 컴퓨팅 워크로드를 주도하는 리소스를 공유할 수 있게 됩니다.

AV1 인코더

8세대 전용 하드웨어 인코더(NVENC)의 AV1 인코딩은 H.264보다 40% 더 효율적입니다.

동일한 비트 전송률과 품질로 해상도를 1080p에서 1440p까지 높일 수 있습니다.

PCI Express Gen 4

PCI Express Gen 4 지원은 PCIe Gen 3의 대역폭을 2배로

증가시켜 AI 및 데이터 사이언스와 같은 데이터 집약적인 작업을 위한 CPU 메모리의 데이터 전송 속도를 개선합니다.

기본 설계된 탁월한 성능의 Ampere 아키텍쳐

3세대 Tensor Core

A100은 Tensor Float 32, FP16, BFLOAT16, INT8 등 다양한 정밀도를 지원하는 3세대 Tensor Core를 탑재했습니다.

멀티 인스턴스 GPU, MIG

하나의 A100 GPU를 최대 7개의 독립 GPU 인스턴스로 분할해, 여러 워크로드를 동시에 안정적으로 실행할 수 있습니다.

NVLink 및 NVSwitch 지원

A100은 NVIDIA NVLink와 NVSwitch를 통해 GPU 간 고속 연결을 지원하며, 대규모 서버 확장에 적합합니다.

PCIe Gen 4 지원

PCIe용 A100은 PCI Express Gen 4를 지원해 CPU와 GPU 간 데이터 전송 속도를 높입니다.

3세대 Tensor Core

A100은 Tensor Float 32, FP16, BFLOAT16, INT8 등 다양한 정밀도를 지원하는 3세대 Tensor Core를 탑재했습니다.

멀티 인스턴스 GPU, MIG

하나의 A100 GPU를 최대 7개의 독립 GPU 인스턴스로 분할해, 여러 워크로드를 동시에 안정적으로 실행할 수 있습니다.

NVLink 및 NVSwitch 지원

A100은 NVIDIA NVLink와 NVSwitch를 통해 GPU 간 고속 연결을 지원하며, 대규모 서버 확장에 적합합니다.

PCIe Gen 4 지원

PCIe용 A100은 PCI Express Gen 4를 지원해 CPU와 GPU 간 데이터 전송 속도를 높입니다.

기본 설계된 탁월한 성능의
Ampere 아키텍쳐

Ada Lovelace CUDA 코어

단정밀도 부동 소수점(FP32) 연산을 이전 세대보다 2배 빠른 속도로 처리하여

복잡한 3D CAD 및 CAE와 같은 그래픽 및 시뮬레이션 워크플로우 성능을 크게 향상시킵니다.

3세대 RT 코어

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계,
제조 프로토타이핑을 위한 렌더링을 가속화. RTX Mega Geometry로
최대 100배 더 많은 레이 트레이싱 트라이앵글을 구현합니다.

16GB의 GPU 메모리

16GB GDDR6 메모리를 탑재한 NVIDIA RTX 2000 Ada Generation은 데이터 사이언티스트, 엔지니어 및 크리에이티브 전문가에게 렌더링, 데이터 사이언스 및 시뮬레이션과 같은 대규모 데이터 세트 및 워크로드로 작업하는 데 필요한 대용량 메모리를 제공합니다.

NVIDIA 가상 GPU 지원

NVIDIA RTX 가상 워크스테이션(vWS) 소프트웨어 지원을 통해 개인 워크스테이션의 용도를 여러 고성능 가상 워크스테이션 인스턴스 용도로 바꿀 수 있습니다. 그럼으로써 원격 사용자는 고급 디자인, AI 및 컴퓨팅 워크로드를 주도하는 리소스를 공유할 수 있게 됩니다.

AV1 인코더

8세대 전용 하드웨어 인코더(NVENC)의 AV1 인코딩은 H.264보다 40% 더 효율적입니다.

동일한 비트 전송률과 품질로 해상도를 1080p에서 1440p까지 높일 수 있습니다.

PCI Express Gen 4

PCI Express Gen 4 지원은 PCIe Gen 3의 대역폭을 2배로

증가시켜 AI 및 데이터 사이언스와 같은 데이터 집약적인 작업을 위한 CPU 메모리의 데이터 전송 속도를 개선합니다.

기본 설계된 탁월한 성능의 Ampere 아키텍쳐

3세대 Tensor Core

이전 세대 대비 최대 3배 향상된 성능. FP4 정밀도 및 DLSS 4 멀티 프레임 생성 기술을

지원하여 로컬 LLM 가속화, AI 모델 프로토타이핑, 향상된 콘텐츠 제작 및 그래픽을 구현합니다.

멀티 인스턴스 GPU, MIG

이전 세대 대비 최대 2배 성능으로 M&E 콘텐츠 제작, AECO 설계, 제조 프로토타이핑을 위한

렌더링을 가속화. RTX Mega Geometry로 최대 100배 더 많은 레이 트레이싱 트라이앵글을

구현합니다.

NVLink 및 NVSwitch 지원

FP8 데이터 형식을 사용하여 이전 세대 대비 2배 이상의 AI 성능을 제공합니다.

RTX 기반 AI 워크스테이션에서 직접 신속한 모델 훈련과 추론을 실행할 수 있습니다.

PCIe Gen 4 지원

FP8 데이터 형식을 사용하여 이전 세대 대비 2배 이상의 AI 성능을 제공합니다.

RTX 기반 AI 워크스테이션에서 직접 신속한 모델 훈련과 추론을 실행할 수 있습니다.

워크로드를 위한 NVIDIA RTX의 성능 활용

NVIDIA RTX의 성능으로
워크로드를 가속화

생성형 AI부터 3D 렌더링, 시뮬레이션, 영상 제작까지 — RTX A100은 이전 세대 대비 최대 10배의 성능으로 전문가의 작업 수준을 한 차원 높입니다.

생성형 AI부터 3D 렌더링, 시뮬레이션, 영상 제작까지
— RTX A1000은 이전 세대 대비 최대 10배의 성능으로
전문가의 작업 수준을 한 차원 높입니다.

생성형 AI부터 3D 렌더링, 시뮬레이션, 영상 제작까지
— RTX A1000은 이전 세대 대비 최대 10배의 성능으로 전문가의 작업 수준을 한 차원 높입니다.

AI 트레이닝

대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

데이터 분석

고성능 데이터 분석 환경에서 대규모 데이터를 빠르게 처리할 수 있도록 GPU 가속 성능을 제공합니다.

AI 추론

A100은 학습된 AI 모델을 빠르게 실행해, 실시간 추천·검색·이미지 분석 등 추론 워크로드에 적합합니다.

HPC 시뮬레이션

과학 연구, 시뮬레이션, 고성능 컴퓨팅 애플리케이션에서 높은 연산 성능을 제공합니다.

AI 트레이닝

대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

데이터 분석

고성능 데이터 분석 환경에서 대규모 데이터를 빠르게 처리할 수 있도록 GPU 가속 성능을 제공합니다.

AI 추론

A100은 학습된 AI 모델을 빠르게 실행해, 실시간 추천·검색·이미지 분석 등 추론 워크로드에 적합합니다.

HPC 시뮬레이션

과학 연구, 시뮬레이션, 고성능 컴퓨팅 애플리케이션에서 높은 연산 성능을 제공합니다.

AI 트레이닝

대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

데이터 분석

고성능 데이터 분석 환경에서 대규모 데이터를 빠르게 처리할 수 있도록 GPU 가속 성능을 제공합니다.

AI 추론

A100은 학습된 AI 모델을 빠르게 실행해, 실시간 추천·검색·이미지 분석 등 추론 워크로드에 적합합니다.

HPC 시뮬레이션

과학 연구, 시뮬레이션, 고성능 컴퓨팅 애플리케이션에서 높은 연산 성능을 제공합니다.

인프라 호환성 진단

인프라 호환성 진단

RTX A100 그래픽 카드 기반최적의

인프라 구성을 간편하게 확인해 보세요.

RTX A100 그래픽 카드 기반최적의

인프라 구성을 간편하게 확인해 보세요.

RTX A100 그래픽 카드 기반최적의

인프라 구성을 간편하게 확인해 보세요.

1.0

워크스테이션, 서버 호환성 체크

워크스테이션, 서버 호환성 체크

Dell, HP, Lenovo 등 주요 브랜드 워크스테이션과의 물리적 장착 및 ISV 인증 여부 확인

Dell, HP, Lenovo 등 주요 브랜드 워크스테이션과의 물리적 장착 및 ISV 인증 여부 확인

2.0

멀티 GPU 시뮬레이션

단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로

워크로드별 최적의 확장 환경 예측

3.0

구매 옵션 최적화

전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지,

비즈니스 규모에 맞춘 최적의 도입 경로 제안

2.0

멀티 GPU 시뮬레이션

단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로

워크로드별 최적의 확장 환경 예측

3.0

구매 옵션 최적화

전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지,

비즈니스 규모에 맞춘 최적의 도입 경로 제안

상세 기술 사양

RTX A100 그래픽 카드의 전체 기술 사양입니다.

RTX A100 그래픽 카드의 전체 기술 사양입니다.

제품 구성이미지

제품 구성이미지

제품 구성이미지

HGX용 NVIDIA A100

HGX용 NVIDIA A100

HGX용 NVIDIA A100

PCIe용 NVIDIA A100

PCIe용 NVIDIA A100

PCIe용 NVIDIA A100

제품 상세 스펙

제품 상세 스펙

제품 상세 스펙

A100

40GB PCIe

A100

40GB PCIe

A100

80GB PCIe

A100

80GB PCIe

A100

40GB SXM

A100

40GB SXM

A100

80GB SXM

A100

80GB SXM

FP64

FP64

9.7 TFLOPS

9.7 TFLOPS

FP64 Tensor Core

FP64 Tensor Core

19.5 TFLOPS

19.5 TFLOPS

FP32

FP32

19.5 TFLOPS

19.5 TFLOPS

Tensor Float 32 (TF32)

Tensor Float 32 (TF32)

156 TFLOPS | 312 TFLOPS*

156 TFLOPS | 312 TFLOPS*

BFLOAT16 Tensor Core

NVIDIA®

CUDA® Cores

312 TFLOPS | 624 TFLOPS*

312 TFLOPS | 624 TFLOPS*

FP16 Tensor Core

FP16 Tensor Core

312 TFLOPS | 624 TFLOPS*

312 TFLOPS | 624 TFLOPS*

INT8 Tensor Core

INT8 Tensor Core

624 TOPS | 1248 TOPS*

624 TOPS | 1248 TOPS*

GPU Memory

GPU Memory

40GB

HBM2

40GB

HBM2

80GB

HBM2e

80GB

HBM2e

40GB

HBM2

40GB

HBM2

80GB

HBM2e

80GB

HBM2e

GPU Memory Bandwidth

GPU Memory Bandwidth

1,555GB/s

1,555GB/s

1,935GB/s

1,935GB/s

1,555GB/s

1,555GB/s

2,039GB/s

2,039GB/s

Max Thermal

Design Power (TDP)

Max Thermal

Design Power (TDP)

250W

250W

300W

300W

400W

400W

400W

400W

Multi-Instance GPU

Multi-Instance GPU

Up to 7

MIGs @ 5GB

Up to 7

MIGs @ 5GB

Up to 7

MIGs @ 10GB

Up to 7

MIGs @ 10GB

Up to 7

MIGs @ 5GB

Up to 7

MIGs @ 5GB

Up to 7

MIGs @ 10GB

Up to 7

MIGs @ 10GB

Form Factor

Form Factor

PCIe

PCIe

PCIe

SXM

SXM

SXM

Interconnect

Interconnect

NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s

NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s

NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s

NVLink: 600GB/s

PCIe Gen4: 64GB/s

NVLink: 600GB/s

PCIe Gen4: 64GB/s

NVLink: 600GB/s

PCIe Gen4: 64GB/s

Server Options

Server Options

Partner and NVIDIACertified Systems™ with 1-8 GPUs

Partner and NVIDIACertified Systems™ with 1-8 GPUs

Partner and NVIDIACertified Systems™ with 1-8 GPUs

NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10

NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10

NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10

제품 정보

제품 정보

제품 정보

상품명

상품명

NVIDIA RTX A100 엔비디아코리아 정품

NVIDIA RTX A100 엔비디아코리아 정품

KC 인증번호

KC 인증번호

R-R-NVA-PG172A

R-R-NVA-PG172A

정격전압 / 최대소비전력

정격전압 / 최대소비전력

50 W

50 W

품질 보증

품질 보증

3년 무상보증

3년 무상보증

출시년월

출시년월

24

24

제조사

제조사

NVIDIA Corporation

NVIDIA Corporation

제조국

제조국

중국, 대만, 미국, 베트남

중국, 대만, 미국, 베트남

크기

크기

68.5 x 162.5 (mm), Single slot

68.5 x 162.5 (mm), Single slot