모든 규모에서의 유례 없는 가속화

NVIDIA RTX A100

주요 스펙

AI 성능

53.8 TFLOPS

메모리

40 / 80 GB GDDR6

FP32

6.7 TFLOPS

최대 소비전력

50 W

모든 규모에서의 유례 없는 가속화.

NVIDIA Ampere GPU로 대규모 렌더링, AI 그래픽 연구, 시뮬레이션 워크플로우를 더 빠르고 정밀하게 구현해보세요.

세계 최고 성능의 데이터센터 GPU

NVIDIA A100은 AI, 데이터 분석, HPC를 위한 데이터센터 GPU로, 기존 V100 대비 최대 20배 높은 성능을 제공합니다.

딥 러닝 훈련 가속

A100은 대규모 AI 모델 학습을 가속화하며, 가장 큰 규모의 모델에서도 최대 3배의 AI 훈련 성능을 제공합니다.

딥 러닝 추론 성능 향상

A100은 추론 워크로드에서도 높은 처리량을 제공하며, CPU 대비 최대 249배 높은 AI 추론 성능을 제공합니다.

고성능 컴퓨팅 지원

A100은 HPC 애플리케이션에서 강력한 성능을 제공하며, 이전 세대 대비 최대 4년 만에 큰 폭의 HPC 성능 향상을 보여줍니다.

NVIDIA Ampere 아키텍처

3세대 Tensor Core

A100은 Tensor Float 32, FP16, BFLOAT16, INT8 등 다양한 정밀도를 지원하는 3세대 Tensor Core를 탑재했습니다.

멀티 인스턴스 GPU, MIG

하나의 A100 GPU를 최대 7개의 독립 GPU 인스턴스로 분할해, 여러 워크로드를 동시에 안정적으로 실행할 수 있습니다.

NVLink 및 NVSwitch 지원

A100은 NVIDIA NVLink와 NVSwitch를 통해 GPU 간 고속 연결을 지원하며, 대규모 서버 확장에 적합합니다.

PCIe Gen 4 지원

PCIe용 A100은 PCI Express Gen 4를 지원해 CPU와 GPU 간 데이터 전송 속도를 높입니다.

비즈니스 환경에 맞는 산업별 솔루션

대규모 딥 러닝 모델을 빠르게 학습할 수 있도록 설계되어, 자연어 처리·추천 시스템·컴퓨터 비전 등 AI 훈련에 활용됩니다.

AI 트레이닝

a computer circuit board with a brain on it

Bank-grade encryption and compliance. Your data is protected with military-level security protocols.

low-angle photography of metal structure

Intelligent automation that learns from your workflow. Let AI handle the repetitive tasks.

red and white light digital wallpaper

Grow without limits. Our platform adapts to your needs, from startup to enterprise.

A group of blue and green balls on a black background

인프라 호환성 진단

NVIDIA RTX A100기반최적의 인프라 구성을 간편하게 확인해 보세요.

워크스테이션, 서버 호환성 체크

  • Dell, HP, Lenovo 등 주요 브랜드 장착 호환 여부 확인 물리적 설치 가능 여부와 운영 안정성 사전 검토 ISV 인증 지원 여부까지 함께 체크

black circuit board

멀티 GPU 시뮬레이션

  • 다중 GPU 구성 시 성능 확장성 예측 워크로드별 연산 효율과 처리 성능 검토 확장 환경에 맞는 최적의 시스템 방향 제안

blue circuit board

구매 옵션 최적화

  • 단품 구매부터 완제 시스템까지 폭넓게 비교 비즈니스 규모에 맞는 도입 방식 제안 예산과 운영 목적에 맞춘 최적 옵션 설계

NVIDIA Ampere 시리즈

어떤 GPU 서버가 필요한지 고민되시나요?

커스텀 GPU 서버 구성

연구 분야, 데이터셋 크기, 예산을 입력하면 최적의 GPU 서버 구성을 추천해드립니다.실시간 가격과 상세 견적서를 지금 바로 확인하세요.

빠른 견적 확인하기

상세 기술 사양

NVIDIA RTX A100의 전체 기술 사양입니다.

제품 구성 이미지

HGX용 NVIDIA A100

PCIe용 NVIDIA A100

제품 상세 스펙

A100 40GB PCIe

A100 80GB PCIe

A100 40GB SXM

A100 80GB SXM

FP64

9.7 TFLOPS

FP64 Tensor Core

19.5 TFLOPS

FP32

19.5 TFLOPS

Tensor Float 32 (TF32)

156 TFLOPS | 312 TFLOPS*

BFLOAT16 Tensor Core

312 TFLOPS | 624 TFLOPS*

FP16 Tensor Core

312 TFLOPS | 624 TFLOPS*

INT8 Tensor Core

624 TOPS | 1248 TOPS*

GPU Memory

40GB HBM2

80GB HBM2e

40GB HBM2

80GB HBM2e

GPU Memory Bandwidth

1,555GB/s

1,935GB/s

1,555GB/s

2,039GB/s

Max Thermal Design Power (TDP)

250W

300W

400W

400W

Multi-Instance GPU

Up to 7 MIGs @ 5GB

Up to 7 MIGs @ 10GB

Up to 7 MIGs @ 5GB

Up to 7 MIGs @ 10GB

Form Factor

PCIe

SXM

Interconnect

NVIDIA® NVLink® Bridge for 2 GPUs: 600GB/s ** PCIe Gen4: 64GB/s

NVLink: 600GB/s PCIe Gen4: 64GB/s

Server Options

Partner and NVIDIACertified Systems™ with 1-8 GPUs

NVIDIA HGX™ A100- Partner and NVIDIACertified Systems with 4,8, or 16 GPUs NVIDIA DGX™ A10

제품 정보

상품명

NVIDIA RTX A100

KC 인증번호

R-R-NVA-PG172A

정격전압 / 최대소비전력

50 W

품질 보증

3년 무상보증

출시년월

24

제조사

NVIDIA Corporation

제조국

중국, 대만, 미국, 베트남

크기

68.5 x 162.5 (mm), Single slot

XDNODE를 통해 한정된 예산을 얼마나 잘 활용할 수 있을지 확인해 보세요.

상세 스펙과 맞춤형 견적서를

빠르게 받아보세요.

AI 연구와 도입을 위한 기술 자료를 확인하세요.

GPU 서버와 워크스테이션 선택 기준을 살펴보세요.

제품가이드 보기 →

연구 환경에 맞는 GPU 인프라 구성을 확인하세요.

제품

인사이트

회사·지원

서비스 이용약관

(주)엑스디노드

주소: 서울시 성동구 성수일로 89 메타모르포 501, 505호

전화번호: 02-6671-9000

통신판매 신고번호: 2024-서울송파-3420

사업자등록번호 : 393-86-02729