문제가 생기면 즉시 연락해 주세요!

모든 카테고리

GPU

홈페이지 >  제품 >  AI 제품 >  GPU

GPU A100 40GB/80GB: 데이터센터 표준 및 딥러닝 학습 및 추론을 위한 최선의 선택.

  • 개요
  • 제품 동영상---GPU
  • 관련 제품

그래픽 카드---A100

사양

A100 80GB PCIe A100 80GB SXM
GPU 메모리 80GB HBM2e 80GB HBM2e
GPU 메모리 대역폭 1,935 GB/s 2,039 GB/s
멀티인스턴스 GPU 최대 7개의 MIG(@10GB) 최대 7개의 MIG(@10GB)
형태 요인 피시
듀얼 슬롯 공랭식 또는 싱글 슬롯 액체 냉각식
SXM
최대 열 설계 전력(TDP) 300W 400W

문의하기

独立站名片-June.jpg

포장

A100 实拍 (3).jpg

Package.jpg

인증

证书.jpg

무료 견적 받기

저희 담당자가 곧 연락드리겠습니다.
Email
와츠앱/모바일
이름
회사 이름
메시지
0/1000

무료 견적 받기

저희 담당자가 곧 연락드리겠습니다.
Email
와츠앱/모바일
이름
회사 이름
메시지
0/1000

무료 견적 받기

저희 담당자가 곧 연락드리겠습니다.
Email
와츠앱/모바일
이름
회사 이름
메시지
0/1000