GPU

丶Value   
   ȸ 888   õ 0    

쪽팔리면 질문하지 맙시다. 소중한 답변 댓글을 삭제하는건 부끄러운 일 입니다 


안녕하세요? 업무용으로 사용할 Workstation을 알아보고 있습니다.


이미지 분류 학습을 위해서 구성할 예정이구요.  일부 예측 모델도 돌릴 예정입니다.


협력사에서 일부 SW를 제공하는 와중에 자기네 프로그램이 H100에서


구동되는지 모르겠다해서 대신 GPU 4개짜리 웍스를 제안 받았습니다.


사양은 RTX6000 Ada 4장으로 구성되어 있구요.


궁금한점이 H100 단일보다 성능이 어떻게 될까요? 


그리고 4장의 GPU를 한번에 학습에 사용이 가능한지 선배님들의 의견을 여쭙습니다.

ª ϼ ϰ.
ڹ 03-30
RTX6000 Ada 4  vs  H100 1 ΰ??

α׷ 4 GPU νϰ ϴ°??

α׷ GPU ν ϰų Ȱ ϴ 쵵 ֽϴ..
Ǹ 03-30
ΰ н GPU ޸ ̽ϼ ֽϴ.

H100 80Ⱑ 94Ⱑ մϴ. 3700~4500
RTX 6000 ada 48Ⱑ * 4  192 Ⱑ 忡 뷫 1õ.

GPU ޸𸮰 󸶳 ʿ ޶ϴ. ϰ ִ Ʈ ü RTX 6000 ada 4 õ߽ϴٸ, H100 4 Ϸ մϴ. (ݾ . 1.8 ׿. 1.2 vs 2.1)

HP Z8 Fury G5 RTX 6000 ada 4 ı մϴ. ( 2 Դϴ.)

 н̳Ŀ ٸ, GPU ޸𸮰 ڶ ƿ н Ұϱ ׷ ְڳ׿. 纸ø ɰ̴ϴ. ޸ ƴ϶ RTX ada 6000 α׷ H100 ϴ.
     
Landa 03-30
2 600, 24ʿ 800 ߴµ ö??

¥ ε ö󰡳׿
          
Ǹ 03-31
ȳ° ū ϴ.
Ȳ 03-30
׿ ޶ϴ.
03-30
Tesla ɺ..

RTX 6000 Ada 48G pcie
  FP16 (half) 91.06 TFLOPS (1:1)
  FP32 (float) 91.06 TFLOPS
  FP64 (double) 1,423 GFLOPS (1:64)


H100 80G pcie
  FP16 (half) : 204.9 TFLOPS (4:1)
  FP32 (float) : 51.22 TFLOPS
  FP64 (double) : 25.61 TFLOPS (1:2)

RTX 6000 Ada 80G x 4  ν ɵ Ȱ뵵 .. ݵ ϰڳ׿.. 
FP64 Ư¡ε.. Ͻø鼭 ؼ ؾ߰ԝ.

Supermicro GPGPU Pcie ġϿ.. ̰ڽϴ.


QnA
Page 26/5748
2014-05   5358527   1
2015-12   1872187   ް
2009-09   8325   GoodWolf
2012-11   4609   AKA
2015-11   4025   jack33
03-06   841  
2021-09   3480   12
2012-11   6085   MemoryDB
2015-11   4560   2FluF
2017-12   6735   Ƹ쾲
2017-12   4478   ó
2017-12   5959   JandD
2017-12   6067  
2019-03   3932   Ƶ
04-07   954   Joooo
2012-12   6273   ڼ
2019-03   3479   ´I
2019-03   3034  
2021-10   4227   Setila
2021-10   2957   Ӷīµ
2014-08   4888   2CPU
2020-05   5536   Ź