GPU

丶Value   
   ȸ 615   õ 0    

쪽팔리면 질문하지 맙시다. 소중한 답변 댓글을 삭제하는건 부끄러운 일 입니다 


안녕하세요? 업무용으로 사용할 Workstation을 알아보고 있습니다.


이미지 분류 학습을 위해서 구성할 예정이구요.  일부 예측 모델도 돌릴 예정입니다.


협력사에서 일부 SW를 제공하는 와중에 자기네 프로그램이 H100에서


구동되는지 모르겠다해서 대신 GPU 4개짜리 웍스를 제안 받았습니다.


사양은 RTX6000 Ada 4장으로 구성되어 있구요.


궁금한점이 H100 단일보다 성능이 어떻게 될까요? 


그리고 4장의 GPU를 한번에 학습에 사용이 가능한지 선배님들의 의견을 여쭙습니다.

ª ϼ ϰ.
ڹ 03-30
RTX6000 Ada 4  vs  H100 1 ΰ??

α׷ 4 GPU νϰ ϴ°??

α׷ GPU ν ϰų Ȱ ϴ 쵵 ֽϴ..
Ǹ 03-30
ΰ н GPU ޸ ̽ϼ ֽϴ.

H100 80Ⱑ 94Ⱑ մϴ. 3700~4500
RTX 6000 ada 48Ⱑ * 4  192 Ⱑ 忡 뷫 1õ.

GPU ޸𸮰 󸶳 ʿ ޶ϴ. ϰ ִ Ʈ ü RTX 6000 ada 4 õ߽ϴٸ, H100 4 Ϸ մϴ. (ݾ . 1.8 ׿. 1.2 vs 2.1)

HP Z8 Fury G5 RTX 6000 ada 4 ı մϴ. ( 2 Դϴ.)

 н̳Ŀ ٸ, GPU ޸𸮰 ڶ ƿ н Ұϱ ׷ ְڳ׿. 纸ø ɰ̴ϴ. ޸ ƴ϶ RTX ada 6000 α׷ H100 ϴ.
     
Landa 03-30
2 600, 24ʿ 800 ߴµ ö??

¥ ε ö󰡳׿
          
Ǹ 03-31
ȳ° ū ϴ.
Ȳ 03-30
׿ ޶ϴ.
03-30
Tesla ɺ..

RTX 6000 Ada 48G pcie
  FP16 (half) 91.06 TFLOPS (1:1)
  FP32 (float) 91.06 TFLOPS
  FP64 (double) 1,423 GFLOPS (1:64)


H100 80G pcie
  FP16 (half) : 204.9 TFLOPS (4:1)
  FP32 (float) : 51.22 TFLOPS
  FP64 (double) : 25.61 TFLOPS (1:2)

RTX 6000 Ada 80G x 4  ν ɵ Ȱ뵵 .. ݵ ϰڳ׿.. 
FP64 Ư¡ε.. Ͻø鼭 ؼ ؾ߰ԝ.

Supermicro GPGPU Pcie ġϿ.. ̰ڽϴ.


QnA
Page 15/5737
2015-12   1811587   ް
2014-05   5288442   1
2013-07   6281  
2013-07   6565  
2016-03   4677   2CPU
2019-06   10557   asdqwczx
2022-02   4296  
2014-12   4114   嵿2014
2017-02   10471   嵿2014
2022-02   2946   96
2013-07   6537   ȸK
2023-10   4065   ̴
2013-07   14639  
2010-09   11301  
2016-03   4044   change
2014-12   5987  
2014-12   20778   VINCENT
2016-03   5488  
2013-08   21169   ̼
2020-09   4994   ocarina
2022-03   3125   isilentwind
2010-10   8637   oȿo