GPU

丶Value   
   ȸ 767   õ 0    

쪽팔리면 질문하지 맙시다. 소중한 답변 댓글을 삭제하는건 부끄러운 일 입니다 


안녕하세요? 업무용으로 사용할 Workstation을 알아보고 있습니다.


이미지 분류 학습을 위해서 구성할 예정이구요.  일부 예측 모델도 돌릴 예정입니다.


협력사에서 일부 SW를 제공하는 와중에 자기네 프로그램이 H100에서


구동되는지 모르겠다해서 대신 GPU 4개짜리 웍스를 제안 받았습니다.


사양은 RTX6000 Ada 4장으로 구성되어 있구요.


궁금한점이 H100 단일보다 성능이 어떻게 될까요? 


그리고 4장의 GPU를 한번에 학습에 사용이 가능한지 선배님들의 의견을 여쭙습니다.

ª ϼ ϰ.
ڹ 03-30
RTX6000 Ada 4  vs  H100 1 ΰ??

α׷ 4 GPU νϰ ϴ°??

α׷ GPU ν ϰų Ȱ ϴ 쵵 ֽϴ..
Ǹ 03-30
ΰ н GPU ޸ ̽ϼ ֽϴ.

H100 80Ⱑ 94Ⱑ մϴ. 3700~4500
RTX 6000 ada 48Ⱑ * 4  192 Ⱑ 忡 뷫 1õ.

GPU ޸𸮰 󸶳 ʿ ޶ϴ. ϰ ִ Ʈ ü RTX 6000 ada 4 õ߽ϴٸ, H100 4 Ϸ մϴ. (ݾ . 1.8 ׿. 1.2 vs 2.1)

HP Z8 Fury G5 RTX 6000 ada 4 ı մϴ. ( 2 Դϴ.)

 н̳Ŀ ٸ, GPU ޸𸮰 ڶ ƿ н Ұϱ ׷ ְڳ׿. 纸ø ɰ̴ϴ. ޸ ƴ϶ RTX ada 6000 α׷ H100 ϴ.
     
Landa 03-30
2 600, 24ʿ 800 ߴµ ö??

¥ ε ö󰡳׿
          
Ǹ 03-31
ȳ° ū ϴ.
Ȳ 03-30
׿ ޶ϴ.
03-30
Tesla ɺ..

RTX 6000 Ada 48G pcie
  FP16 (half) 91.06 TFLOPS (1:1)
  FP32 (float) 91.06 TFLOPS
  FP64 (double) 1,423 GFLOPS (1:64)


H100 80G pcie
  FP16 (half) : 204.9 TFLOPS (4:1)
  FP32 (float) : 51.22 TFLOPS
  FP64 (double) : 25.61 TFLOPS (1:2)

RTX 6000 Ada 80G x 4  ν ɵ Ȱ뵵 .. ݵ ϰڳ׿.. 
FP64 Ư¡ε.. Ͻø鼭 ؼ ؾ߰ԝ.

Supermicro GPGPU Pcie ġϿ.. ̰ڽϴ.


QnA
Page 27/5744
2014-05   5331166   1
2015-12   1846686   ް
2024-12   747   EYESSHOT
01-31   747   ٺ
03-27   748   ϰԻ2
05-14   748   ̴
04-17   750   Setila
03-19   750   galaxyfamily
02-12   750   ̿K
03-19   750  
04-18   751   Sakura24
02-07   753  
02-25   753   Naas
04-09   753   Ͼ
03-12   754   ȣ
03-27   754  
01-31   754   ε
02-19   755   sadzxczxc03
03-28   756  
02-03   756   ؿ
03-26   757   μ
04-17   759   2CPU