8GPU: HPCDIY-ERMGPU8R4S に RTX3090を8枚実装してGPU100%での消費電力と温度

HPCDIY-ERMGPU8R4S(こちら)にGeForce RTX 3090 を8枚実装し、gpu_burn(こちら)を実行して、消費電力と温度が定常状態になるまでを nvidia-smi -l で監視してみました。

Share
8GPU: HPCDIY-ERMGPU8R4S に RTX3090を8枚実装してGPU100%での消費電力と温度

HPCDIY-ERMGPU8R4S(こちら)にGeForce RTX 3090 を8枚実装し、gpu_burn(こちら)を実行して、消費電力と温度が定常状態になるまでを nvidia-smi -l で監視してみました。

消費電力はそれぞれ約350W、温度はMAXで78°Cとまずまずの結果になりました。

8xrtx3090-gpu-burn

Read more

ローカルLLMはAllegro/NeQUIPの学習設定YAMLを作れるのか:Nemotronでmetadata-only preflightを検証

ローカルLLMはAllegro/NeQUIPの学習設定YAMLを作れるのか:Nemotronでmetadata-only preflightを検証 これは性能ベンチマークではありません。A100x4上のローカルLLMで、Allegro / NeQUIPの学習設定YAMLをどこまで安全に作り、実行前に確認できるかを調べた機能検証です。 結論から言うと、NemotronはAllegro / NeQUIPのtraining YAML候補を生成できました。既存SIF内で torch / nequip / allegro のimport、A100x4のCUDA可視

By Kenetsu Hanabusa

ローカルLLMはHPC入力ファイルを作り、エラーを直せるのか:NemotronでQuantum ESPRESSOとLAMMPSを検証

ローカルLLMはHPC入力ファイルを作り、エラーを直せるのか:NemotronでQuantum ESPRESSOとLAMMPSを検証 この記事の位置づけ これは性能ベンチマークではなく、 ローカルLLMがHPC入力ファイルの生成、実行ログを使った修正、再実行まで支援できるか を確認した機能検証です。 H200 NVLやRTX PRO 6000 Blackwellへの一般化はせず、次回以降の別フェーズとして扱います。 結論 A100 80GB x4上で NVIDIA-Nemotron-3-Nano-30B-A3B-BF16 をローカル配信し、Quantum

By Kenetsu Hanabusa