Research Note Ep0: LLZO + Li + ML-IAP + Allegro

Research Note Ep0: LLZO + Li + ML-IAP + Allegro このページは notes(MkDocs)版へ移行中です。 TL;DR LLZO短絡問題に対し、 QE × ML-IAP(Allegro/NequIP) × LAMMPS で「再現可能に回る」ワークフローを作る導入編です。 DeepMD系ワークフローを土台にしつつ、 E(3)等価 なモデル(Allegro)へ移行する理由と評価観点を整理します。 まずは 粒界(grain boundary)でのLi偏析・局在 を前駆現象として定量化し、後続で界面シナリオへ接続しま

Share

Research Note Ep0: LLZO + Li + ML-IAP + Allegro

<!-- SG-POST-STUB-START -->

このページは notes(MkDocs)版へ移行中です。

TL;DR

  • LLZO短絡問題に対し、QE × ML-IAP(Allegro/NequIP) × LAMMPS で「再現可能に回る」ワークフローを作る導入編です。
  • DeepMD系ワークフローを土台にしつつ、E(3)等価なモデル(Allegro)へ移行する理由と評価観点を整理します。
  • まずは 粒界(grain boundary)でのLi偏析・局在 を前駆現象として定量化し、後続で界面シナリオへ接続します。

このシリーズのワークフロー(全体像)

  • QE: DFTデータ生成(構造/エネルギー/力/応力)
  • 変換: 学習用フォーマット(extxyz等)へ整形
  • 学習: NequIP/Allegro(PyTorch)でトレーニング
  • AI-MD: LAMMPS(Kokkos)で条件スイープ・長時間MD
  • 解析: 偏析/拡散/局在などを解析し、必要なら3D可視化

このページで得られること

  • 「何をどの順番で準備すればAI-MDが回るか」の地図
  • 4GPU/8GPUの考え方(どこがボトルネックになりやすいか)
  • 次に読むべきページ(Ep1/Ep2/解析)の導線

次に読むページ

相談・見積

お問い合わせ

<!-- SG-POST-STUB-END -->

---

Read more

ローカルLLMはAllegro/NeQUIPの学習設定YAMLを作れるのか:Nemotronでmetadata-only preflightを検証

ローカルLLMはAllegro/NeQUIPの学習設定YAMLを作れるのか:Nemotronでmetadata-only preflightを検証 これは性能ベンチマークではありません。A100x4上のローカルLLMで、Allegro / NeQUIPの学習設定YAMLをどこまで安全に作り、実行前に確認できるかを調べた機能検証です。 結論から言うと、NemotronはAllegro / NeQUIPのtraining YAML候補を生成できました。既存SIF内で torch / nequip / allegro のimport、A100x4のCUDA可視

By Kenetsu Hanabusa

ローカルLLMはHPC入力ファイルを作り、エラーを直せるのか:NemotronでQuantum ESPRESSOとLAMMPSを検証

ローカルLLMはHPC入力ファイルを作り、エラーを直せるのか:NemotronでQuantum ESPRESSOとLAMMPSを検証 この記事の位置づけ これは性能ベンチマークではなく、 ローカルLLMがHPC入力ファイルの生成、実行ログを使った修正、再実行まで支援できるか を確認した機能検証です。 H200 NVLやRTX PRO 6000 Blackwellへの一般化はせず、次回以降の別フェーズとして扱います。 結論 A100 80GB x4上で NVIDIA-Nemotron-3-Nano-30B-A3B-BF16 をローカル配信し、Quantum

By Kenetsu Hanabusa