Ep1: LLZO/Li interface(DFT + ML-IAP + Allegro)

Ep1: LLZO/Li interface(DFT + ML-IAP + Allegro) このページは notes(MkDocs)版へ移行中です。 TL;DR LLZO/Li 界面を題材に、 QE(DFT)→ 学習データ → Allegro/NequIP 学習 → 推論/AI-MD へ繋ぐ「界面編」です。 つまずきやすいのは 界面モデルの作り方(構造の整合) と 学習データのバランス(界面/バルク/欠陥など) です。 まずは「小さく完走する」最小構成を作り、必要に応じてサンプル数・バリエーションを増やします。 このページで得られること 界面(inte

Share

Ep1: LLZO/Li interface(DFT + ML-IAP + Allegro)

このページは notes(MkDocs)版へ移行中です。

TL;DR

  • LLZO/Li 界面を題材に、QE(DFT)→ 学習データ → Allegro/NequIP 学習 → 推論/AI-MD へ繋ぐ「界面編」です。
  • つまずきやすいのは 界面モデルの作り方(構造の整合)学習データのバランス(界面/バルク/欠陥など)です。
  • まずは「小さく完走する」最小構成を作り、必要に応じてサンプル数・バリエーションを増やします。

このページで得られること

  • 界面(interface)を含むDFTデータ作成の進め方(最小)
  • 学習データとして破綻しないためのチェック観点
  • Ep0/Ep2 との接続(シリーズとしての読み順)

最小パイプライン(全体像)

  • 界面モデル作成(LLZO + Li、整合・固定層・真空/周期条件など)
  • QEでDFT計算(構造/エネルギー/力/応力)
  • 学習データ整形(extxyz等、原子種・単位・応力の整合)
  • Allegro/NequIP 学習(小規模で完走確認 → 本学習)
  • 推論・評価(界面近傍での誤差/安定性を確認)
  • 必要に応じて LAMMPS 連携(AI-MDで挙動確認)

典型的な設計ポイント(メモ)

  • 界面モデル:原子重なり/不自然な近接がないか、固定層の扱い
  • データ:界面だけに偏らない(バルク・欠陥・表面などを混ぜるか検討)
  • 受け入れテスト:第三者が同じ手順で再現できる最小ジョブを用意

次に読むページ

相談・見積

お問い合わせ

---

Read more

ローカルLLMはAllegro/NeQUIPの学習設定YAMLを作れるのか:Nemotronでmetadata-only preflightを検証

ローカルLLMはAllegro/NeQUIPの学習設定YAMLを作れるのか:Nemotronでmetadata-only preflightを検証 これは性能ベンチマークではありません。A100x4上のローカルLLMで、Allegro / NeQUIPの学習設定YAMLをどこまで安全に作り、実行前に確認できるかを調べた機能検証です。 結論から言うと、NemotronはAllegro / NeQUIPのtraining YAML候補を生成できました。既存SIF内で torch / nequip / allegro のimport、A100x4のCUDA可視

By Kenetsu Hanabusa

ローカルLLMはHPC入力ファイルを作り、エラーを直せるのか:NemotronでQuantum ESPRESSOとLAMMPSを検証

ローカルLLMはHPC入力ファイルを作り、エラーを直せるのか:NemotronでQuantum ESPRESSOとLAMMPSを検証 この記事の位置づけ これは性能ベンチマークではなく、 ローカルLLMがHPC入力ファイルの生成、実行ログを使った修正、再実行まで支援できるか を確認した機能検証です。 H200 NVLやRTX PRO 6000 Blackwellへの一般化はせず、次回以降の別フェーズとして扱います。 結論 A100 80GB x4上で NVIDIA-Nemotron-3-Nano-30B-A3B-BF16 をローカル配信し、Quantum

By Kenetsu Hanabusa