富士通がニューラルネットワーク力場を提供へ

独自のアクティブラーニング採用、大規模・長時間解析に対応

 2025.09.08−富士通は、第一原理計算結果を機械学習して、高精度な材料シミュレーションを超高速に実行するニューラルネットワーク力場(NNP)作成ツール「GeNNIP4MD」を開発した。訓練データセットの作成や、機械学習モデルに対する訓練と結果の評価、性能が十分でない場合のデータ拡張など、繁雑な作業手続きやそのための専門的なノウハウが必要だが、このツールを利用すれば自動的にNNPを作成することが可能。アクティブラーニングなど精度を高めるための同社独自の工夫も盛り込んでおり、個別ユーザーとのPoC(概念実証)/PoV(価値実証)プロジェクトを通して実用化を図っている。

 「GeNNIP4MD」は、独自の訓練データ生成技術(アクティブラーニング)を利用し、精度と高速性を両立したNNP(DeePMDベース)を生成できることが特徴で、原子数が多い大規模系で安定した長時間の分子動力学(MD)計算を実施できる。例えば、燃料電池の高分子電解質膜として使われる含水ナフィオン(約2万原子)を対象に、30ナノ秒間のMDを8日間流した実績がある。これにより、含水率依存性の実験傾向を再現できた。ただ、通常のNNPであれば、この規模の長時間シミュレーションには耐えられず、途中で分子が崩壊してしまうという。古典MD計算と違って化学反応を考慮できるという特徴もあり、最近では半導体表面(固液界面)のエッチング過程の評価・解析にも挑戦しているということだ。このように、実験的には観測が難しい現象にも光を当てることができる。

 実際のNNP作成においては、ユーザーは自分のターゲット材料に関係した初期データを作成し、DeePMDをベースにNNPの訓練を行う。十分に高い予測精度が出ていない場合は、アクティブラーニングによる追加学習を実施することになる。これは、少ない訓練データ数で精度向上を実現する技術で、予測値の分散による選別(未学習の領域にありそうな訓練データを選び出す)と、構造特徴量による選別(すでに学習した構造と似ていない構造を選び出す)という2種類の選別方法で追加したデータに対して第一原理計算を行い、モデル精度を高めていく。

 さらに、OpenCatalystやM3GNetなどの事前学習済みモデルを利用して、ターゲット材料に特化したNNPモデルを訓練する独自の“知識蒸留”により、ゼロから訓練するよりも全体の計算コストを下げながら、高精度・高速NNPを実現することができた。リチウムイオンの自己拡散係数を予測した例で、NNP生成時間は約3倍の高速化、公開事前学習済みモデルよりも最大46倍の計算速度を引き出したと報告している。

******

<関連リンク>:

富士通(Fujitsu Tech BLOG)
https://blog.fltech.dev/entry/2025/05/26/gennip4md-paper-ja


ニュースファイルのトップに戻る