二、核心组件
DenseGNN的核心创新在于三个策略的协同优化:
1. Dense Connectivity Network (DCN)
DCN通过密集连接机制解决过平滑问题,提升信息流动:
o 每个图卷积层(GC layer)与前所有层直接连接(而非仅前一层),形成 L(L+1)/2 连接(L为层数)。
o 公式表示:xk=Hk([x0,x1,…,xk−1])),其中 Hk为非线形变换函数,xxx 表示边-节点-图特征。
o 优势:减少信息损失,实现隐式深度监督,支持构建超深网络(可达60层以上),且提升梯度流动效率。
2. Hierarchical Node-Edge-Graph Residual Networks (HRN)
HRN实现边、节点和图特征的同步更新,优化局部化学环境:
o 通过残差连接(Residual Connections)确保特征稳定性。
o 更新函数包括 ϕE(边特征)、ϕV(节点特征)、ϕG(图特征),结合多层感知机(MLP)和非线形激活函数(Swish)。
o 公式示例:
边更新:eijt+1=eijt+∑j,kσ([vit⊕vjt⊕uijt⊕eijt]W1t+b1t)
节点更新:vit+1=vit+∑j,kσ([vit⊕uijt⊕eijt]W2t+b2t)
图更新:uijt+1=uijt+∑j,kσ([vit⊕uijt⊕eijt]W3t+b3t)
3. Local Structure Order Parameters Embedding (LOPE)
LOPE优化原子嵌入,高效学习多体相互作用(如键角和局部几何畸变):
o 计算过程:基于径向分布函数(RDF)和高斯窗口函数,生成原子嵌入(atomic embeddings)和方向解析嵌入(orientation-resolved embeddings)。
o 公式关键:使用截断函数 f(r)=0.5[cos(πr/Rc)+1] 限制原子间作用范围(Rc为截断距离)。
o 优势:避免嵌套图网络的高开销,实现最小边连接(如KNN中k=6或12),在保持精度的同时降低训练成本。
三、模型架构细节
DenseGNN采用模块化设计,分为三个核心组件:
1. 输入嵌入块(Input Embedding Block)
o 节点嵌入:原子特征(原子序数、质量、半径等)通过 ϕV投影到128维空间。
o 边嵌入:使用K近邻(KNN, k=6或12)选择边,距离信息通过32个高斯函数(范围[0,8] Å)扩展,经MLP投影到128维。
o 图嵌入:全局状态(如温度)通过 ϕG更新(可选)。
o LOPE作为24维向量添加到节点特征,增强局部环境表示。
2. 图卷积处理块(GC Processing Blocks)
o 包含 T=5个顺序连接的GC块,每块独立可训练。
o 通过DCN实现边、节点和图特征的密集连接。
o 同步更新机制:边特征基于相邻节点和图状态更新,节点特征聚合边信息,图特征聚合全局信息。
3. 读出模块(Readout Module)
o 聚合节点、边和图特征,通过单层MLP(线性激活)生成图级预测(如晶体属性)。
o 训练细节:使用Adam优化器、线性学习率调度器,300个epoch。
四、性能优势与创新贡献
1. 卓越的性能表现
o 基准数据集:在Matbench、JARVIS-DFT、QM9、Lipop等数据集上达到SOTA(见表1示例)。
Matbench:在Jdft2d(剥离能)、Phonons(声子频率)等小数据集上MAE降低8-29%。
QM9分子属性:HOMO能隙等任务优于ALIGNN,接近DimeNet++。
o 效率:通过LOPE优化边连接,训练时间减少30-50%(如Perovskites数据集,DenseGNN-Lite训练时间仅0.6859秒/epoch vs. coGN的1.859秒)。
2. 解决过平滑问题
o DCN支持构建超深网络(>30层),性能随层数增加而提升(如15层DeeperDenseGNN在Log kvrh上MAE降低4.3%)。
o 消融实验:DCN贡献最大(MAE降低23.44%),LOPE次之(降低7.81%)。
3. 泛化与可扩展性
o 跨领域应用:DCN和LOPE策略提升其他GNN模型(如SchNet、GIN、HamNet)在Matbench上的性能(MAE降低3-41%)。
o 小数据集优势:DenseGNN-Lite在实验小数据集(样本量100-3000)上学习效率高,快速收敛。
4. 结构区分能力
o 利用预训练模型的结构嵌入,在Materials Project硅化合物分类中,准确率提升至80%(vs. MEGNet的40%),接近XRD标准方法。
引用:
Hongwei Du, Jiamin Wan1, Jian Hui, Lanting Zhang & Hong Wang, DenseGNN: universal and scalable deeper graph neural networks for highperformance property prediction in crystals and molecules, https://doi.org/10.1038/s41524-024-01444-x