返回列表 发布新帖
查看: 88|回复: 0

[AI材料预测] 晶体材料AI混合生成模型FlowLLM

231

帖子

517

积分

53

金币

中级会员

积分
517
发表于 2025-8-1 21:18:27 | 查看全部 |阅读模式
本帖最后由 casjxm 于 2025-8-1 21:21 编辑

FlowLLM是一种用于晶体材料生成的混合生成模型,通过结合大型语言模型(LLMs)和黎曼流匹配(RiemannianFlow Matching, RFM)技术,显著提升了生成稳定、新颖材料的效率。
一、核心思想:融合LLMRFM的互补优势
  • 问题背景
    • 材料发现需同时生成离散变量(原子类型)和连续变量(原子位置、晶格参数),传统方法(如扩散模型或纯LLMs)存在局限:
      • LLMs擅长离散建模但难以精确处理连续值(受限于有限精度表示)。
      • 扩散模型/RFM擅长连续建模但难以处理离散元素,且条件生成灵活性不足。
    • FlowLLM通过两阶段设计解决该问题:      
      • LLM作为基础分布:学习材料文本表示的潜在分布,提供高质量初始样本。
      • RFM作为优化器:在原子坐标和晶格参数的流形空间中迭代优化LLM输出。
  • 创新点
    • LLM基础分布替代均匀分布:通过化学文本预训练,LLM生成的初始分布更接近目标材料分布,简化RFM的收敛过程。
    • RFM的几何感知优化:在晶体对称性约束下(如平移、旋转不变性),RFM修正LLM在连续空间中的近似误差。
二、工作流程:两阶段生成与优化
  • 阶段1LLM生成初始材料
    • 输入:无条件提示(如生成材料)或条件提示(如生成高带隙钙钛矿)。
    • 文本表示:原子类型(如Na, Cl)、分数坐标(如[0.25, 0.25, 0.25])、晶格参数(如a=5.6Å, α=90°),精度保留2位小数
    • 模型:基于LLaMA-2 70B微调,使用LoRA适配器降低计算成本。

  • 阶段2RFM几何优化
    • 输入转换:将LLM输出的文本转换为图结构(原子为节点,边表示相对位置)。
    • 黎曼流匹配
      • 在分数坐标空间(三维环面流形 F)和晶格参数空间(L)定义测地线路径。
      • 通过图神经网络(GNN)预测速度场​​,强制满足旋转、平移对称性。
      • 仅需50-250步积分(远低于扩散模型的1000+步),大幅降低计算成本。
三、技术优势:突破性性能提升
  • 对称性处理
    • LLM通过IPT(变换后困惑度增量)近似满足晶体对称性。
    • RFMGNN架构严格保证旋转不变性置换等变性,避免无效生成。
  • 效率与质量
    • 高稳定性:生成材料中17.82%为热力学稳定(Ehull < 0),较此前最优模型(FlowMM5.28%)提升300%
    • 高新颖性S.U.N.(稳定、唯一、新颖)材料生成率达4.92%,提升50%
    • 低松弛成本94.9%生成结构接近基态(RMSD0.023Å),DFT松弛步数减少80%
[td]  
   模型   稳定性率(%   SUN率(%   RMSDÅ   DFT松弛步数
  FlowMM    5.28    -    0.096  191.98
  ​FlowLLM  ​17.82  ​4.92  ​0.023  ​37.97

  • 条件生成灵活性
    • 支持自然语言提示(如高效太阳能转换的钙钛矿),无需修改模型架构。
四、实验验证:显著超越SOTA​
  • 数据集与评估
    • 训练数据:Materials ProjectMP-20)的45,231种亚稳态材料。
    • 评估指标:
      • 核心指标:稳定性率(Ehull < 0)、SUN率。
      • 代理指标:结构有效性(>99%)、成分有效性(>89%)。
  • 关键结果
    • 稳定性分布FlowLLM生成更多低Ehull材料,突破传统方法瓶颈。
    • 组分多样性N-ary分布与真实数据匹配,避免扩散模型的高组分偏好。
总结
FlowLLM通过LLM生成初始分布RFM几何优化的结合,解决了材料生成中离散-连续混合建模的难题,在稳定性(300%↑)和计算效率(松弛成本降低80%)上取得突破。其自然语言接口和开源实现(GitHub链接)为加速材料发现(如新能源、碳捕获)提供了新范式。未来工作可探索端到端可微设计以支持逆向优化。

引用:
A. Sriram, B. K. Miller, R. T. Q. Chen andB. M. Wood, FlowLLM: Flow Matching for Material Generation with Large LanguageModels as Base Distributions, arXiv, 2024, preprint, arXiv:2410.23405, DOI:10.48550/arXiv.2410.23405.

您需要登录后才可以回帖 登录 | 注册

本版积分规则

  • 微信小程序
  • 公众号
  • 微信客服

关于我们|Archiver|APP客户端|小黑屋|物质结构社区 ( 闽ICP备2024081439号-1 )

GMT+8, 2025-9-8 15:42 , Processed in 0.015091 second(s), 5 queries , Redis On.

Powered by Discuz! X5.0

© 2001-2025 Discuz! Team.

在本版发帖
科研需求联系客服
添加微信客服
返回顶部
快速回复 返回顶部 返回列表