本研究提出了一种新的模型(MT-CGCNN),通过将CGCNN与基于多任务学习的转移学习相结合,成功预测形成能量、带隙和费米能级等多材料性质,取得了较CGCNN更好的效果,结果鼓励进一步开发多任务学习的机器学习方法来解决新材料发现中的挑战。
Nov, 2018
提出了一种基于图神经网络模型的最新、高效的多任务预测方法,结果表明,多任务学习可以提高模型性能,特别是数据点较少的数据集可以不需要数据增强,便能获得较好的效果,并且能显著减小模型的方差。
Oct, 2019
本研究提出了一种多模态框架,该框架将结构数据和文本描述结合起来进行分析,以更好地对材料进行建模并预测其性质。
Jun, 2023
该研究介绍了一种基于组成-结构双模态学习的多模态机器学习方法,用于提高实验测得的材料性质的学习和预测,同时通过数据增强技术,显著减小了材料性质的预测误差。
Aug, 2023
开发出一个名为TextEdge的基准数据集,包含了关于晶体结构及其性质的文本描述,并提出了一种名为LLM-Prop的方法,利用大型语言模型(LLMs)的通用学习能力,从晶体的文本描述中预测其物理和电子性质,并在预测带隙、分类带隙是否为直接或间接和预测晶胞体积方面的性能优于现有最先进的基于GNN的晶体性质预测模型。
Oct, 2023
多领域预训练为化学领域的属性预测带来了新的突破,特别是对于低数据任务,利用多样化的数据进行预训练可以提高性能和泛化能力。
材料科学中的人工智能通过提高性能预测和加速新材料的发现,革命了这一领域。通过多模态对齐在共享潜在空间中连接高维材料性质,我们介绍了多模态学习结晶材料(MLCM)的基础模型训练新方法,展示了MLCM在多个方面的实用性,并在材料科学领域中引入了人工智能革命的创新。
Nov, 2023
从晶体结构预测材料的物理性质是材料科学中的一个基本问题。本文介绍了一种无限连接的注意力网络,可以在一个深度学习的特征空间中执行无限的原子间势能求和,并提出了一种名为Crystalformer的基于Transformer的编码器架构,它只需要原有Transformer架构的29.4%参数,但在不同的性质回归任务中都表现出比现有方法更好的结果。
Mar, 2024
利用基于注意力机制的神经网络和元学习算法,研究在材料科学领域中使用外推模型,以加速新材料的发现。
本研究解决了大型语言模型(LLMs)在材料和分子属性回归任务中的应用问题。通过对Meta AI(LLaMA)3进行微调,使用仅基于组成的输入字符串预测分子性质,结果显示,该模型在某些任务上与传统材料属性预测模型相媲美,尽管其误差仍高于现有最优模型。这一发现表明LLMs的多功能性,展示了其在化学和材料科学等领域的潜在应用价值。
Sep, 2024