BriefGPT.xyz
Ask
alpha
关键词
attention-based transformers
搜索结果 - 4
YZS 模型:基于图卷积网络和 Transformer-Attention 的有机药物溶解度预测模型
通过引入深度学习框架,结合基于注意力机制的转换器、长短期记忆神经网络和图卷积网络,我们的研究旨在提高溶解度预测的准确性,为药物设计和选择提供新的见解和支持,为药物发现中的深度学习发挥重要作用展示了巨大潜力。
PDF
9 days ago
突破注意力瓶颈
通过开发一种生成函数来解决基于关注机制的注意力变量效率低的问题,该方法在处理变长输入序列和建模长程依赖方面具有更小的模型和更小的损失。
PDF
20 days ago
一种用于遥感图像变化描述的轻量级 Transformer
提出了一种稀疏聚焦变换器用于遥感图像变化编码任务,通过在变换器编码中引入稀疏注意机制,降低参数数量和计算复杂度,与其他最先进的遥感图像变化编码方法相比,仍能获得竞争性性能。
PDF
2 months ago
借助马尔科夫链的注意力:通过马尔科夫链分析 Transformer 的原则框架
通过马尔可夫链的角度研究变压器的序列建模能力,并在理论和实验上研究数据分布特性、变压器结构、学习分布和模型性能之间的相互作用。
PDF
5 months ago
Prev
Next