BriefGPT.xyz
大模型
Ask
alpha
关键词
global contexts
搜索结果 - 4
重新思考轻量级非局部神经网络中 Softmax 的有效性
本文通过实验证明 NL block 中 softmax 操作效率低下,提出使用 scaling factor 来优化 attention maps,取得了在 CIFAR-10、CIFAR-100 和 Tiny-ImageNet 数据集上的改
→
PDF
2 years ago
草稿与修订:基于上下文 RQ-Transformer 的有效图像生成
该研究提出了一种有效的基于文本上下文和全局语境的图像生成框架,名为 Draft-and-Revise with Contextual RQ-transformer,通过 Contextual RQ-transformer 考虑图像全局上下文
→
PDF
2 years ago
TransFuse:将 Transformer 和 CNN 融合用于医学图像分割
本文介绍了用于医学图像分割的 TransFuse 并行网络结构,将 Transformers 和 CNNs 并置,以有效地捕捉全局依赖关系和低级别空间细节,且使用了一种新的特征融合方法 —BiFusion 模块来融合两个分支的多级特征。实验
→
PDF
3 years ago
EMNLP
神经机器翻译的文档图
利用图形化表示法将文档作为全局语境,并将其整合到传统的变压器架构中,结合多种关系,包括邻接,句法依赖,词汇一致性和指代,能够显著提高神经机器翻译的性能。
PDF
4 years ago
Prev
Next