声音传递健康信息中加强强调和暂停的效果
本研究旨在利用自然语言处理技术自动翻译难懂的句子,从而提高患者教育材料的健康素养水平。该实验使用四个在线医疗健康信息网站上的患者教育材料,通过训练 Bidirectional Long Short-Term Memory(BiLSTM)NMT 模型、Bidirectional Encoder Representations from Transformers(BERT)-based NMT 模型,验证了 NMT 模型在翻译健康领域文本中的有效性。
Sep, 2022
研究探讨了数字媒体平台上慢性病(糖尿病)视频的候选人群中人口统计学特征的偏见,并通过对其元数据进行高级分析方法的应用,探讨了负责任和代表性的建议是否能够生成。
Jul, 2022
我们提出了四项用于估计长文档信息密度的标准,包括惊讶度、熵、均匀信息密度和词汇密度,并提出了一种基于注意力的临床笔记词语选择方法和多领域文档的机器摘要方法。实证结果表明不同领域的长文本信息密度存在系统差异,基于注意力的词语选择方法对于长临床笔记的自动医学编码具有有效性。
Sep, 2023
在电子健康记录上进行多模态模型的预训练可以学习表示,以最小的监督进行下游任务的转移。最近的多模态模型在图像区域和句子之间引入了软局部对齐,这对医疗领域非常有意义,但标注结果发现图像区域与句子之间的关注并不一致。一些简单的技术,如允许模型退出图像的关注和少量微调,可能有望改善对齐,减少对人工干预的依赖。
Oct, 2022
本文介绍了一个新的自动生成生物医学科学综述文献简化版的任务,并通过分析各种挑战,实验和评估,展示了使用现代神经架构自动生成的简化版摘要可以达到良好的质量和可读性。
Dec, 2020
通过自然语言处理,介绍了一种新的交互式界面 Paper Plain,该界面包含四个功能,可为医学文献的阅读提供完善的辅助功能,包括生词释义、平易近人的章节概括以及相关问题,研究表明使用 Paper Plain 的参与者在阅读和理解医学文献方面相比于传统格式的 PDF 阅读器有更容易的体验而且不会降低理解难度,该研究成果表明,向读者提供相关章节引导并提供医学文献的中英文互译摘要可以使得阅读医学文献更加轻松,鼓励读者更多地接触这些文献。
Feb, 2022
使用大型语言模型(LLMs)提高儿童与其他人群的健康素养,通过改善健康沟通并在阅读级别上做出相应调整,但有挑战在六年级以下的创作输出。
Nov, 2023
本研究利用 Barthes Cardinal Functions 和 surprise 和理论为基础的无监督方法,将其应用于长篇叙事形式中,改进了标准 transformer 语言模型,通过引入 Retrieval Augmented Generation 的外部知识库和添加记忆机制来提高该语言模型在长篇作品中的性能,使用来自 Shmoop 语料库的章节摘要来推导显著性标注的新方法,针对这些数据进行的评估证明,与非知识库和记忆增强语言模型相比,我们的显著性检测模型提高了性能,这两者对于此改善至关重要。
Sep, 2021
该研究提出了一个名为 MedQA 的问答任务,使用大规模文档集中的知识研究临床医学中的问题解答。提出了一种基于 LSTM 网络和双路径注意力架构的模块化端到端阅读理解模型 SeaReader,其具有从两个角度建模信息流和同时读取和整合多篇文档的能力。实验证明,SeaReader 在 MedQA 上比竞争模型实现了大幅提高,同时开发了一系列新技术以展示 SeaReader 问题解答过程的解释。
Feb, 2018