医疗文本的段落级简化
本文介绍了一个新的自动生成生物医学科学综述文献简化版的任务,并通过分析各种挑战,实验和评估,展示了使用现代神经架构自动生成的简化版摘要可以达到良好的质量和可读性。
Dec, 2020
本文研究了在医学领域中进一步提高文本简化可读性的方法,通过提出新的非概然性损失函数和重新排序的束搜索解码方法,在三个数据集上取得了更好的可读性指标表现,这些研究结果为改善医学领域的文本简化提供了有希望的途径。
Oct, 2023
使用大型语言模型改进自动化文档摘要,尤其在简化复杂技术文件、生成背景知识、评估文本中起到了重要作用,并在医学文章的简化和评估方面做出了创新性的工作。
Feb, 2024
本文提出了一个名为 bioSimplify 的文本简化方法,试图减少医学文献中的句子复杂度,从而提高句法分析器的性能。经测试,在使用简化后的句子进行分析时,Charniak-McClosky 句法分析器的性能提高了 2.90%,Link Grammar 句法分析器的性能提高了 4.23%。
Jan, 2010
本研究研究了预训练神经语言模型在医疗领域文本简化中的应用,引入了一个包含对齐的英文维基百科与简单英文维基百科句子的新的平行医学数据集,并比较了四个 PNLM(BERT,RoBERTa,XLNet 和 GPT-2),并演示了如何将待简化的句子的附加上下文合并以实现更好的结果(相对最佳单独模型提高 6.17% 的绝对值)。同时,我们介绍了一个组合模型,它结合了四个 PNLM,并且比最佳单独模型表现出 2.1% 的优越性,使得整体单词预测准确率达到 64.52%。
Oct, 2020
该研究提出了一种名为 NapSS 的自动文本简化方法,采用基于句子匹配的摘要生成和提取式摘要相结合的策略来帮助医学领域的非专业人士更好地理解专业文献,相对于基准策略,在保持原始叙述连贯性的同时提高了文本简化的词汇和语义相似性,实验结果表明该方法可以更有效地提高非专业人士的阅读效率。
Feb, 2023
本文系统总结了使用预训练语言模型( Pre-trained language models)的生物医学文本摘要的最新进展、挑战问题和未来方向,帮助我们更好地理解该领域的最新进展和使用预训练语言模型在生物信息学中的应用。
Apr, 2023
将最先进的大型语言模型应用于生物医学摘要简化的任务,通过领域微调、基于提示学习、控制令牌机制等方法进行了评估,发现 BART-Large with Control Token 机制在简单性得分上优于 T5-Base,而 T5-Base 在信息保留得分上优于 BART-Large with Control Token。
Sep, 2023