BriefGPT.xyz
Ask
alpha
关键词
long dependencies
搜索结果 - 2
RoBERTa-BiLSTM:一种用于情感分析的上下文感知混合模型
通过结合 RoBERTa 和 BiLSTM 网络的 RoBERTa-BiLSTM 混合深度学习模型,在情感分析中实现更好的性能。
PDF
a month ago
Counting-Stars: 评估长上下文大语言模型的简单、高效和合理策略
近期的研究工作集中在开发具有强大的长上下文能力的大型语言模型(LLMs),由于缺乏适当的评估策略,对于领先的 LLMs(例如 ChatGPT 和 KimiChat)的长上下文处理能力和性能了解甚少。为了填补这一空白,我们提出了一种简单、高效
→
PDF
4 months ago
Prev
Next