未来的辩论机器人Debbie
本文介绍了一种名为“Spot The Bot”的聊天机器人评估框架,该框架使用“生存分析”作为度量标准,并通过与其他聊天机器人的比较,评估其在模拟人类会话行为方面的能力,以此取代传统基于人工评估的方式。
Oct, 2020
该研究使用了US2016辩论语料库来训练基于Transformer模型的种类,以推测不同参数下论据的关系,最终在五个不同领域中评价模型的性能,得出了极高的F1得分,并确定了相对不依赖特定领域的模型。
Nov, 2020
本文提出了一种名为‘历史问题解答’的框架(AIH),通过在聊天机器人之间进行对话来有效评估聊天机器人的一致性能力,并且可以利用自然语言推理模型来识别答案是否与历史矛盾。实验表明,该方法可以有效可靠地评估聊天机器人的一致性能力和得到与人类评价的高相关性。
Jun, 2021
本研究提出了一种新的任务,即通过重新编写具有说服力的论证描述来优化其传递方式,并使用序列到序列模型和上下文信息生成了候选的最优论证描述来改善传递,该方法在英语语料库上的自动和人工评估中胜过了其他重新排序基线,并且能够很好地推广到其他文本领域。
Dec, 2022
该研究对基于多个响应生成器的开放域对话系统进行了实验,使用了多种响应排序方法比较Athena-Heuristic和Athena-RR,结果显示Athena-RR表现最好,能够在对话中更准确地选择最佳响应。
Feb, 2023
UCSC's conversational agent, Athena 2.0, utilizes a novel knowledge-grounded discourse model for Amazon's Socialbot Grand Challenge 4, incorporating entity links, named-entity recognition, coreference resolution, and a user model for personalization.
Aug, 2023
本文介绍了SalesBot 2.0,通过使用大型语言模型的常识知识逐渐缩小闲聊和面向任务的对话之间的差距,构建了一个新的大规模数据集,提供了更加平滑的话题转换和更加接近人类自然性和一致性的对话,对学术研究和商业应用都具有重要价值,并提出了一种框架可以用于生成具有各种目标意图的对话。
Aug, 2023
该研究综述论述了基于计算论证的聊天机器人,在比较标准聊天机器人的优缺点的基础上,展望了其可能的未来发展和与基于Transformer架构和最先进的大型语言模型的整合。
Jan, 2024
应用大型语言模型(LLMs)进行API参数填充任务的研究表明,LLMs需要额外的基准过程以成功执行参数填充;提出的训练和提示框架显著改善了LLMs的参数填充性能,为构建自动化参数填充框架开辟了新的途径。
Jun, 2024