MeTooMaastricht:建立协助性骚扰幸存者的聊天机器人
本文介绍面向聊天机器人的查询理解决方案,包括基于层次化意图的请求分类和使用序列生成模型,以及综合性组件的集成,如成人/攻击性分类、语法/正则表达式、引导性反应和响应生成模型,以解决这一难题。
Nov, 2018
本研究首次对三种对话人工智能系统(包括一个开放域社交机器人、一个基于规则的聊天机器人和一个任务型系统)搜集到的辱骂语言进行了英语语料库研究,发现这些系统面临着更多性侵犯色彩的攻击,并进一步测试了现有模型表现,发现F1得分不到90%。
Sep, 2021
本文通过收集并比对来自不同领域的问题,得出了Human ChatGPT Comparison Corpus (HC3)数据集,并评估了与人类专家相比ChatGPT的回答特点和差异,还提出了未来LLMs的研究方向,最终建立了三个不同的检测系统以检测ChatGPT的生成文本。
Jan, 2023
本文探讨了一种人工智能聊天机器人ChatGPT,它可以生成类似人类的句子并撰写连贯的文章,并强调了它在医疗、教育和研究等不同领域的潜在应用,同时指出了与ChatGPT相关的隐私和伦理问题、重要局限和ChatGPT的观点和回答。
Feb, 2023
研究着眼于Reddit社交媒体平台上性骚扰幸存者经常发布的长篇帖子,提出了一种基于自然语言的模型来从帖子中提取关键信息的解决方案,并开发了包含8,947个标记句子的数据集MeThree,应用LIWC-22工具包了解不同语言模式在情感色彩、真实性和其他方面的差异。
Mar, 2023
研究使用 ChatGPT 与 MTurker注释进行 HOT分类, 结果显示 ChatGPT 的准确率约为 80%,且分类方式比人工注释更一致,但其对“毒性”的分类大于对“仇恨”和“冒犯”的分类。研究结果对于使用生成式 AI 模型监管社交媒体上的大量用户生成内容具有重要意义。
Apr, 2023
本文旨在探究聊天机器人的输入复制和反刍能力,并通过直接指示来遵守HIPAA和GDPR等规定,限制复制,以减少隐私风险。通过概括100名应聘者的求职信,我们发现ChatGPT在57.4%的情况下会保留PII,并发现在不同的人员子群组之间存在非统一的差异,然而,通过指示,我们也发现ChatGPT在输出中能够显著省略PII。
May, 2023
本文探讨了聊天机器人从ELIZA到GPT-4的发展历程及其工作机制,分析了聊天机器人所面临的网络安全威胁和漏洞,阐述了聊天机器人对诸如恶意代码、网络钓鱼邮件、零日攻击和宏和LOLBIN的生成等网络安全问题所带来的风险和漏洞,进而探讨了应对这些威胁和漏洞的具体策略和措施。
May, 2023
在后疫情时代,社交隔离和抑郁焦虑率上升之际,基于数字心理治疗的对话型代理与传统治疗相比,在引导用户自我依恋方面具有重要影响力。本研究开发了一个语音聊天机器人,用于指导用户进行一种基于依恋理论的自我依恋(SAT)全面心理技术。我们的聊天机器人使用一系列基于规则和分类的模块来理解用户输入,并据此导航对话流程图,根据用户的情感和心态状态推荐适当的SAT练习。我们收集了超过6,000个断语的数据集,并开发了一种新颖的情感分析模块,将用户情感分为12个类别,准确率超过92%。为了保持对话的新颖性和吸引力,聊天机器人的回复是从使用Farsi GPT-2和强化学习方法辅助构建的大型断语数据集中检索得到的,因此需要最少的人工标注。我们的聊天机器人还提供了一个名为SAT Teacher的问答模块,用于回答用户关于自我依恋原则的问题。最后,我们设计了一个跨平台应用作为机器人的用户界面。我们在一个为期十天的人类研究中对平台进行了评估,共有52名非临床人口的志愿者参与了超过2,000次对话。结果表明,大部分用户(75%)表示对平台很感兴趣,72%的用户在与聊天机器人互动后感觉变得更好,74%的用户对SAT Teacher的表现感到满意。
Oct, 2023