现代 NLP 中 “人工智能闭锁问题” 的社会关切案例报告
利用大型语言模型的自然语言处理是人工智能研究的一个繁荣领域。虽然神经网络已经证明在基于模式识别的游戏和实际领域中可以超越人类,但过度依赖 LLMs 会带来严重的风险,其中包括被用于生产虚假信息。这也引发了新的伦理挑战和各种类型的欺诈。
Feb, 2023
本文论述叙事理解与生成有趣的文本是现代自然语言处理的核心难点之一,同时也是整个人工智能领域的难点,由于缺乏合适的数据集、评估方法和操作概念,使得研究者们难以着手进行叙事处理的工作。
Nov, 2022
本文使用 LSTM 结构,将 match-LSTM 方法引入进行单词级联匹配以预测自然语言推理中的矛盾或中性关系标签,并在 Stanford 自然语言推理数据集上表现出比其他深度神经网络方法更高的 86.1% 的准确率。
Dec, 2015
利用长短期记忆神经网络和交互设备,通过生成文本来辅助英语学习者的自学过程。通过英语水平测试,初步结果显示与系统互动的学习者的语法范围有所增加。
Sep, 2023
本研究探讨了 OpenAI 和 New Bing API 应用中集成的大型语言模型对隐私的威胁,通过实验支持了对应用集成的 LLM 可能带来比以前更严重的隐私威胁的观点。
Apr, 2023
本文介绍了一种基于 OpenAI GPT-3 语言模型的机制,利用大型语言模型的叙述输出生成图表或 “地图”,旨在提供对模型中信息,观点和信仰组织方式的洞察,进而提供理解物理距离下意图和响应的手段。研究问题以及具体实现方法的讨论涉及了信息空间映射,命令意图的推断和下级意图评估,并证明了所提出方法的有效性。
Feb, 2022
本文研究大型语言模型(LLMs)对人工智能研究的影响。通过以 GPT3.5 / ChatGPT3.4 和 ChatGPT 4 为例,我们展示这些模型具有什么样的功能,并且这些模型令人们瞩目的领域覆盖速度证明了这个趋势正在逐渐变成实现通用智能的强劲迹象。这些模型的创新也将随着这些人工智能系统的成熟而扩大,并将展示出在我们社会的多个方面具有重要影响的不可预见的应用。
May, 2023
本文提出了一种新方法,通过追踪给定输出对 LSTM 的给定输入的重要性来识别一致重要的单词模式,从而将其简化为一组代表性短语,并基于这些短语构造了一个简单的基于规则的分类器,从而近似于 LSTM 在情感分析和问题回答上的输出。
Feb, 2017
提出了一种基于 NLP 和 GPT-3 的领域不可知的自然语言交互框架,可以从自述性的日志文本中提取信息,解决了自我追踪设计空间广阔且追踪主题和数据格式多样化的挑战。研究显示,该方法明显优于基线 QA 模型,为未来 NLP 与 HCI 领域的合作提供了前景。
May, 2022