- 从长期存在的问题到新兴的困境剖析大型语言模型的伦理
本文全面调查了与大型语言模型(LLMs)相关的伦理挑战,从长期存在的问题,如侵犯版权、系统性偏见和数据隐私,到新兴问题,如真实性和社会规范。我们批判性地分析了现有研究,旨在理解、审查和减轻这些伦理风险。我们的调查强调了将伦理标准和社会价值融 - 语言模型在自动化心理医疗中的风险:伦理和实施结构
通过对有关心理健康支持的批判性问题的评估,本文提出了一个结构化框架,旨在应对与自主任务 AI 在心理健康领域的发展所相关的伦理和实际挑战,并定义了 AI 代理在支持心理健康方面的等级自主性、伦理要求和有益的默认行为。此外,评估了十种先进的语 - 推进以诚信为核心的人工智能:神经机器翻译中的道德挑战和解决方案
该论文讨论了神经机器翻译系统中人工智能所面临的伦理挑战,强调开发人员确保公平性和文化敏感性的必要性。通过实证研究和文献综述,我们考察了神经机器翻译开发的各个阶段中涉及的伦理问题,包括数据处理、隐私、数据所有权和同意。此外,我们还研究了正义和 - 谷歌 AI 系统的反社会类似行为、对齐性和人类影响:通过修改后的反社会行为准则、人类互动、独立 LLM 分析和 AI 自我反思进行评估
谷歌的人工智能系统表现出反社会人格障碍的模式,引发了对其人类影响的启发式价值、人工智能道德和伦理指导方针以及道德行为监督的综合讨论。
- 鹰:真实互动的伦理数据集
本研究通过从 ChatGPT 与用户之间的真实交互中提取出具有社会偏见、毒性和不道德问题的 Eagle 数据集,实验结果表明 Eagle 捕捉到了现有用于评估和缓解这些道德挑战的数据集所没有覆盖到的互补方面。
- 对抗性人工智能
超从众 AI 和对立 AI 之间的对比,探讨了对立 AI 给用户带来的潜在好处,并讨论了对立 AI 设计中的伦理挑战。
- 互动伦理学:减轻 LLM 中的安全威胁
通过探讨语言学习模型的安全威胁,本文全面研究了一系列涉及伦理道德的挑战,包括数据安全、隐私保护等问题,提出了一种定制的评估工具,用于加强语言学习模型的后端系统,并在测试阶段评估其伦理维度与社会伦理价值之间的一致性。
- 文化响应人工智能─问题、挑战和解决方案
本文探讨了人工智能算法的社会文化和伦理挑战,强调了它们文化响应式发展的必要性,并提出了提高人工智能系统适应当代多元文化社会需求的关键元素的建议。本文还强调了进一步跨学科研究的必要性,以有效解决这些挑战,并强调了在人工智能培育和推动文化责任的 - 自动化法律主体的伦理
自动化法官的角色在普通法律制度中引发了困难的伦理挑战,因此当前的法律 NLP 模型不应该用于自动化法官的职责。
- ChatGPT 在高等教育中的伦理影响:一项范围审查
这篇论文探讨了在高等教育领域使用 ChatGPT 所面临的伦理挑战,并使用 Arksey 和 O'Malley 的研究框架,结合 DeepMind 的伦理问题框架,通过分析相关研究,明确了 AI 在教育中的六个主要伦理问题,强调了信息错误和 - 大型语言模型在教育中的实际和伦理挑战:系统文献综述
本文对基于大型语言模型的教育技术创新进行了系统文献综述和理论分析,并提出了以人为本的开发推荐,以解决基于大型语言模型的教育任务自动化可能带来的实际和伦理挑战。
- 关于复杂大型语言模型的窘境(和优势)
利用大型语言模型的自然语言处理是人工智能研究的一个繁荣领域。虽然神经网络已经证明在基于模式识别的游戏和实际领域中可以超越人类,但过度依赖 LLMs 会带来严重的风险,其中包括被用于生产虚假信息。这也引发了新的伦理挑战和各种类型的欺诈。
- 数字医疗伦理:医疗物联网设计中的伦理路径
本文讨论数字医学面临的伦理挑战,强调医疗器械的伦理设计、部署和操作的重要性,并提倡利用教育、可编程的伦理行为和伦理分析框架等方法来预防错误和持续推动数字医学设备的伦理创新、设计和生命周期管理。
- 不要 “快速研究破坏事物”:关于计算社会科学伦理的探讨
本文提出在 CSS(Comparative Survey Science)研究活动和环境中设定实用的限制,以确保 CSS 研究是道德、可信和负责任的,并指出在 CSS 实践中应当全方位地融入负责任的研究和创新(RRI)习惯。为了实现这些目标 - 数字世界中的伦理剖析
Exosoul 项目旨在开发一种个性化软件外骨骼,根据用户的道德偏好来调节数字世界中的行动,首先通过自上而下的方式识别道德偏好,然后通过个性化的数据驱动方法进行改善,论文探讨了两种聚类方法,结论以此来提高数字行为的预测能力。
- 面对在线滥用语言:从道德和人权角度的调查
本文主要基于八项伦理原则,即:隐私、问责、安全、可透明、公平和非歧视、技术的人类控制、专业责任、人权的促进,回顾了基于自然语言处理(NLP)的网络滥用内容检测的研究,并提出了权利尊重的社会技术解决方案来检测和对抗线上滥用。
- ACL演绎伦理在自然语言处理中的案例研究
本文从自然语言处理的角度,研究了康德的义务论伦理学中的普遍化原则和知情同意的尊重,提供了四个案例研究,以说明这些原则如何与自然语言处理系统结合。同时提出了避免这些系统中的道德问题的建议。
- MM公平感知在线个性化
本文针对在线个性化设置中排名的公平性问题,从公平的机器学习模型开始,探讨了在线个性化如何导致模型不公平,并提出了一种基于正则化的方法来缓解机器学习中的偏差。
- MMAI 与无障碍:道德考虑的讨论
本文从残障人群的需求入手,探讨了如何通过 AI 技术来解决其面临的较多的无障碍性障碍问题;同时,哪些道德问题需要被考虑到才能实现真正的包容性。
- 高风险公共部门决策中算法支持的公平性与问责设计需求
通过对 5 个经济合作与发展组织国家的 27 名公共部门机器学习从业者进行访谈,本文探讨了在算法决策应用,如税收、司法和儿童保护中如何理解和注入公共价值观。结果显示出在当前可用、透明和 “区分度感知” 的机器学习研究中,缺乏组织和机构现实、