人机协作 AI 用于作弊团伙检测
我们探索了一种人机交互界面的设计,使得普通用户可以识别潜在的公平问题并在贷款决策的背景下解决它们,为评判和解决人工智能的公平性做出贡献。
Apr, 2022
提出一种基于客户端的远程监考系统,利用物体检测、人脸识别、声音检测和分割等子模块来提高在线监考的效果,避免了服务器成本,并首次应用于招聘过程中的在线考试,以应对新冠疫情带来的在线考试作弊问题。
Nov, 2023
通过社会理论中有关种族的连接,本文提出了一种名为包容人像(Inclusive Portraits)的新方法,改善了人工参与(HITL)系统在面部验证中的性能,并突出了在设计 HITL 系统时考虑个体工作者特点的重要性,而不是将工作者视为同质群体。此研究对于开发更具包容性和公平性的 AI 增强服务具有重大的设计意义。
Nov, 2023
该研究探讨了可解释人工智能技术在研究模型预测方面的应用,提出了一种数学近似方法,建立了人在回路中的查询策略和端到端工作流程的普遍形式化,从而使我们可以严格比较这种使用方法与标准主动学习算法的优劣,同时允许工作流程的扩展,并通过模拟来评估其实用价值,同时展示了一些初步的有前途的结果。
Jun, 2023
在线问卷调查、众包平台、人工智能、数据质量和自动 AI 检测系统是研究论文的关键词。该研究测试了人工智能生成的文本是否能被人类和自动化 AI 检测系统发现,结果表明人类的正确识别率还不足以确保满意的数据质量,而自动化 AI 检测系统目前是完全不可用的。如果人工智能在提交回应方面过于普及,检测欺诈性提交的成本将超过在线问卷的益处,个别的注意力检查将不再足以确保良好的数据质量,这个问题只能由众包平台进行系统性解决,但众包平台不能依赖自动 AI 检测系统,他们如何确保为付费客户提供数据质量尚不清楚。
Aug, 2023
通过通过人类作者的参与识别并铸造对抗性问题,我们揭示了机器学习模型在自然语言理解上面临的复杂多样化挑战,包括多跳推理和实体类型干扰。
Sep, 2018
本文提出 ALARM 框架,支持从检测到操作的全面异常挖掘,包括无监督的新兴异常检测、异常解释和交互式 GUI,以帮助人类完成闭环过程,通过设计新的检测规则来实现探索、理解和最终采取行动并演示了该方法的有效性。
Apr, 2023
我们的 “在线考试监控系统:检测在线考试中的异常行为” 旨在解决过去十年中越来越普遍的问题,尤其是在 COVID-19 大流行期间。该系统通过实时场景中高准确性和快速性来检测作弊行为,为监考人员提供有价值的信息,协助其决策,从而减轻在线考试作弊的普遍问题。
Feb, 2024
本文介绍了一种人在循环中的系统,Manual Correction System (MCS),使用 Chain-of-Thought 提示增强 LLM 的推理表现,并且提出了基于古典经济理论的 Cost-Utility 分析模型 (CAMLOP) 来分析、量化和平衡效用和相应成本。作者进行了 MCS 和 CAMLOP 实验,并与 12 个数据集的强基线进行比较,结果证明其超越了强基线,并具有成本和效用的显着优势。
Jun, 2023
本文介绍了一种名为 CHEESE 的多实例学习的作弊行为检测框架,结合了身体姿势、背景信息、眼神、头部姿势和面部特征等特征,在视频剪辑中分析空间和时间的变化以检测作弊行为。实验证明我们的方法有效,并在 Online Exam Proctoring(OEP)数据集上获得 87.58%的帧级 AUC 得分。
Feb, 2024