使用众包和深度学习建模移动界面的可点击性
本文运用基于深度学习的方法,能够仅基于像素预测移动 UI 截屏中被用户感知为可点击的元素,并运用 ML 可解释性技术解释模型输出结果,其中采用 XRAI 技术突出显示对所选区域的可点击性预测影响最强烈的截屏区域,采用 k - 最近邻方法表示数据集中对可点击性感知产生相反影响的最相似移动 UI。
Apr, 2022
研究通过触摸屏智能手机上独特的交互行为对个体进行分类。使用 Touch-Analytics 数据集,包括 41 个受试者和 30 个不同的行为特征。提出了新的特征来改善整体鉴别性能。通过结合新特征和现有特征,SVM 和 kNN 的分类准确率分别为 94.7% 和 94.6%。探索了七个其他的分类器,并且决策树和提出的 DNN 分类器的准确率最高达到 100%。
Nov, 2023
本文中,我们提出了一种深度触觉模型预测的方法,结合高分辨率触觉传感器,通过无监督自主交互生成模型以从原始触觉传感器输入进行学习,并将学习到的模型用于将物体重新定位到用户指定的配置,从而实现非握持操作的触觉控制。
Mar, 2019
通过自我监督的师生设置,使用大规模无标签、无筛选的真实世界数据,以最小的架构改变改进 Tracking-Any-Point (TAP) 模型,实现了在 TAP-Vid 基准测试中的最新性能,超过先前研究结果很大幅度:例如、TAP-Vid-DAVIS 性能从 61.3% 提高到 66.4%,TAP-Vid-Kinetics 从 57.2% 提高到 61.5%。
Feb, 2024
通过对 RICO 数据集进行标注并使用多模态输入,该论文提出可提高移动设备的可访问性和自动化功能以便于使用的方法,使用户能够更好地了解 UI 元素的功能,并提出了一些创新性的功能,如通过标签引用 UI 元素,提高图标的语义等,以使 UI 对每个人都更加可用。
Oct, 2022
本文通过开发一个深度学习模型 LabelDroid 来实现自动预测图像按钮标签,结果表明该模型可以准确预测,并且所生成的标签质量比真实 Android 开发人员的更高。
Mar, 2020
本研究旨在提出一个强大的触觉手势识别系统,通过对各种手势识别方法进行综合评估,包括传统的特征工程方法和能够实时解释各种手势的当代深度学习技术,以适应手的大小、运动速度、施加压力水平和交互点的变化,我们对各种方法的深入分析为人机交互领域的基于触觉的手势识别做出了重要贡献。
May, 2024
通过与预训练的图像嵌入相关联,UniTouch 统一了视觉为基础的触觉传感器与其他多种模态之间的关系,并引入了可学习的传感器特定标记,使模型能够同时从一组异构触觉传感器学习,从而在零样本设置下进行各种触觉感知任务。UniTouch 是第一个展示此类能力的模型。
Jan, 2024
我们探讨了密集跟踪作为一种表征工具,使机器人能够更快、更通用地从示教中学习,并展示了通过密集跟踪生成的稳健机器人策略能够解决复杂的物体排列任务,如形状匹配、堆叠,甚至全路径跟踪任务,如涂胶并粘合物体,这些示教仅需数分钟即可收集。
Aug, 2023