VINS:移动用户界面设计的视觉搜索
介绍了计算机用户界面 (UI) 理解的研究课题,包括创造一个视频数据集、合成样本生成管道和对图像进行对比学习的框架,实验证明该框架优于先前提出的层级多标签对比损失在细粒度用户界面分类中的表现。
Mar, 2024
从移动用户界面 (UI) 中提取语义表示并将这些表示用于设计师的决策过程已显示出成为有效的计算设计支持工具的潜力。我们采用大规模网络图像训练的视觉模型,以零 - shot 方式提取 UI 表示并超越现有专门模型,并使用数学基础的方法实现应用程序之间的检索和设计一致性分析。我们的实验表明,我们的方法不仅改进了以前的检索模型,还实现了多个新的应用。
Sep, 2023
通过机器学习模型 UIClip,本研究开发了一种用于评估 UI 设计质量和视觉相关性的方法,通过截图和自然语言描述来对 UI 进行评估,实验证明 UIClip 在与其他基准方法和人工设计师评分进行对比时取得了最高一致性,从而为 UI 设计质量的直接评估提供了便利。
Apr, 2024
本论文提出了一种基于名为 UIClip 的视觉语言模型的 GUI 搜索引擎 GUing,其通过训练特定于应用 GUI 领域的大型数据集,在文本查询中实现了优于以前方法的文本到 GUI 的检索。
Apr, 2024
从实际场景中提取和清洗,包含设计愿景和 UI 代码的高质量数据集 VISION2UI 用于细调 Multimodal Large Language Models (MLLMs) 以实现自动化 UI 代码生成。
Apr, 2024
通过本文讨论了三种不同的方法来利用人工智能 (AI) 来支持应用设计师创造更好、更多样化和更具创意的移动应用界面 (UI):第一种方法是设计师可以使用大型语言模型 (LLM),如 GPT,直接生成和调整一个或多个 UI;第二种方法是使用视觉 - 语言模型 (VLM) 有效地搜索大型截图数据集,例如应用商店中发布的应用;第三种方法是训练一个专门设计用于生成应用界面的扩散模型 (DM),作为启发性图片。我们讨论了如何使用 AI 来激发和辅助创造性应用设计,而不是自动化它。
Jun, 2024
通过对 RICO 数据集进行标注并使用多模态输入,该论文提出可提高移动设备的可访问性和自动化功能以便于使用的方法,使用户能够更好地了解 UI 元素的功能,并提出了一些创新性的功能,如通过标签引用 UI 元素,提高图标的语义等,以使 UI 对每个人都更加可用。
Oct, 2022
本研究探索如何利用 UI 说明书中的图像来学习 UI 屏幕及其组件的通用视觉 - 语言表示,并提出了一种名为 Lexi 的预训练模型,该模型可处理 UI 屏幕的独特特点,包括其丰富的文本和上下文敏感性。通过创建包含 114k UI 图像及其功能描述的 UICaption 数据集,我们证明了该模型可用于 UI 行动蕴含和 UI 实体识别等任务。
Jan, 2023