中国国际汽车照明论坛(IFAL)

IFAL2024邀请函
2024 IFAL 邀请函V4.6(1).pdf
5.89MB下载
演讲者简历 speaker biography_V1.1.docx
61.46KB下载
IFAL 摘要模板.doc
32.0KB下载

【技术文章】HUD无接触手势交互系统的用户体验研究

图片


原文:《Enhancing User Engagement in Shared Autonomous Vehicles:

An Innovative Gesture-Based Windshield Interaction System》[1]

作者:Pierstefano Bellani , Andrea Picardi , Federica Caruso , Flora Gaetani , Fausto Brevi , Venanzio Arquilla and Giandomenico Caruso







图片
图片

简介:随着自动驾驶技术的快速发展,一种变革性的交通模式正在汽车行业出现。为了重新评估用户如何参与和利用这些不断发展的环境。本文介绍了一种针对共享自动驾驶汽车的创新无接触手势交互系统,重点介绍了它的开发和综合评价并将它与广泛使用的触屏式交互相对比。通过一项涵盖20名被试者的研究,结果表明,被试者在两种交互方式上表现出相似的行为和反应,从而验证了这些交互系统在未来自动驾驶汽车中的潜力。


关键词:user experience; haptic; gesture; autonomous vehicle; human machine interface; head up display; human computer interaction

编译:复旦大学林燕丹课题组 金铮昊

指导:林燕丹



应用场景


随着汽车行业的发展,越来越多的车辆开始使用挡风玻璃作为载体来传达信息,以减少驾驶员的注意力分散。一些车辆已经安装了所谓的平视显示器(Head-Up Display,HUD),效果如下图1所示,能够保证驾驶员在不低头的情况下,准确快速地获取有关车辆功能,道路信息与危险预警等外部信息。


图片

图 1   Panasonic 在2020年拉斯维加斯CES 上展示的AR HUD


本文提出了一种针对共享自动驾驶汽车设计的无接触手势交互系统,本系统利用汽车的挡风玻璃作为显示表面,用于显示交互式信息,娱乐和周围环境的实时数据。为了验证无接触手势交互系统的有效性,保证乘车人员的驾驶体验,需要将此系统与成熟触屏系统相比较,获取受试者交互行为与反应的数据。


研究目标


本文主要想要验证无接触手势交互系统在HUD条件下的可靠性,因此固定了相同的HUD图形用户界面(Graphical User Interface,GUI),构成如下图2所示,一共分为三个部分,左边部分显示了车辆的当前状况,包括车速,限速,挡位等信息;中间部分为导航地图的平面形式和目的地距离信息;右边部分是导航菜单,它有五个主要项目(导航、呼叫、音乐、文档、兴趣点),以适应手指的交互。


图片

图 2 投入实验的GUI示例


等待比较的两套交互方式分别是UltraLeap Stratos[2]和标准的电容式触控板。前者作为待验证的无接触手势交互方式,使用两个红外摄像机,该设备可以跟踪手在三维空间中的位置,并使用一系列超声波发射器在半空中提供触觉反馈;后者作为标准提供比较依据。其手势交互动作与对应传递的信息如下图3所示,包含有(a)手指点触,(b)左右横移,(c)相对坐标移动,(d)确认,(e)返回,(f)音量大小调节,

图片

图 3 两种手势交互方式的对比图,每一组手势中,左侧的是UltraLeap Stratos方式,右侧的是电容触控板方式


研究方法


为了探究无接触手势交互系统相较于成熟的触控系统带给乘车人员的用户体验,本实验将20名被试者(7位女性)分为两组,在相同的模拟驾驶环境中使用不同的交互方式,通过记录被试者模拟驾驶过程中完成任务的情况和眼动情况并分析得到结果,具体实验流程见下图4所示。


图片

图 4 实验整体流程图


本实验采用了驾驶模拟器提供虚拟驾驶环境(图5),要求被试者在模拟驾驶的过程中用手势完成5项任务,包括有(1)设定车辆目的地并确认开始自动驾驶行程;(2)选择一首歌曲并调整音量;(3)接电话并挂断;(4)找到一份文字文档并迅速浏览;(5)使用手指手势从特定的菜单中选择一个感兴趣的点。每个任务在开始五分钟后,若被试者仍旧没有完成任务,则任务记录为失败并自动开始下一个任务。在实验过程中,眼动仪全程记录被试者的眼动情况以便后续分析被试者的注意力集中情况。实验结束后由被试者填写NASA-TLX问卷以反馈他们在实验中的工作负担,填写AttrakDiff问卷以反馈设备对被试者的吸引力程度和整体使用体验。


图片

图 5 被试者在模拟驾驶过程中用手势交互完成任务


主要结论


1)任务完成情况:


由模拟驾驶系统自动记录被试者每一个任务的完成度,操作错误或者超时未完成的任务将会判定为失败,系统收集结果如下图6所示。结果显示大多数的被试者都能够顺利完成任务,在浏览文件任务中,使用无接触手势交互系统的被试者由于超时判定未完成任务,开始行程任务中,所有未完成任务的被试者都是由于操作错误导致的。


图片

图 6 被试者在实验中的任务完成度


由模拟驾驶系统自动记录被试者每一个任务所用的平均时间(单位:秒)如下图7所示。在对任务失败率和任务所用平均时间进行显著性分析时,所有数据都未出现显著性差异(p>0.05)。


图片

图 7 被试者在实验中完成任务所用的时间


2)由交互界面引起的分心情况:


眼动追踪数据显示了被试者查看输入设备的频率,这也代表了被试者注意力离开道路情况的频率,整体数据由图8所示。总体而言,被试者会更少看无接触手势交互系统的输入设备,但是总体不呈现显著性差异(p>0.05)。


图片

图 8 被试者直视输入设备的次数


3)工作负担情况:


本实验使用NASA-TLX问卷来采集被试者的工作负担情况,数据情况如下图9。从数据上来看,使用无接触手势交互系统的被试者由于需要将手保持在距离输入设备20厘米的上方而导致身体负担较重,但也同时反馈手势交互的控制表现较好。同样的,在显著性分析上,两组实验数据都不呈现显著性差异(p>0.05)。


图片

图 9 被试者的NASA-TLX问卷得分反馈


4)设备对被试者的吸引力和总体使用满意度情况:


本实验使用AttrakDiff调查来收集本设备对被试者的吸引力和总体使用满意度。其中,图10显示的Portfolio展示矩阵结果表明,被试者认为无接触手势交互更加以自我为中心,而触屏交互更加以任务为中心。

图片

图 10 被试者的Portfolio展示矩阵结果


图11显示的是调查中涉及的描述性词语对分类情况,PQ代表实用质量,HQ-S代表享乐激励质量,HQ-I代表享乐辨别质量,ATT代表吸引力。从数据上来看,无接触手势交互在享乐质量方面高于触屏交互,被试者认为无接触手势交互更加专业更加高级。在实用质量和吸引力方面两者持平。


图片

图 11 被试者的描述性词语对选择结果


综合上述结论,在将无接触手势交互系统与触控屏交互系统进行对比实验时,在实验任务完成情况,注意力集中情况和工作负担情况三个方面都不呈现出显著性差异。整体满意度情况上,被试者认为无接触手势交互系统更有沉浸感,更容易上手。这代表本文章所介绍的无接触手势交互和现有的触屏式交互在共享自动驾驶环境下性能相近但更受到欢迎,能够为未来的无人驾驶汽车行业提供可靠的交互方式备选。



文献来源:

[1] Bellani P, Picardi A, Caruso F, et al. Enhancing User Engagement in Shared Autonomous Vehicles: An Innovative Gesture-Based Windshield Interaction System[J]. Applied Sciences, 2023, 13(17): 9901.

[2]Haptics|Ultraleap. Available online:

https://www.ultraleap.com/haptics/.


END


图片
图片