首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
目的 为研究HUD(Head Up Display)字符颜色对飞行员进行HUD和HDD(Head Down Display)切换时观察信息的认知和扫视流畅性的影响,基于前期关于显示器字符颜色、认知绩效和扫视流畅性的相关研究,开展颜色编码对HUD和HDD相容性影响的评估。方法 设计眼动测量实验,通过模拟仿真平台,让20名被试驾驶模拟机完成进近过程,同时记录被试进行HUD和HDD仪表切换后在HUD界面的眼动数据,且在实验的过程中要求被试又快又准的回答有关仪表信息的提问。结果 相同的飞行任务和实验条件下,当HUD使用不同颜色编码时,被试进行显示器切换后,注视轨迹、注视时间、瞳孔直径和反应时的主效应显著,且不同颜色编码间存在显著性差异;采用绿色时效果最佳,青色编码次之,蓝色和黄色效果最差,说明HUD字符的颜色编码设计对HUD和HDD相容性有显著影响。结论 当颜色色相趋于缓和,视觉刺激较弱时,飞行员进行显示器切换后扫视模式较好,认知绩效水平得到提升,即HUD和HDD相容性较好。反之,则容易引起飞行员的紧张情绪,降低认知绩效,扫视轨迹混乱,搜集信息时视线的流畅性受阻。  相似文献   

2.
为研究平视显示器(head up display,HUD)字符颜色对飞行员进行HUD和下视显示器(head down display,HDD)切换时观察信息的认知和扫视流畅性的影响,基于前期关于显示器字符颜色、认知绩效和扫视流畅性的相关研究,开展颜色编码对HUD和HDD相容性影响的评估。设计眼动测量实验,通过模拟仿真平台,让20名被试驾驶模拟机完成进近过程,同时记录被试进行HUD和HDD仪表切换后在HUD界面的眼动数据,且在实验的过程中要求被试又快又准地回答有关仪表信息的提问。相同的飞行任务和实验条件下,当HUD使用不同颜色编码时,被试进行显示器切换后,注视轨迹、注视时间、瞳孔直径和反应时的主效应显著,且不同颜色编码间存在显著性差异;采用绿色时效果最佳,青色编码次之,蓝色和黄色效果最差,说明HUD字符的颜色编码设计对HUD和HDD相容性有显著影响。当颜色色相趋于缓和,视觉刺激较弱时,飞行员进行显示器切换后扫视模式较好,认知绩效水平得到提升,即HUD和HDD相容性较好。反之,则容易引起飞行员的紧张情绪,降低认知绩效,扫视轨迹混乱,搜集信息时视线的流畅性受阻。  相似文献   

3.
Web信息诉求与用户任务交互的眼动模式发现   总被引:1,自引:0,他引:1  
眼球运动是人类心理与认知状态的外在表现,已有的研究大多分别考察外界信息表象或用户内源状态对眼动的影响,很少有人专注于外界信息的诉求方式与用户任务交互对眼动的影响.本文利用眼动跟踪技术,采用感性诉求与理性诉求两种信息表达方式,给参试者分配喜好任务和匹配任务,考察Web信息的诉求方式与用户任务的交互作用对眼动的影响.实验结果发现:参试者在不同任务条件下观察同一诉求方式的Web信息时,有着不同的眼动模式;且这种眼动模式的差异受到其所观察信息的诉求方式的影响.实验说明:参试者的眼动模式制约于内在任务的同时也受外界信息诉求方式影响,在充分考虑这两者交互作用的前提下,基于眼动数据进行用户分类是可行的.  相似文献   

4.
采用工作载荷范式研究警示性图标在不同工作载荷下的认知机理,以及视觉突显性与图形语义信息对警示性图标认知的作用.首先进行了有语义图标实验,以检验具有语义信息的警示性图标在高低知觉负载下的注意捕获效应,结果表明,在高、低工作载荷下警示性图标都比普通图标具有加工优先性,但与任务无关的警示性图标在高、低工作载荷下的注意捕获能力没有显著差异,说明警示性图标能够自动获取注意系统的加工.为分离突显性视觉特征与语义信息2个因素对实验结果的影响,进行了无语义图标实验,将警示性图标转换为具有突显性但无语义信息的转置图标,发现警示性图标在高工作载荷下的注意捕获效应显著小于低工作载荷,即工作载荷能够显著调节其注意捕获能力,说明警示性图标在有语义图标实验中的注意捕获效应应归因于其本身携带的语义信息.本研究证实语义明确的警示性图标能够被注意系统自动捕获,图形语义信息在其中起到关键性作用,突显性的视觉特征也会增加警示性图标的注意捕获效应.  相似文献   

5.
为提高飞行安全水平,提升飞行学员运动推断能力,通过整合维也纳心理测试系统(Vienna psychological test system,VTS)和眼动仪,构建实验系统。选取民航飞行学员作为被试,获取飞行学员匀速直线、变速曲线运动实验过程中两种形式下的眼动数据,结合被试的不同经验水平,研究分析其在两种形式下的眼动特征数据。结果表明:匀速直线运动实验中,测试时长与平均扫视距离、平均扫视速度显著眼动数据存在负相关性;变速曲线运动实验中,测试时间偏差、距离偏差与平均扫视时间和平均扫视距离显著眼动数据相关性较弱。在现有选拔基础上可增加运动推断能力测试,同时结合显著眼动指标(平均扫视距离、平均扫视速度)进行飞行学员的选拔。  相似文献   

6.
为探究不同时间压力下飞机驾驶舱界面搜索特征从而提升任务绩效,通过模拟飞机飞行状态下的任务搜索过程,采用眼动追踪、绩效评估及量表测量等方法来获取被试的视觉搜索轨迹与任务绩效数据并对所获取的多通道数据进行分析.结果表明:在不同时间压力(无、低、高)与不同界面复杂度(简单、复杂)下被试的视觉搜索特征存在显著差异;高时间压力与复杂界面显示都会给被试带来较高的心理认知负荷;时间压力在简单界面显示中存在倒“U”型关系.研究为飞机驾驶舱复杂人机界面设计提供了科学的理论依据.  相似文献   

7.
采用视觉搜索实验范式,通过行为和眼动追踪数据揭示了基于形状相似、功能关联和语义匹配特征3类推理条件的图标搜索特性,通过方差分析法比较了不同特征推理条件对各测量指标的影响.实验结果表明:形状相似性引导下的目标搜索时间以及对于各搜索项目的平均注视时间均最短,所消耗的认知资源最少,无需深度信息加工即可进行目标识别;基于功能关联性的图标搜索过程中注意资源分配最广;而语义词引导下的目标搜索正确率最高.基于形状相似性和功能关联性特征推理条件下的视觉搜索行为可简化为搜索项目与启动图标之间的模式匹配以及功能层级隶属关系判断过程;以语义词为启动特征的视觉搜索首先需经过语义词特征的图形化过程,再对搜索项进行匹配判断.3类搜索情境中均存在自上而下的信息加工特征.研究结果为人机界面中图标设计提供了理论指导.  相似文献   

8.
在归纳国内眼动阅读研究主要成果之上,分析以不同国家、不同民族的学生为阅读主体的认知差异,总结了以不同语言、不同文体、不同风格为阅读材料的眼动特征.得到了阅读认知和眼动参数之间存在对应关系和眼动运动模型的特点,具体表现为逆序扫描模式可以提高英语阅读效率.阅读中空格插入的数量与平均注视时间成反比,与平均眼跳幅度成正比,眼跳距离和注视次数之间呈反比等.这些结论的得出为国内外学者探索人类认知和眼球运动轨迹之间的关系提供了理论依据.  相似文献   

9.
注视时长及扫视速度与管制负荷的关系研究   总被引:1,自引:1,他引:0  
利用雷达管制模拟机设定了不同工作负荷水平下的管制任务,采用tobii X2-60眼动仪,对16名被试在不同工作负荷下的实时眼动数据进行采集。在分别分析了注视时长、扫视速度与工作负荷变化关系的基础上,建立了注视时长及扫视速度与工作负荷的回归模型,并对模型的准确性进行了验证。结果表明:随着工作负荷的增大,注视时长和扫视速度都会随之减小。回归模型的准确性在85%以上。  相似文献   

10.
采用美国应用科学实验室生产的VR头盔内嵌式眼动系统(VR6),在模拟比赛情景下对9名优秀女子短道速滑运动员不同技战术条件下的眼动特征进行测试,对不同方向的平均注视时间、视觉搜索广度进行分析,探讨不同运动情境视觉搜索特征.研究结果显示:1)领滑、跟随滑行时,不同方向的平均注视时间差异非常显著(P0.01);2)启动加速时,不同方向的平均注视时间差异不显著;3)配合、超越滑行时,不同方向的平均注视时间存在显著性差异(P0.05);4)不同技战术情况下女子短道速滑运动员水平方向视点角度的差异具有显著性意义.  相似文献   

11.
为了系统性地探究眼动指标与管制负荷及航空器动态特征之间的相关性,利用雷达模拟机模拟真实的管制场景,通过设置模拟场景中不同的航空器数量来表征不同的实验难度;并用Tobii X2-30眼动仪记录被试者的眼动数据。将眼动仪所记录的所有眼动数据与管制负荷及航空器的动态特征进行相关性分析,探索与其显著相关的眼动指标。结果表明不同的眼动指标与负荷及航空器动态特征的相关性的显著性不同;因此,在利用眼动指标进行相关研究时,需要提取与其有显著相关的眼动指标。  相似文献   

12.
为了解决头盔瞄准显示系统HMDs界面信息图标布局不合理导致飞行员信息误读的问题,对HMDs界面区域进行划分,梳理了3,5,7个图标呈现时的67种布局形式.基于图标的实心、40%透明度、空心3种特征,通过被试执行搜索记忆任务的正确率和反应时进行对比分析.实验结果表明,在HMDs界面中,图标呈现区域和数量对目标搜索和记忆有影响.随着图标数量的增加,被试记忆准确性下降,反应时增加.相同时间压力下被试对3类特征图标的记忆准确性不同,3个图标时,空心图标的准确性最优,但数量上升到7个图标时,实心图标的记忆准确性最优;实心图标和40%透明度图标记忆准确性没有显著性差异.  相似文献   

13.
为探究驾驶人眼动行为与驾驶熟练程度以及道路线型之间的响应特性,设计并组织山区公路实车驾驶行为试验。招募20名驾驶人,实时采集被试驾驶人在急弯路段的6个注视及扫视行为表征参数。试验表明:眼睛注视点在左转急弯路段的水平方向分布范围是-0.5~0.1 m,在右转急弯路段的水平方向分布范围是-0.2~0.5 m;眼睛水平注视角变化的主要范围是0°~30°;扫视速度的变化范围区间是0~1(°)·ms~(-1),扫视幅度的变化范围是5°~25°。基于采集的眼动行为参数,构建驾驶人视觉搜索模态矩阵。采用主成分分析法对影响因子进行降维,并建立驾驶人眼动特征综合评价模型。结果显示,眼动综合评分与驾驶里程呈正相关关系,表明该模型可用于量化甄别驾驶人驾驶熟练程度,并为驾驶能力评估提供有效的理论依据。  相似文献   

14.
褚英帆  秦华  冉令华  张然  张欣 《科学技术与工程》2023,23(34):14851-14856
针对驾驶过程中浏览车载信息系统次任务时引发的驾驶分心问题,研究聚焦不同年龄段驾驶员的视觉注意资源分配策略,分析在动态视觉信息源的刺激下发生驾驶分心时的视觉行为表征。通过视觉搜索的实验方法,模拟驾驶过程中驾驶员浏览车载信息系统次任务的视觉行为过程,并分别测量了横向和纵向两种车载中控屏摆放方式下的参试者视觉特性数据与搜索绩效数据。通过分析驾驶员浏览车载信息系统次任务时视觉注意资源的分散程度,以衡量其在行程中的驾驶分心程度,在此基础上提出有益于缓解驾驶分心行为的车载中控屏视觉区域。实验结果显示:(1)横向中控屏测试中,参试者在上部区域的平均视觉搜索反应时长为641.92 ms,眼动数据显示,注视点集中分布于上部区域。(2)纵向中控屏测试中,参试者在下部区域的平均视觉搜索反应时长为751.75 ms,眼动数据显示,注视点集中分布于右侧区域。(3)年龄在59~68岁这个范围的老年参试者在执行模拟浏览车载信息系统次任务时的视觉搜索反应时长更长,平均为11639.57 ms,注视点分布更分散。可知,在横向中控屏的上部区域与纵向中控屏的下部区域的反应时间更长,在横向中控屏的上部区域与纵向中控屏的右侧区域交叉的占用的注视资源更多。研究表明,在动态视觉信息源的刺激下老年参试者与静态信息源刺激差异较为明显,且横向运动的信息源更容易被参试者捕捉,所占用的视觉资源少,不易引发驾驶分心行为。  相似文献   

15.
针对现阶段服务机器人面向日常家居环境的认知能力较低,缺乏以相关服务任务作为先验知识、进行深度认知的能力问题,基于视觉认知和语义分析相结合的思路,利用智能空间平台分布式感知系统,结合深度神经网络下图像处理与语义分析等相关手段,提出了一种服务机器人选择性语义认知方法.设计了一种智能空间下选择性注意策略,选择显著性高、服务任务相关联的区域作为兴趣区域;提出了一种改进的区域卷积神经网络,将所选择兴趣区域作为先验知识来引导卷积神经网络;构建了语义分析模型,利用物品检测输出进行深度语义认知.实验结果表明,该方法可以提取服务任务相关的空间显著性信息,引导区域卷积神经网络进行物品检测,物品检测过程过滤了无关物品,与传统区域卷积神经网络相比,检测速度较快、准确率高,最终结合语义分析的方法提高了服务机器人日常家居环境下的认知能力.  相似文献   

16.
研究个体差异性对疲劳驾驶检测的影响.基于驾驶模拟实验,提取了20名驾驶人不同驾驶状态下的眼动特征参数.基于支持向量机,搭建了通用检测模型,分析了不同驾驶人之间检测结果的差异性.运用配对样本t检验和方差分析分别量化了驾驶人疲劳和个体差异性对眼动特征影响的显著性水平,以及综合影响的显著性水平.搭建了个体检测模型,并进行了实验验证.结果表明,眼动特征受疲劳驾驶和驾驶人个体差异性的显著性影响,同时,个体差异性会削弱由疲劳驾驶导致的差异.在构建疲劳驾驶检测模型时应充分考虑驾驶人个体差异性.  相似文献   

17.
针对环境冗余信息下目标整体选择注意及机器人应用问题,提出一种目标驱动的基于物体偏向注意机制的机器人视觉搜寻方法.建立任务目标描述模型,基于高斯混合模型进行特征聚类获得先验知识.引入原对象和偏向特征模版,建立一种基于物体的偏向注意模型实现对整个任务目标的搜索与选择注意,并获得任务相关的显著图实现对潜在目标的跟踪与接近控制,将视觉伺服控制算法扩展到机器人认知领域.实验结果证明了该方法适用于目标指向性的机器人应用领域.  相似文献   

18.
施笑畏  王帅 《科技信息》2012,(21):172-173
视觉显示终端疲劳研究是视觉疲劳研究的主体,通过被试者在视觉显示终端疲劳眼动实验,分析眼动数据与视觉疲劳之间关系,拟合视觉疲劳与眼睑张开值、瞳孔直径、注视时间比例、扫视时间比例函数关系,通过皮尔森系数测量各参数权重,提出疲劳度测量眼动参数公式,并用实测数据验证公式正确性。  相似文献   

19.
为了提高基于眼电图(EOG)的扫视信号识别正确率,提出了一种基于共同空间模式(CSP)的扫视信号特征提取算法.该算法首先利用事先标注好的标签数据进行CSP空域滤波器设计,并采用联合近似对角化的方法解决多分类问题;在此基础上,使用该滤波器对原始多导联眼动信号进行空域滤波,滤波输出即为扫视信号的特征参数.在实验室环境中使用支持向量机对上、下、左、右四类扫视信号进行识别,所提算法的平均正确率达到了97.7%.实验结果表明基于CSP的扫视信号特征提取算法在眼动信号分析中呈现出良好的分类性能.  相似文献   

20.
基于驾驶模拟器构建高速公路超车行为模拟场景,利用眼动仪采集30位驾驶人的眼动视频数据,通过后处理软件逐帧分析,获得驾驶人超车过程中注视、扫视和眨眼等视觉行为参数。将驾驶人视觉区域划分为左后视镜、右后视镜、原始车道、目标车道和其余区域共5部分,经过统计分析,获得驾驶人视觉区域驻留概率。研究结果表明:驾驶人超车过程中目标车辆的速度对注视频率、扫视频率、眨眼频率和平均眨眼时间没有显著影响,与平均扫视时间正相关,与平均注视时间负相关;在同一速度水平下,超车目标为大型车时,驾驶人的平均注视时间、平均扫视时间较长,注视频率、扫视频率较低。超车过程中驾驶人在原始车道和目标车道的驻留时间概率超过70%,在左后视镜和右后视镜驻留时间概率相差不大,均为7%左右,在其他区域驻留时间概率为10%左右。驾驶人主要通过观察目标车道和原始车道获得交通信息,通过左后视镜和右后视镜获得交通信息的概率(约为14%)高于其余区域。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号