首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 234 毫秒
1.
基于眼睛状态识别的驾驶员疲劳监测   总被引:1,自引:0,他引:1  
提出一种基于眼睛状态识别的驾驶员疲劳状态监测算法。在首帧定位人眼并在眼睛区域内提取多个具有互补性的特征,使用粒子滤波算法进行直接跟踪;在后续图像帧中利用CAMShift算法对初始检测到的人脸区域进行实时跟踪,在人脸区域中同步检测眼睛,检测结果用于粒子滤波器的后验确认和修正。在跟踪眼睛的同时检测每帧中的眼睛状态,通过连续帧中的眼睛状态判断出驾驶员精神状态。实验表明:该文算法对人脸旋转和尺度变化、摄像机抖动,以及遮挡的影响均具有较高的鲁棒性。  相似文献   

2.
在疲劳驾驶检测中,眉毛、眼睛等相似物体常常会引起误判。为了减小误检率,文章提出了一种基于扩展Haar-like特征的AdaBoost算法,并将其应用于对人眼的准确检测中。通过近红外摄像头获取驾驶员的脸部图像,减少光线对检测方法的影响;利用AdaBoost算法直接检测睁眼区域;计算连续闭眼的帧数占总帧数的比值,判定驾驶员的疲劳状态。在白天、夜晚以及光线突变的条件下测试的结果表明,该方法准确率较高,并且在光照和人脸角度变化的条件下,能准确地定位人眼区域,对其进行疲劳检测。  相似文献   

3.
一种基于人脸视觉的驾驶疲劳检测的算法   总被引:1,自引:0,他引:1  
提出了基于人脸视觉技术的驾驶疲劳检测方法.首先利用帧差法检测人脸,然后对脸部进行跟踪.在可靠人脸的基础上,定位眼睛及特征提取,根据疲劳人眼特征和头部状态的疲劳检测来决定是否触发警告.实验证明,可以在自然光情况下,快速实时有效识别出驾驶员疲劳时眼部状态,本算法具有较好鲁棒性.  相似文献   

4.
人眼状态可以很好地反映疲劳程度,人脸检测和眼睛定位在驾驶员疲劳检测中占有重要的地位。首先对图像进行图像预处理。然后根据肤色在YCbCr颜色空间上具有很好的聚类性,对驾驶员人脸进行检测。最后在肤色识别后的图像中进行人眼定位,判断眼睛的状态,并利用PERCLOS原理判断驾驶员的疲劳状态。  相似文献   

5.
文章采用一种基于眼睛闭合度及打呵欠来检测驾驶员疲劳的方法,在YCrCb颜色空间中利用高斯模型进行肤色检测得到人脸的区域,在人脸灰度二值化图中利用五官几何结构的先验知识粗略定位人眼,利用区域生长和形态学运算得到人眼轮廓并计算眼睛的闭合度;检测嘴唇时利用唇色最佳阈值大致确定嘴唇位置,在此基础上通过人脸灰度值特征精确定位嘴唇,然后通过嘴张开程度判断驾驶员是否打呵欠;最后基于2个特征对驾驶疲劳进行判决,实验证明这种方法对驾驶疲劳检测具有较好的效果。  相似文献   

6.
人脸图像分析中,眼睛的精确定位是非常重要的一个环节。文章提出了一种基于人脸检测的人眼特征定位方法。首先采用AdaBoost人脸检测算法对人脸图像进行人脸检测,确定人脸位置。然后根据人脸面部结构特征估计人眼所在区域,利用该区域内的灰度和梯度特征搜索人眼特征点。实验表明该方法能够快速有效地定位出人眼特征。  相似文献   

7.
人眼状态可以很好地反映疲劳程度,人脸检测和眼睛定位在驾驶员疲劳检测中占有重要的地位。本文首先对图像进行图像预处理;然后根据肤色在YCbCr颜色空间上具有很好的聚类性,对驾驶员人脸进行检测;最后在肤色识别后的图像中进行人眼定位,判断眼睛的状态,并利用PERCLOS原理判断驾驶员的疲劳状态。  相似文献   

8.
为解决驾驶员疲劳检测问题, 提出了一种快速人眼开闭状态识别方法。该方法通过肤色模型识别人脸区域, 预处理后进行Gabor变换; 通过选取合适的尺度和方向提取出眼部明显的灰度特征, 对变换后的图像进行水平积分投影, 眼部有明显的尖峰, 进而通过峰平比识别人眼的开闭状态, 突破了传统积分投影方法只能进行人眼定位的局限。实验表明, 该算法具有较高的准确性, 并对光照变化有较好的鲁棒性。  相似文献   

9.
针对人脸检测中单一分类器检测非常耗时,而且没有考虑到检测后提取标准人脸对后续工作(如识别)等问题,提出了运用Adaboost算法,采用正面人脸和人眼两个特征作为分类器,首先用Cascade算法筛选出输入图像中最有可能是人脸的区域,然后根据以正面人脸和人眼为特征的分类器检测人脸区域,并根据检测出来的人眼距离和角度对人脸进行精确的定位.同时针对实际的图像中人脸常常存在一定倾斜,从而影响后续的人脸的识别率这一问题,采取了根据人眼的位置对倾斜图像进行修正.实验结果表明改进的算法能够在保持一定运算速度的基础上取得准确的人脸,具有较好的实用性.  相似文献   

10.
为了解决光照和人脸姿态对人眼定位的影响,提出一种基于肤色特征和最大类间方差法(Otsu)相结合的人眼定位优化方法.该方法首先在检测出人脸的基础上,在YCb' Cr’色彩空间里做肤色检测,运用肤色分割原理缩小人眼检测的搜索区域;接着,对图像进行Otsu阈值分割,提取二值图像的眼睛区域;最后,在眉眼区域利用二值积分投影分别定位左右眼睛.该方法减小了光照对图像的影响,并且简单快速.在标准的VidTIMIT人脸库和自采图库上进行了实验仿真,结果表明,此算法在光照和人脸姿态变化的情况下都具有很好的鲁棒性.  相似文献   

11.
针对汽车高级驾驶辅助系统(ADAS)中前方车辆识别率低的问题,基于机器视觉原理研究了前方道路图像中的类Haar特征,并进行积分图计算,在提取类Haar特征基础上,采用自适应提升(AdaBoost)算法进行正负样本训练并级联,得到训练好的模型,进而检测和识别汽车行驶中前方车辆。最后基于Opencv计算机视觉库在Visual Studio开发环境中进行了算法实现和测试,结果表明,每帧视频图像识别时间小于40毫秒,检测率准确可靠,满足多场景、多工况下的前方车辆实时识别。  相似文献   

12.
提出了一种新的近红外人脸图像的眼睛精确定位方法. 该方法首先使用基于Haar特征和AdaBoost算法的人脸检测分类器确定人脸区域和初始眼睛位置;然后用Sobel算子对眼睛区域进行边缘检测处理,得到眼睛边缘,并对它进行椭圆拟合获得眼睛的椭圆轮廓线;最后把拟合椭圆的中心点作为眼睛的精确位置. 实验表明,在正面人脸情况下,本方法能精确地定位近红外人脸图像的眼睛位置,在归一化人脸为120×120像素时,其平均误差小于1.5个像素,处理时间约7 ms.  相似文献   

13.
提出了在不同环境下视频序列中人脸检测定位的多级算法.首先,用改进的帧间差自适应阈值法检测运动区域.然后,用YCbCr颜色空间检测肤色区域,并用二值形态学操作进行后处理.最后,构造眼嘴映射检测定位人脸.实验结果证明,该算法可以有效运用于多人脸、不同表情和姿态、不同光照的情况,检测率平均达到81%.  相似文献   

14.
针对中文漫画图像的特点, 提出一种无监督的中文漫画图像对白自动定位方法, 以满足中文漫画移动阅读的需求。不同于现有基于学习的方法, 该方法不需要训练集, 且具有较强的鲁棒性, 主要包括3个步骤: 1) 利用包围漫画图像文字的空白区域(气泡)的连通性进行气泡检测, 并在气泡中检测完整字符对; 2) 基于字符形状与字符排版规则的一致性, 聚类形成字符行或字符列, 并提取字体特征; 3) 联合多页漫画图像字体特征, 利用贝叶斯分类器检测多页漫画中的剩余字符。在包含900页漫画图像的数据集上进行实验, 结果表明, 该方法可以有效定位中文漫画图像中的对白区域, 取得比较满意的实验结果。  相似文献   

15.
近年来,深度卷积神经网络应用于图像语义分割领域并取得了巨大成功。本文提出了一个基于RGB-D(彩色-深度) 图像的场景语义分割网络。该网络通过融合多级RGB网络特征图和深度图网络特征图,有效提高了卷积神经网络语义分割的准确率。同时,本文利用带孔的卷积核设计了具有捷径恒等连接的空间金字塔结构来提取高层次特征的多尺度信息。在SUN RGB-D数据集上的测试结果显示,与其它state-of-the-art的语义分割网络结构相比,本文所提出的场景语义分割网络性能突出。  相似文献   

16.
应用卷积神经网络将肺结节从含有背景、噪声的胸腔区域里检测并识别出来。首先,对图像进行预处理,获得肺实质图像。然后,应用Faster R-CNN多特征融合算法检测肺结节候选区域,再利用多角度特征融合方法滤除假阳性结节。接着,通过数据增强法、残差学习法、优化初始参数等对卷积神经网络的性能进行优化。最后,应用迁移学习方法对数据集进行训练,得出最终的检测结果。抽取LIDC数据集中含有肺结节图像数据,检测并识别肺结节的准确率达到98. 1%。实验结果表明,该算法优于其他3类算法,实现了肺结节的精确检测和识别,在保证检测和识别出正确结节的前提下,降低了过拟合率及训练时间,提高了算法效率,研究成果为早期肺癌的诊断提供参考依据。  相似文献   

17.
Extracting and analyzing network traffic feature is fundamental in the design and implementation of network behavior anomaly detection methods. The traditional network traffic feature method focuses on the statistical features of traffic volume. However, this approach is not sufficient to reflect the communication pattern features. A different approach is required to detect anomalous behaviors that do not exhibit traffic volume changes,such as low-intensity anomalous behaviors caused by Denial of Service/Distributed Denial of Service(Do S/DDo S)attacks, Internet worms and scanning, and Bot Nets. We propose an efficient traffic feature extraction architecture based on our proposed approach, which combines the benefit of traffic volume features and network communication pattern features. This method can detect low-intensity anomalous network behaviors and conventional traffic volume anomalies. We implemented our approach on Spark Streaming and validated our feature set using labelled real-world dataset collected from the Sichuan University campus network. Our results demonstrate that the traffic feature extraction approach is efficient in detecting both traffic variations and communication structure changes.Based on our evaluation of the MIT-DRAPA dataset, the same detection approach utilizes traffic volume features with detection precision of 82.3% and communication pattern features with detection precision of 89.9%. Our proposed feature set improves precision by 94%.  相似文献   

18.
心率变异性分析是最常用的一种基于心电信号的疲劳驾驶检测方法.然而,该方法需要被检测信号时间足够长,且准确率较低.因此提出一种基于短时心电信号的疲劳驾驶检测算法.首先,按照30s的时长截取短时心电信号序列,利用差分阈值法确定R波位置,根据R-R间期差值大小剔除不合格的噪声样本;然后,计算R-R间期序列的时域/频域特征并与利用ImageNet数据集预训练的深度卷积神经网络模型提取的特征相结合;最后,设计了一种随机森林分类器并基于这些特征进行分类.结果表明,该算法在疲劳驾驶检测上具有良好的分类效果,平均准确率达到91%.因此,相较于心率变异性分析方法,本算法检测所需心电信号更短,且在准确率上具备显著优势.  相似文献   

19.
近年来基于视频的车辆自动检测作为城市智能交通系统的一项重要技术一直受到关注.针对AdaBoost分类器目标检测所存在的漏检、误检和计算量过大等问题,提出一种基于混合高斯模型运动区域提取和Haar-like特征的AdaBoost级联分类器的交通视频车辆检测算法,首先通过建立混合高斯模型对运动目标的总体区域进行检测,进而提取基于车辆运动的感兴趣区域,再对其进行基于Haar-like特征的区域AdaBoost级联分类,实现对运动车辆的检测.由于采用了基于运动区域提取和分类相结合的检测模式,通过混合高斯背景模型较准确的提取出ROI作为车辆的候选区域,约束了每帧的搜索区域,使AdaBoost分类器的目标检测更具针对性,提高了检测的准确性,降低了漏检率;同时也减少了分类算法滑动窗口扫描所需要的时间,提高了检测速度.实验结果验证了所提出算法对复杂交通环境车辆检测的适应性和有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号