首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于改进YOLO-v3的眼机交互模型研究及实现
摘    要:针对嵌入式眼-机交互技术中所采用的传统眼行为识别方法准确率低、速度慢等问题,并结合所研制眼机交互系统硬件特点及应用场景,提出一种基于改进YOLO-v3的眼机交互模型。该模型通过去除13×13特征分辨率的检测模块、增加浅层网络的层数以及采用K-means聚类算法选取初始先验框,提高了网络像素特征提取细粒度并加快了检测速度,进而结合人眼特征参数提取方法和眼行为识别算法,构建出了眼机交互模型并进行实验。实验结果表明,该模型对不同眼行为的识别率达91.30%,改进的YOLO-v3网络的平均检测准确率(mean average precision,mAP)为99.9%,识别速度达22.8 FPS,相比原YOLO-v3方法检测时间缩短了11.4%。

本文献已被 CNKI 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号