摘要
本发明公开了一种基于主辅眼的眼动跟踪定位方法,该方法先确定主视眼;根据左、右眼相机实时采集的眼图,进行左、右眼瞳孔椭圆定位;根据瞳孔椭圆定位信息,建立简化3D眼球模型;建立光轴‑视轴转换模型,根据二维瞳孔椭圆逆投影成三维空间瞳孔圆,眼球中心与三维空间瞳孔圆的圆心连线即为光轴,然后根据光轴得到视轴;通过用户标定,建立视轴与屏幕注视点的映射模型,求解映射模型参数;采集到新眼图时,通过简化3D眼球模型求解视轴,再经过映射模型求解左、右眼注视点;双目融合,输出唯一的注视点。本发明充分利用了主视眼的分析和定位物体的优势,在不改变硬件的基础上有效提升了基于视频的双目眼动跟踪定位的准确度这一核心技术指标,使得眼动交互更加准确高效。