简单说来就是对机器人周边的环境进行光学处理,先用摄像头进行图像信息采集,将采集的信息进行压缩,然后将它反馈到一个由神经网络和统计学方法构成的学习子系统,再由学习子系统将采集到的图像信息和机器人的实际位置联系起来,完成机器人的自主导航定位功能。
1)摄像头标定算法:2D-3D映射求参。
传统摄像机标定主要有Faugeras标定法、Tscai两步法、直接线性变换方法、张正友平面标定法和Weng迭代法。自标定包括基于Kruppa方程自标定法、分层逐步自标定法、基于绝对二次曲面的自标定法和Pollefeys的模约束法。视觉标定有三正交平移法、平面正交标定法和旋转求内参数标定法。
2)机器视觉与图像处理:
a.预处理:灰化、降噪、滤波、二值化、边缘检测。
b.特征提取:特征空间到参数空间映射。算法有HOUGH、SIFT、SURF。
c.图像分割:RGB-HIS。
d.图像描述识别
3)定位算法:基于滤波器的定位算法主要有KF、SEIF、PF、EKF、UKF等。
也可以使用单目视觉和里程计融合的方法。以里程计读数作为辅助信息,利用三角法计算特征点在当前机器人坐标系中的坐标位置,这里的三维坐标计算需要在延迟一个时间步的基础上进行。根据特征点在当前摄像头坐标系中的三维坐标以及它在地图中的世界坐标,来估计摄像头在世界坐标系中的位置。这种降低了传感器成本,消除了里程计的累积误差,使得定位的结果更加精确。此外,相对于立体视觉中摄像机间的标定,这种方法只需对摄像机内参数进行标定,提高了系统的效率。
楼主最近还看过