鱼眼图像投影模型及使用

前序

​ 简单介绍一下目前的相机种类,主要是对相机镜头按照焦距及视角的大小,可分为标准镜头、广角镜头和鱼眼镜头。他们的一些特点如下:

  • 焦距:鱼眼镜头(小于等于16\(mm\))<广角镜头<普通标准镜头(50\(mm\))。

  • 视场角:鱼眼镜头(接近或者大于180°,工程上大于140°的就算)>广角镜头>普通标准镜头。

  • 畸变:鱼眼镜头>广角镜头>普通标准镜头。

普通单目相机

简介

​ 一般常见的普通小孔成像相机的成像模型如下所示,小孔相机模型采用相似成像的方式(入射角和出射角等大),内参包括焦距\(f_x,f_y\)和主点偏差\(c_x,c_y\)。如果焦距一定,那么图像传感器像素平面的面积直接决定了相机视场角的大小,超过这个视场角范围的物体不会被镜头获取到。因此基于透镜成像原理的相机,视场角无法做到足够大,水平视场角一般小于140°。在某些时候,比如气象科学空间观测、太阳能辐射研究计算天空视角系数、安防视频监控等实际场景中可能会需要更大视场角的相机,那么这时候广角相机-鱼眼相机就出现了。

透视成像的小孔成像相机模型,图源于这里

投影模型

\[ r_d=f \cdot tan \theta \]

ALS数据采集成果制作要求

  • 根据规范:http://www.nrsis.org.cn/mnr_kfs/file/read/75d2c98b7b855b1b508b280ac53187ac 机载点云数据高程中误差在不同比例尺上精度要求是不同的。

最大允许中误差为中误差的2倍。

关于控制点检核的一些思考

使用地面控制点检核ALS点云精度

任务描述

​ 使用地面布设的外业控制点GCP来检核ALS点云条带平差之后的绝对位置精度。如下图所示,红圈中的是GCP点,紫色和灰色是两个条带的ALS点云。图中显示了在\(z\)方向上的偏差。

​ 通过观察,有一部分控制点是在平面区域采集的,有一些是在边缘比较锋利的区域采集的。

目前存在的问题

​ 本身ALS点云就比较稀疏,再加上GCP也是离散的布设的,导致很难找到对应同名关系,想要找到对应位置的值就只能通过内插来实现。

​ 内插方法有很多,但是直接在ALS里面内插不是很现实,可以考虑转成格网,mesh的形式,然后基于新的数据表达方式再内插。例如可以用arcgis生成DTM,DEM,内插到高分辨率,然后再采样点和GCP做计算。

解决方案

最终论证,通过地面控制点应该是无法做到水平精度检核的,只能做到高程方向的检核。

Kinematic mapping trajectory estimation

Integrated trajectory estimation for 3D kinematic mapping with GNSS, INS and imaging sensors: A framework and review1

方法分类

  1. 多步方法。

​ 流程:首先用Kalman filtering 将GNSS和IMU融合到一起,如果轨迹足够准确,可以直接获得3D点云。也可以在后面加一个平差步骤,结合影像传感器的观测实现融合传感器定向,目的是:1)改正轨迹;2)传感器定向和标定;3)获取3D模型数据,e.g.点云。

​ 需要有一些假设:通常假设轨迹误差是由于缓慢变化的 GNSS 误差或未补偿的惯性传感器漂移造成的,因此是低频的,而轨迹的较高频率分量相对准确。 实际上,校正要么与飞行几何相关联,作为每条带的固定偏移,要么建模为缓慢时变。 由于轨迹误差在带内也可能变化很大,因此这种调整在实践中通常需要高度灵活的校正模型,而这也是的模型有较高的过拟合风险,导致点云中出现全局的变形。

​ 这些问题是的在传感器层级进行统一的误差建模的方法开始流形。

Hdl_graph_slam论文及代码解析_回环检测

回环检测

​ 闭环的作用就不多说了,koide采用的闭环检测方法其实挺简单的,就是一般闭环检测的基础准则。

候选准则

  • 候选帧不能离当前帧太近,场景变化不大的话,会引入过多的冗余匹配,对实时应用不合适;
  • 候选帧和当前帧的位姿之间的距离要足够小,这个是前提,如果都不小,那说明大概率不是闭环了,但是也不排除前端飘得确实很厉害的情况;小范围内,这个条件还是可以满足的,室外更大的场景,这种就不行了,可能飘得很厉害,只能上特征了。
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×