基于随机模板的结构光动态场景深度获取方法

xiaoxiao2020-7-22  7

基于随机模板的结构光动态场景深度获取方法
【专利摘要】本发明公开了一种基于随机模板的结构光动态场景深度获取方法,主要解决现有技术计算深度空间分辨率低,深度精度低的问题。其实现步骤为:设计随机模板P,经投影仪T将该随机模板P投射到三维场景中,用摄像机C记录经场景调制过的变形图像U;分别对随机模板P、变形图像U滑窗求均值得到类条纹图像Q和变形条纹图像B;使用Gabor滤波器求取这两类图像中像素点的相位;由相位关系得到变形条纹图像B中像素点与类条纹图像Q中像素点的粗略匹配结果;对粗略匹配结果进行补偿,得到最终的精确匹配结果;用匹配点坐标与线面相交几何关系求出对应场景的深度。本发明具有深度空间分辨率高、计算复杂度低的优点,可用于对动态场景的精确三维重建。
【专利说明】基于随机模板的结构光动态场景深度获取方法
【技术领域】
[0001]本发明属于计算机图像处理【技术领域】,涉及结构光动态场景深度的获取,可用于三维重建或目标识别。
【背景技术】
[0002]随着科学技术、工业生产的快速发展,在许多领域中,都需要获取物体的形状或空间位置等三维信息。在诸如人机交互、机器人深度感知、质量检测、逆向工程、数字化建模等众多领域,都有着十分重要的应用。目前,三维测量方法主要包括被动测量法和主动测量法。
[0003]被动式测距方法不需要对场景中添加可控光源,仅由环境中本身的光源来提供照明。可大体分为立体视觉法、聚焦法、阴影测量法等。虽然被动式测量方法对成像设备要求不高,不需要额外光源,且操作简便,容易实现,但是对于不存在明显特征的图像,该方法计算量大,匹配精度低,难以获得精细的测量结果。
[0004]在主动式测量中,需要使用一个特定的光源对被测物体进行照明,并在被测物体上形成相应的形变信息,进而通过对形变信息的解码可得到被测物体的深度信息。这种方法测量精度较高,应用广泛。目前此类方法主要可分为激光扫描法、飞行时间法、结构光法。
[0005]激光扫描法,是激光技术的应用之一,运用激光测距原理,实现待测目标的深度测量。但是激光测量法所用的设备价格昂贵,测量精度受发射噪声以及杂光的影响较大。
[0006]飞行时间法,其原理是通过计算接收到的光波的延时实现场景深度的求取。该方法原理简单,测量速度快,基于该方法所设计的产品携带方便,但是需要多次测量数据来求取深度数据,系统的实时性差,无法适用于动态场景。
[0007]结构光法,其原理是利用投射设备将具有一定规律的结构光模板投射到被测目标表面,将采集到的图像数据结合三角测距原理以及图形处理技术计算出物体表面的深度数据信息。利用结构光法实现深度数据的测量具有原理简单、易于实现、抗干扰能力强等优点,因而引起各界学者的广泛关注。基于结构光的测量方法又分为基于时间编码和基于空间编码两种方法。基于时间编码的方法因其需要一组投射模板,适用于静态场景;基于空间编码的方法将所有的编码信息压缩到一幅图中,因而只需投射一幅编码图案即可获得三维数据,适用于动态场景的检测。因此,为精确获取动态场景的深度值,基于空间编码的方法比较合适。
[0008]目前较多的结构光空间编码方式为基于颜色的编码方式,将不同颜色按照一定的编码方式进行排列进而产生一个彩色结构光模板。如江苏大学提出的一种基于彩色伪随机编码投影的特征点匹配方法,专利号为201010018212.4。此发明将不同颜色按照伪随机序列进行排列产生模板。通过像素点颜色的阈值不同进行特征区域区分,进而得到图像与模板的对应关系。但是,这种方法由于受到CCD摄像机颜色保真度及分辨率的影响而无法得到理想的效果和精度,而且不同颜色的场景对各个颜色的响应不同,所以摄像机记录下的颜色不能完全反映模板的颜色,导致在解码过程中容易产生错误。
【发明内容】

[0009]本发明的目的在于针对上述已有技术的不足,提出一种基于随机模板的结构光动态场景深度获取方法,以在不增加设备复杂性以及计算复杂性的情况下,避免颜色解码错误和匹配点定位不准确的问题,获取高精度的动态场景深度值。
[0010]为实现上述目的,本发明的技术方案包括如下步骤:
[0011](I)生成随机模板P,并经投影仪T将该随机模板P投射到三维场景中,用摄像机C记录经场景调制过的变形图像U ;
[0012](2)分别对随机模板P和变形图像U分别进行滑窗求均值,分别得到类条纹图像Q和变形条纹图像B,条纹周期为M ;
[0013](3)将类条纹图像Q和变形条纹图像B分别与Gabor滤波器卷积,分别得到卷积结果 Rq (xq, Ii1)和 Rb (xb, k2):
【权利要求】
1.一种基于随机模板的结构光动态场景深度获取方法,包括如下步骤: (1)生成随机模板P,并经投影仪T将该随机模板P投射到三维场景中,用摄像机C记录经场景调制过的变形图像U ; (2)分别对随机模板P和变形图像U分别进行滑窗求均值,分别得到类条纹图像Q和变形条纹图像B,条纹周期为M ; (3)将类条纹图像Q和变形条纹图像B分别与Gabor滤波器卷积,分别得到卷积结果Rq (xq, K)和 Rb (xb.k2):
2.根据权利要求1所述的基于随机模板的结构光动态场景深度获取方法,其中步骤(I)所述的生成随机模板P,按如下步骤进行: (Ia)随机生成一张黑色图像,将该图像分成若干8*8的单元块,每个块的第X列白色像素点个数C(X)为:
3.根据权利要求1所述的基于随机模板的结构光动态场景深度获取方法,其中所述步骤(2)中对随机模板P进行滑窗求均值,是选用4*8大小的窗口按如下公式对随机模板P进行滑窗求均值:
4.根据权利要求1所述的基于随机模板的结构光动态场景深度获取方法,其中所述步骤(2)的对变形图像U进行滑窗求均值,是选用4*8大小的窗口按如下公式对变形图像U进行局部滑窗求均值:
5.根据权利要求1所述的基于随机模板的结构光动态场景深度获取方法,其中步骤(5)所述的对随机模板P和变形图像U进行块匹配,确定步骤(5)中的相位周期Ctl,按如下步骤进行: (5a)选用归一化相关系数法作为匹配窗口相似度衡量准则,匹配窗口的大小选为8*8,在变形图像U中找到与变形条纹图像B中像素点Xb对应位置的像素点xu,设像素点Xu坐标为(r,c),以像素点xu为中心确定8*8匹配窗口,搜索随机模板P,计算为归一化相关系数 D(r, c):
6.根据权利要求1所述的基于随机模板的结构光动态场景深度获取方法,其中所述步骤(8)用线面相交几何关系求得对应场景的深度值D,通过如下公式进行:
【文档编号】G06T7/00GK103942802SQ201410178911
【公开日】2014年7月23日 申请日期:2014年4月29日 优先权日:2014年4月29日
【发明者】石光明, 李芹, 张少飞, 李甫, 高山, 杨莉莉 申请人:西安电子科技大学

最新回复(0)