视频监视方法和装置的制造方法

xiaoxiao2020-10-23  18

视频监视方法和装置的制造方法
【技术领域】
[0001] 本发明设及监视领域,特别是一种视频监视方法和装置。
【背景技术】
[0002] 智能视频行为分析系统在各种监控场所中有很高的应用价值,其基本通用方法为 通过对输入视频进行背景建模,利用背景图像与当前帖的图像检测运动目标,后续对运动 目标进行跟踪、分类和行为分析,或者采用训练识别的方式直接从视频中检测指定类型目 标,对检测到的目标进行跟踪和分析,并对行为事件进行预警判断,W达到智能监控的目 的。
[0003] 在行为分析中,绛线检测与区域入侵检测是基本的检测功能。其基本实现为;在视 频图像设置至少一个线段或一个区域,检测视频中的运动目标是否发生跨越该线段或进入 /离开该区域,若有事件发生,则产生报警。其中,绛线检测在视频图像中设置至少一条带有 方向的线段,检测运动目标是否从线的一侧运动到另一侧,若有绛线行为发生则产生报警 事件;区域入侵检测在视频图像中设置至少一个检测区域,检测运动目标是否从一个区域 外进入到该区域内,若有区域入侵行为发生则产生报警事件。
[0004] 现有的绛线和区域入侵检测技术,在图像平面上直接根据目标和所设置绛线、区 域是否相交来判断是否触发相应规则。由于摄像机成像存在透视效果,当图像中目标与绛 线或区域相交时,现实世界中,并不一定会发生拌线或者进入的动作,因此容易产生误判, 发生错误报警。

【发明内容】

[0005] 本发明的一个目的在于解决由于摄像机的透视效果造成事件误判的问题。
[0006] 根据本发明的一个方面,提供一种视频监视方法,包括:获取视频图像;根据视频 图像获取目标的=维坐标信息;基于目标和虚拟口的位置关系提取事件发生,其中,虚拟口 包括=维坐标信息。
[0007] 可选地,虚拟口为与地面垂直的口区域,虚拟口与地面的交线为直线、线段或折 线。
[0008] 可选地,根据视频图像获取目标的=维坐标信息包括;对比连续帖视频图像,或将 视频图像与背景图像对比,获取视频图像中的变化点或点群;从变化点或点群中提取点或 点群作为目标;确定目标的=维坐标信息。
[0009] 可选地,视频图像为平面视频图像;根据视频图像获取目标的=维坐标信息包括: 通过平面视频图像获取目标的平面坐标信息;根据平面坐标信息通过3D重建算法进行3D 重建,获得目标的=维坐标信息。
[0010] 可选地,获取视频图像的设备包括一个2D摄像机。
[0011] 可选地,视频图像包括多个不同拍摄位置的平面视频图像;根据视频图像获取目 标的=维坐标信息包括;将多个平面视频图像进行3D重建获得3D视频图像;根据3D视频 图像获取目标的=维坐标信息。
[0012] 可选地,获取视频图像的设备包括两个W上2D摄像机或基于双目视觉的3D摄像 机。
[0013] 可选地,视频图像为深度图像;根据视频图像获取目标的S维坐标信息为,根据深 度图像获取目标的=维坐标信息。
[0014] 可选地,获取深度图像的设备包括距离敏感装置或3D摄像机。
[0015] 可选地,基于目标和虚拟口的位置关系提取事件发生为:根据目标的S维坐标信 息中的水平坐标信息与虚拟口的位置关系提取事件发生,其中,虚拟口包括=维坐标中的 水平坐标信息。
[0016] 可选地,还包括;根据多帖视频图像确定视频图像中目标的运动轨迹;确定目标 的运动轨迹的=维坐标信息;基于目标的运动轨迹和虚拟口的位置关系提取事件发生。
[0017] 可选地,事件包括位于虚拟口内、位于虚拟口外、位于虚拟口区域、从外向内穿过 虚拟口、从内向外穿过虚拟口、从外向内运动且未穿过虚拟口和/或从内向外运动且未穿 过虚拟口。
[0018] 可选地,目标的类型包括人、动物和/或车。
[0019] 可选地,还包括,若提取到预定事件,则发出报警信息,报警信息包括入侵位置信 息、入侵方向信息。
[0020] 可选地,基于目标和虚拟口的位置关系提取事件发生包括,统计事件的连续帖数, 当帖数大于预定报警帖数时,判断事件发生。
[0021] 通过该样的方法,根据视频图像获取目标的=维坐标信息,基于虚拟口和目标的 =维坐标信息判断二者的位置关系,从而提取事件发生,有效避免了二维图像中由于透视 效果引起的事件误判,提高了事件判断的准确度。
[0022] 根据本发明的另一个方面,提供一种视频监控装置,包括;视频采集模块,用于获 取视频图像;=维坐标确定模块,用于根据视频图像获取目标的=维坐标信息;事件提取 模块,用于基于目标和虚拟口的位置关系提取事件发生,其中,虚拟口包括=维坐标信息。
[0023] 可选地,虚拟口为与地面垂直的口区域,虚拟口与地面的交线为直线、线段或折 线。
[0024] 可选地,目标获取模块包括:帖对比单元,用于对比连续帖视频图像,或将视频图 像与背景图像对比,获取视频图像中的变化点或点群;目标确定单元,用于从变化点或点群 中提取点或点群作为目标;=维坐标提取单元,用于确定目标的=维坐标信息。
[00巧]可选地,视频图像为平面视频图像;=维坐标确定模块包括;平面坐标获取单元, 用于通过平面视频图像获取目标的平面坐标信息;=维坐标提取单元,用于根据平面坐标 信息通过3D重建算法进行3D重建,获得目标的=维坐标信息。
[0026] 可选地,视频采集模块包括一个2D摄像机。
[0027] 可选地,视频图像包括多个不同拍摄位置的平面视频图像;=维坐标确定模块包 括;3D重建单元,用于将多个平面视频图像进行3D重建获得3D视频图像;=维坐标提取单 元,用于根据3D视频图像,获取目标的=维坐标信息。
[0028] 可选地,视频采集模块包括两个W上2D摄像机或基于双目视觉的3D摄像机。
[0029] 可选地,视频图像为深度图像;=维坐标确定模块,用于根据深度图像获取目标的 s维坐标信息。
[0030] 可选地,视频采集模块包括距离敏感装置或3D摄像机。
[0031] 可选地,事件提取模块用于根据目标的=维坐标信息中的水平坐标信息与虚拟口 的位置关系提取事件发生,其中,虚拟口包括=维坐标中的水平坐标信息。
[0032] 可选地,=维坐标确定模块还包括;轨迹确定单元,用于确定视频图像中目标的运 动轨迹;=维坐标提取单元,还用于确定目标的运动轨迹的=维坐标信息;事件提取模块, 还用于基于目标的运动轨迹和虚拟口的位置关系提取事件发生。
[0033] 可选地,事件包括位于虚拟口内、位于虚拟口外、位于虚拟口区域、从外向内穿过 虚拟口、从内向外穿过虚拟口、从外向内运动且未穿过虚拟口和/或从内向外运动且未穿 过虚拟口。
[0034] 可选地,还包括目标类型分析模块,用于分析目标类型,目标的类型包括人、动物 和/或车。
[00巧]可选地,还包括报警模块,用于根据提取到的预定事件发出报警信息,报警信息包 括入侵位置信息和/或入侵方向信息。
[0036] 可选地,事件提取模块还用于统计事件的连续帖数,当帖数大于预定报警帖数时, 判断事件发生。
[0037] 通过该样的装置,根据视频图像获取目标的=维坐标信息,基于虚拟口和目标的 =维坐标信息判断二者的位置关系,从而提取事件发生,有效避免了二维图像中由于透视 效果引起的事件误判,提高了事件判断的准确度。
【附图说明】
[0038] 此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发 明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
[0039] 图1为本发明的视频监视方法的一个实施例的流程图。
[0040] 图2为本发明的视频监视方法的另一个实施例的流程图。
[0041] 图3为本发明的确定目标的=维坐标部分一个实施例的流程图。
[0042] 图4为本发明的视频监视方法的又一个实施例的流程图。
[0043] 图5为本发明的视频监视方法的再一个实施例的流程图。
[0044] 图6为本发明的视频监视装置的一个实施例的示意图。
[0045] 图7为本发明的视频监视装置中=维坐标确定模块的一个实施例的示意图。
[0046] 图8为本发明的视频监视装置中S维坐标确定模块的另一个实施例的示意图。
[0047] 图9为本发明的视频监视装置中=维坐标确定模块的又一个实施例的示意图。
[0048] 图10为本发明的视频监视装置的另一个实施例的示意图。
【具体实施方式】
[0049] 下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
[0050] 本发明的视频监视方法的一个实施例的流程图如图1所示。
[0051] 在步骤101中,摄像设备获取监控区域的视频图像。
[0052] 在步骤102中,确定视频图像中需要监视的目标的S维坐标信息。该目标可W通 过当前的图像与背景图像的对比获得,或者可化围过前后几帖图像的对比获得。该目标可W是运动或静止的物体,也可W是图像中发生变化的像素点或点群。根据视频图像确定的 目标=维坐标信息可W是在相机坐标系下的,也可W是在地面坐标系下的。
[0053] 在步骤103中,根据目标和虚拟口的=维坐标信息确定二者的位置关系,从而提 取事件的发生。
[0054] 通过该样的方法,根据视频图像获取目标的=维坐标信息,基于虚拟口和目标的 =维坐标信息判断二者的位置关系,从而提取事件发生,有效避免了二维图像中由于透视 效果引起的事件误判,提高了事件判断的准确度。
[0055] 在一个实施例中,视频监控同时获取的目标可W是多个,从而减少事件的漏提取。
[0056] 虚拟口为与地面垂直的口区域,虚拟口与地面的交线可W是直线、线段或折线。通 过该样的方法,能够尽可能的划定 要监控保护的区域的边界,且从地面到空间均进行监控, 提高事件提取的全面和准确性。
[0057] 虚拟口在该直线、线段或折线的基础上向上延伸,高度可W是无限的,也可W预定 高度。虚拟口可W通过设置虚拟口与地面的交界线的方式进行设置;也可W直接通过划定 凸多边形的方式设定虚拟n,该多边形垂直于地面,且多边形的下边界为虚拟口与地面的 交线;还可W通过设置虚拟口与摄像头的距离的方式进行设定;或者先设定虚拟口延伸面 与地面的交界线,再设置虚拟口区域,虚拟口上下边界可W通过用户图像指定,或者设定高 度。通过该样的方式,能够根据监控需要自由设定虚拟口,更具灵活性,使得视频监控区域 更有针对性。
[0058] 在一个实施例中,可W对比连续帖的视频图像,或者将视频图像与背景图像对比, 根据相同位置像素点的值的不同,获取变化点或点群。根据视频图像种类的不同,像素点的 值可W包括色彩信息、灰度信息或深度信息。可W通过去噪,剔除误差点的方式从变化点或 点群中获取目标,或设置口限,当变化值超过口限值时确定变化点或点群为目标。
[0059] 通过该样的方法,能够捕捉到变化的点或点群作为目标,从而提高监控的灵敏度, 降低遗漏的概率。
[0060] 本发明的视频监视方法的另一个实施例的流程图如图2所示。
[0061] 在步骤201中,摄像设备获取监控区域的视频图像,该视频图像为平面视频图像。
[0062] 在步骤202中,确定目标的平面坐标信息。该目标可W是位于监控区域静止、运动 的物体,还可W是通过平面视频图像前后帖对比、或与背景图像的对比,像素点的值发生变 化的点或点群。
[0063] 在步骤203中,通过3D算法将平面视频图像进行3D重建,获取目标的=维坐标信 息。
[0064] 在步骤204中,根据目标的=维坐标信息与虚拟口的=维坐标信息,确定两者的 相对位置关系,判断事件的发生。
[0065] 通过该样的方法,能够根据单平面视频图像和目标的平面坐标信息进行3D重建, 获取目标的=维坐标信息,根据=维坐标信息判断事件的发生,设备安装标定简单,且避免 了在二维图像中由于透视效果引起的事件误判,提高了事件判断的准确度。
[0066] 图3为根据单平面视频图像和目标的平面坐标信息确定目标的=维坐标的一个 实施例的流程图。
[0067] 在步骤301中,利用一个物体在图像中平面上S个不同位置的高度信息来获取灭 线(vanishingline,是投影几何学中的一个最基本的概念,就是真实世界中的所有平行线 经过投影之后在图像上的交点构成的直线)方程。需要知道该物体在空间中的高度,获得 的=个不同位置需要不在一条直线上,高度信息可W用像素来表示。
[0068] 在步骤302中,利用地平面上一条直线的长度信息来表示获取摄像机绕X轴旋转 角度和绕Y轴旋转的角度。获取的直线在空间中的长度已知,它在图像中的长度信息可W 用像素来表示。
[0069] 在步骤303中,利用灭线方程和摄像机的旋转角度获取2D与3D的映射矩阵。
[0070] 在步骤304中,根据步骤303中的映射矩阵,W及平面坐标,获取=维坐标。
[0071] 通过该样的方法,能够根据目标、虚拟口的平面坐标,获取=维坐标,从而依据= 维坐标进行事件提取。
[0072] 在一个实施例中,获得2D平面视频图像与=维物体之间的对应关系的实现方法 具体如下:
[0073] 首先,对视频监控关注的平面进行标定,经过标定后,可W获得该平面上任意两点 在真实世界坐标系中对应的欧式距离。
[0074] 二维图像和S维物体之间的对应关系可W表示为如下公式:
[00 巧]
[0076] 其中A表示摄像机的崎变系数,考虑到一般的摄像机崎变都比较小,该里简化为 入=1,因此平面标定的重点即为获取投影矩阵P。经过推导可知,该矩阵可W由a,0(a 表示相机绕X轴的旋转角度(tiltangle),0表示相机绕Y轴的旋转角度(panangle))W 及灭线方程决定,具体推导细节可W参考文献;"化ng化nLvTao化aoRamNevatia,Self Calibrationofacamerafromvideoofawalkinghuman,ICPR,2002"。
[0077] 然后利用一个物体(空间中高度已知)在图像中地平面上S个不同位置(不在一 条直线上)的高度信息(像素表示)来获取灭线方程,利用地平面上一条直线(空间中长度 已知)的长度信息(像素表示),来获取a,0,从而得到投影矩阵P来标定一个平面。具 体方法如下:
[0078] A、使用者在输入的视频图像上找到地平面,在地平面上任意指定两个点,其像素 位置表示为(Ui,Vi)和(U2,V2),并给出该两个点在真实世界坐标系中的坐标间的欧式距离 d。
[0079]B、使用如下的方法来计算最优的a,P ;首先,将a,P分别离散化到0度到360 度之间,对每个可能的a,P的组合(Qi,Pi)构造一个映射矩阵Pi,将步骤A中获取的像 素位置(Ui,Vi)和(U2,V2)通过Pi获取其对应的S维真实世界的坐标后计算一次欧式距离 中,将与d误差最小的di对应的(a1,Pi)作为相机或者摄像机参数。
[0080]由于a,P的大小均处于0度到360度之间,可W将a,P分别离散化,女日a取 1度、2度.....360度,0取1度、2度.....360度,对于其中每一个可能的角度值作为一 组候选组合(a1,01)。
[008。 将公式1稍加变形,得到公式2 :
[0082]
[008引其中P-嗦示矩阵P的逆矩阵,即P-1P= 1,1表示3X3的单位矩阵。矩阵P的维 数是3X4,但是考虑到标定的点位于真实世界中的地平面上,即Z方向的坐标为0,该样,矩 阵P退化为一个3X3的矩阵,该样就可W求逆了。
[0084] 将(Ui,Vi)、(咕,V2)代入上述公式,得到该两点的世界坐标狂i,Yi,Zi)和0(2,Y2,Z2), 然后,计算其欧式距P
与d的误差A(a1,01),其具体定义 可W有很多种表现形式,该里只推荐比较常用的两种I
I或 者I化-X2)2+化-Y2)2+化-Z2)2-d2|。
[0085] 对于所有可能的a,P的值,选出误差最小的一组参数a%fT作为最优的参数;
[0086]
[0087]C、计算灭线方程。现有技术中,任意一种获取灭线的方法都适用本发明,其中,灭 线的计算方法可W参考文献"Single-ViewMetrology;AlgorithmsandApplications", AntonioCriminisi,proceedingof24DAGMsymposiumonPatternRecognition。
[0088] D、计算估计矩阵二维坐标到=维坐标的投影矩阵P。
[0089] 获取上述相机参数a,P之后,可W通过下式获得投影矩阵:
[0090]P=K[R|t] (4)
[00川其中,矩阵P是一个3X4的映射矩阵,K是一个3X3的内部参数矩阵,
(U。,V。)表示视频图像的本征点,可W用视频图像的中屯、点表示,
表示相机或摄像机的焦距,R是一个3X3的旋转矩阵,由公式巧) 表示,其中a表示摄像机绕X轴的旋转角度(tiltangle),0为绕Y轴的旋转角度(pan angle),丫为绕Z轴的旋转角度(yawangle)
丫近似于灭线方程相对于水平方向的倾角。
[0092]
[009引 t是一个3X1的矩阵,可W表示为;t=即0,化,0]了,化表示取景设备距离地面的 高度,T表示对[0,He, 0]进行转置运算。
[0094]E、由于虚拟口和目标在同一水平面上,即Z轴坐标是相同的,因此在计算过程中, 省略Z轴的计算,只需要获得目标在S维坐标下的XY轴坐标。利用公式(6)将图像中地平 面上的任意坐标点带入映射矩阵P,获取其对应的S维坐标下的XY轴坐标。尸表示退化处 理后的3X3的映射矩阵的逆矩阵。
[0095]
[0096] 使用如上方法,可W获得2D与3D之间转换的矩阵公式化),将平面坐标带入公式 化),能够获得该平面坐标对应的=维坐标。
[0097] 在进行图像标定前,可W先对图像进行诸如降噪滤波、图像增强和/或电子稳像 等预处理,从而提高检测的准确性。
[0098] 通过该样的方法,能够在只有一个2D摄像头,获取图像为平面视频图像的条件 下,将目标的平面坐标转化为=维坐标,从而W较少的成本、设备,实现W物体的=维坐标 为基础进行事件提取的目的。
[0099] 图4为本发明的视频监控方法的另一个实施例的流程图。
[0100] 在步骤401中,获取多个从不同位置拍摄的平面视频图像。多个平面视频图像为 监控同一区域的视频图像。
[0101] 在步骤402中,将多个平面视频图像3D重建,获取3D视频图像。
[0102] 在步骤403中,根据3D视频图像获取目标的=维坐标信息。可W根据3D视频图 像中像素点坐标、色彩信息的变化获取变化的点或点群,从变化的点或点群中提取目标,根 据3D视频图像获取目标的=维坐标信息。
[0103] 在步骤404中,根据目标的S维坐标信息和虚拟口的S维坐标信息,判断二者的 位置关系,提取事件的发生。
[0104] 通过该样的方法,能够获取同一监控区域从不同位置拍摄的多个平面视频图像, 将多个平面视频图像进行3D重建获取3D视频图像,根据3D视频图像进行目标=维坐标信 息的确定,从而能够运用=维坐标信息进行事件的提取,避免使用二维坐标进行事件提取 时,由于透视效果引起的事件误判。与使用单平面视频图像进行3D重建的方法相比,更加 准确,从而减小了事件提取的误差。
[0105] 在一个实施例中,使用两个2D摄像机从两 个不完全相同的位置拍摄获取平面视 频图像。将两个平面视频图像进行3D重建的方法可W具体如下:
[0106] 首先,基于双摄像机的双目立体视觉系统必须安装在一个稳定的平台上,在进行 监控场景的拍摄时,要确保摄像机的内参(比如焦距)和两个摄像机的位置关系不能够发 生变化,否则要重新对系统进行标定。获取两个摄像机的成像画面,并对结果进行分析,提 取深度信息。
[0107] 为了得到更高的精度,可W使摄像机的焦距和基线长度增大,同时使监控区域尽 可能靠近立体视觉系统,确保监控区域的交叠区域足够大并且两个摄像机大致对齐,即每 个摄像机绕光轴旋转角度不能太大。
[010引 A、消除崎变。使用数学方法消除径向和切线方向上的镜头崎变,
[0109] 径向崎变使得光线在远离透镜中屯、的地方比靠近中屯、的地方更加弯曲。对于径向 崎变,将成像位置按照公式(7)进行校正。
[0112] 该里,XI,yi为校正后的新位置,X,y为原始位置,对于便宜的网络摄像机,使用前 两项;崎变很大的如鱼眼摄像机,使用第=项。
[0113] 切向崎变是由于透镜制造缺陷使得透镜本身与图像平面不平行造成。对于切向崎 变,将成像位置按照公式(8)进行校正。
[0116] 该里,X2,y2为校正后的新位置,X,y为原始位置。
[0117] B、摄像机校正。调整摄像机的角度和距离,输出行对准(图像在一个平面上,图像 上的每一行是严格对齐的)的校正图像。
[0118] C、图像匹配;查找两个摄像机视场中的相同特征,输出视差图,差值是指两图像上 的相同坐标在X坐标上的差值X1-X2。
[0119] D、重投影。知道了两个摄像机的相对几何位置后,将视差图通过S角测量的方法 转换成距离。
[0120] 如图3所示,利用相似立角形可W推出深度信息Z值。
[0121]
[0122] 其中,X1-X2即为视差,量纲是像素点,f的量纲也是像素点,T为两台摄像机的中屯、 距,一般设成毫米。
[0123] 通过该样的方法,能够获得平面视频图像与摄像头之间的距离,从而在平面坐标 的基础上获得深度信息,实现=维坐标的获取。
[0124] 在一个实施例中,可W使用基于双目视觉的3D摄像机获取视频图像。该样的方 法,能够简化多平面摄像机位置选择和安装标定的过程,使用更加方便。
[0125] 图5为本发明的视频监控方法的再一个实施例的流程图。
[0126] 在步骤501中,通过3D摄像机、距离敏感装置等获取深度图像。如kinect传感器、 =维激光扫描仪或照相式扫描仪。通过传感器来感知镜头前面的环境,使用例如黑白光谱 的方式来判断物品与传感器的物理距离,收集镜头视野里的每一点的深度信息,从而获取 一幅深度图像。深度图像中像素点的值为深度信息,即每一个像素点的数值都表达该像素 点对应的物理环境与摄像头的距离信息。在一个实施例中,使用kinect传感器获取深度信 息,kinect传感器的红外发射器发射红外线,经光栅形成结构光,在物体表面投射出散斑图 案,CMOS摄像机拍摄散斑图像,根据参考散斑图案对应的距离获得待测物体的近似深度距 离,利用S角测量法,对待测物体的散斑图案进行局部补偿,得到深度图像,每30ms整合一 幅深度图像,并用3D效果模型显示。在一个实施例中,可W通过=维激光扫描仪或照相式 扫描仪,通过激光测量原理,获取镜头前的物体与镜头的距离,形成由包含=维坐标信息的 密集点云构成的深度图像。
[0127] 在步骤502中,根据深度图像获取目标的S维坐标信息。目标可W是位于监控区 域内的物体,也可W是将连续帖深度图像相对比,深度信息发生变化的点或点群,还可W是 与背景深度图像相比,深度信息发生变化的点或点群。
[0128] 在步骤503中,基于目标的S维坐标信息和虚拟口的位置关系提取事件发生,该 =维坐标信息为目标在真实环境下的=维坐标信息。可提取的事件包括,目标出现在虚拟 口内,目标从外向内穿过虚拟口或目标位于虚拟口外等。可W根据目标与虚拟口的相对位 置关系判断是否报警W及确定报警信息。
[0129] 通过该样的方法,通过深度图像获取目标的S维坐标信息,基于虚拟口和目标的 =维坐标信息判断二者的位置关系,从而提取事件发生,有效避免了二维图像中由于透视 效果引起的事件误判,提高了事件判断的准确度。
[0130] 在一个实施例中,可W使用2D摄像机获取监控区域的平面视频图像,平面视频图 像与深度图像监控同一区域,根据平面视频图像中色彩信息的变化提取变化的点或点群作 为目标,再根据深度图像获取目标的=维坐标信息。
[0131] 通过该样的方法,能够根据清晰度更高、具有色彩信息的平面视频图像获取目标, 防止由于深度信息变化不明显导致误判为噪声,从而降低漏捕捉目标的概率,使监控更加 可靠。
[0132] 在一个实施例中,由于目标可能处于运动状态,可W根据目标的运动轨迹提取事 件的发生。
[0133] 通过比对前后多帖视频图像,提取运动目标,获取目标的运动轨迹。可W根据获取 的视频图像的种类,采用图2、图3或图4中的方法获取运动轨迹的S维坐标信息,分析目标 的运动轨迹的=维坐标信息与虚拟口的=维坐标信息,判断二者的相对位置关系,从而判 断事件发生。
[0134] 根据目标的运动轨迹和虚拟口的=维坐标信息提取事件的发生,提取到的事件可 W包括;从外向内穿过虚拟口、从内向外穿过虚拟口、从外向内运动且未穿过虚拟口、从内 向外运动且未穿过虚拟n。通过该样的方法,能够实现对目标的持续监测,提高事件提取的 准确性。
[0135] 在一个实施例中,根据目标的S维坐标信息和虚拟口的位置关系提取事件的方法 具体如下:
[0136]A、获取目标和虚拟口的S维坐标信息。确定一条参考直线,该里选取经由图像的 中屯、最下点与图像下边界垂直的一条直线。
[0137]B、分别计算当前帖图像中虚拟口设置的各线段端点到参考点坐标的连线与参考 直线的夹角,分别记作01,02... 0m,m为端点个数,计算当前帖图像中目标坐标点到参考 点坐标的连线与参考直线的夹角a,将01,02. ..0m与a按照数值的大小进行排序,选择 大于a的0最小值记作Ti,选择小于a的0最大值,记作T2,记录Ti、T2对应的线段端 点转换后的S维坐标(Xi,yi)和(X2,y2),记录此时运动目标转换后的S维坐标(x,y),记录 参考点转换后的S维坐标狂,Y)。
[013引 C、分别计算前一帖图像中虚拟口设置的各线段端点到参考点坐标的连线与参考 直线的夹角,分别记作0/,02' ... 0。',m为端点个数,计算前一帖图像中目标坐标点 到参考点坐标的连线与参考直线的夹角a',将0/,0 2' ... 0。'与a'按照数值的 大小进行排序,选择大于a'的0 '最小值记作T/,选择小于a'的0 '最大值记作 了2',记录Ti'、T2'对应的线段端点转换后的S维坐标(X/,y/ )和(X2',y2'),记录 此时运动目标转换后的S维坐标(X',y')。
[0139]D、分别计算Ti,T2对应的线段端点转换后的S维坐标(Xi,yi)和(X2,y2)与参考点 转换后的S维坐标狂,巧的距离di,d2,计算运动目标转换后的S维坐标(x,y)与参考点转 换后的S维坐标狂,Y)的距离d。
[0140] d =(狂-x)2+(Y-y)2)i/2 (10)
[0141]判断d与di和d2的大小,有可能出现S种结果;d比d1和d2都大,d比d1和d2都 小,d介于di和d之间,分别记作结果1. 1,1. 2,1. 3。
[0142] E、分别计算Ti',了2'对应的线段端点转换后的S维坐标(X/,y/)和(X2', 72')与参考点转换后的S维坐标狂,Y)的距离d/,d2',计算运动目标转换后的S维坐 标(X,y)与参考点转换后的S维坐标狂,Y)的距离d'。
[0143] 判断d'与(V和(V的大小,有可能出现S种结果;d'比(V和(V都大,d' 比V和(V都小,d'介于(V和(V之间,分别记作结果2. 1,2. 2,2. 3。
[0144] F、根据结果进行运动方向的判断。
[0145] 结果1. 1,2. 1组合;说明运动目标离参考点的距离一直大于虚拟口设置的线段端 点离参考点的距离,未出现穿越虚拟口情况。
[0146] 结果1. 1,2. 2组合;说明运动目标距参考点的距离发生从小于到大于虚拟口设置 的线段端点离参考点的距离,发生穿越虚拟口情况,方向为从内到外。
[0147] 结果1. 1,2. 3组合;说明运动目标距参考点的距离发生从小于到大于虚拟口设置 的线段端点离参考点的距离,发生穿越虚拟口情况,方向为从内到外。
[014引结果1. 2,2. 1组合;说明运动目标距参考点的距离发生从大于到小于虚拟口设置 的线段端点离参考点的距离,发生穿越虚拟口情况,方向为从外到内。
[0149] 结果1. 2,2. 2组合;说明运动目标离参考点的距离一直小于虚拟口设置的线段端 点离参考点的距离,未出现穿越虚拟口情况。
[0150] 结果1. 2,2. 3组合;说明运动目标距参考点的距离发生从大于到小于虚拟口设置 的线段端点离参考点的距离,发生穿越虚拟口情况,方向为从外到内。
[0151] 结果1. 3,2. 1组合;说明运动目标距参考点的距离发生从大于到小于虚拟口设置 的线段端点离参考点的距离,发生穿越虚拟口情况,方向为从外到内。
[0152] 结果1. 3,2. 2组合;说明运动目标距参考点的距离发生从小于到大于虚拟口设置 的线段端点离参考点的距离,发生穿越虚拟口情况,方向为从内到外。
[0153] 结果1. 3,2. 3组合;说明运动目标离参考点的距离一直介于虚拟口设置的线段端 点离参考点的距离之间,未出现穿越虚拟口情况,不报警。 [0154] 通过该样的方法,能够根据目标的运动状态提取事件的发生,判断目标的运动方 向W及是否穿越虚拟口,达到较为准确和详细的事件提取效果。
[0155] 在一个实施例中,根据视频图像获取的目标的=维坐标信息为相机坐标系下的= 维坐标信息,虚拟口的=维坐标信息为地面坐标系下的=维坐标信息。需要将目标的=维 坐标信息与虚拟口的S维坐标信息统一到同一坐标系下。在一个实施例中,根据相机坐标 系与地面坐标系的关系,将目标在相机坐标系下的S维坐标信息转换到地面坐标系。虚拟 口可W是垂直于地面的口区域,将虚拟口和目标的坐标系统一到地面坐标系,可W仅根据 虚拟口和目标的水平坐标信息判断二者的相对位置关系,根据二者的相对位置关系判断事 件发生。
[0156] 通过该样的方法,能够将虚拟口和目标的S维坐标信息统一到地面坐标系中,在 同一坐标系中判断二者的位置关系,提高事件提取的准确性。在虚拟口垂直于地面的情况 下,仅根据水平坐标信息判断二者的相对位置关系,降低事件提取的复杂度。
[0157] 在一个实施例中,虚拟口的=维坐标信息为相机坐标系下的=维坐标信息,或者 可W根据相机坐标系与地面坐标系的关系,将虚拟口在地面坐标系下的立维坐标信息转换 到相机坐标系,从而获取目标和虚拟口在相机坐标系下的相对位置关系,根据二者的相对 位置关系判断事件发生。
[0158] 通过该样的方法,能够将虚拟口和目标的S维坐标信息统一到相机坐标系中,在 同一坐标系中判断二者的位置关系,提高事件提取的准确性。由于不需要对目标的=维坐 标信息进行转换,简化了数据处理的步骤。
[0159] 在一个实施例中,根据视频图像获取的目标的S维坐标信息为地面坐标系下的S 维坐标信息,虚拟口的=维坐标信息为地面坐标系下的=维坐标信息。可W仅根据虚拟口 和目标的水平坐标信息判断二者的相对位置关系,根据二者的相对位置关系判断事件发 生。
[0160] 通过该样的方法,仅根据二者的水平坐标信息判断事件发生,能够降低事件提取 的复杂度。
[0161] 在一个实施例中,目标与虚拟口的位置关系包括位于虚拟口内、位于虚拟口外、位 于虚拟口区域、从外向内穿过虚拟口、从内向外穿过虚拟口、从外向内运动且未穿过虚拟口 或从内向外运动且未穿过虚拟口。在该些事件中,可根据具体需求判断哪个或哪些为需要 报警的事件,如位于虚拟口内、从外向内穿过虚拟口等。该样的方法,能够方便用户根据具 体使用场景选择需要报警的事件,从而增加本方法的可用场景。
[0162] 在一个实施例中,还包括报警功能。预定需要报警的事件,如位于虚拟口内,处在 虚拟口区域,从外向内穿越虚拟口和/或从内向外穿越虚拟口等。当该些事件发生时,触发 报警。通过该样的方法,能够实现清楚的向用户提供报警信息,帮助用户及时处理发生的事 件。
[0163] 在一个实施例中,还包括目标类型分析。目标类型包括人、动物或车。通过图像匹 配,获取目标的类型,从而丰富事件提取信息。通过该样的方法,能够选择需要报警的目标 类型,减少用户的工作量。
[0164] 在一个实施例中,统计事件提取的帖数,当事件的提取达到预定的帖数时,才确定 事件发生。通过该样的方法,能够防止误判,过滤一部分的虚警。
[0165] 本发明的视频监控装置的一个实施例的示意图如图6所示。其中,601为视频采集 模块,用于获取监控区域的视频图像,视频采集模块可W为单个或多个2D摄像机、3D摄像 机或距离敏感装置;视频采集模块601将采集到的视频图像发送给=维坐标确定模块602, =维坐标确定模块602根据视频图像获取目标的=维坐标信息,该目标可W通过当前的图 像与背景图像的对比获得,或者可W通过前后几帖图像的对比获得,该目标可W是运动或 静止的物体,也可W是图像中发生变化的像素点或点群。=维坐标确定模块602将目标的 S维坐标信息发送给事件提取模块603 ;事件提取模块603根据目标的S维坐标信息和虚 拟口的=维坐标信息确定目标和虚拟口的位置关系,提取事件的发生。
[0166] 通过该样的装置,根据视频图像获取目标的S维坐标信息,基于虚拟口和目标的 =维坐标信息判断二者的位置关系,从而提取事件发生,有效避免了二维图像中由于透视 效果引起的事件误判,提高了事件判断的准确度。
[0167] 虚拟口为与地面垂直的口区域,虚拟口与地面的交线可W是直线、线段或折线。该 样的装置,能够尽可能的划定要监控保护的区域的边界,且从地面到空间均进行监控,提高 事件提取的全面和准确性。
[0168] 虚拟口在该直线、线段或折线的基础上向上延伸,高度可W无限,也可W预定高 度。虚拟口可W通过设置虚拟口与地面的交界线的方式进行设置;也可W直接通过划定凸 多边形的方式设定,该多边形垂直于地面,且多边形的下边界为虚拟口与地面的交线;还可 W通过设置虚拟口与摄像头的距离的方式进行设定;或者先设定虚拟口延伸面与地面的交 界线,再设置虚拟口区域,虚拟口上下边界可W通过用户图像指定,或者设定高度。虚拟口 的设置可W通过外部程序的接口实现。该样的装置,能够根据监控需要自由设定虚拟口,更 具灵活性,使得视频监控区域更有针对性。
[0169]图7为本发明的视频监视装置中=维坐标确定模块的一个实施例的示意图。其 中,701为帖对比单元,用于将视频采集模块获取的视频的连续帖进行对比,或者将当前帖 的视频图像与背景图像对比,获取视频图像中像素值发生变化的像素点或点群。根据视频 图像种类的不同,像素值可W是色彩信息、=维坐标信息或深度信息。702为目标确定单 元,用于对于帖对比单元701从视频图像中提取的变化点或点群,通过筛选或设置口限等 操作,提取目标。=维坐标提取单元703根据视频图像确定目标的=维坐标信息。
[0170] 该样的装置,能够捕捉到变化的点或点群作为目标,从而提高监控的灵敏度,降低 遗漏的概率。
[0171] 在一个实施例中,视频采集模块获取的视频图像为平面视频图像。=维坐标确定 模块如图8所示,801为平面坐标获取单元,用于从获取的平面视频图像中获取目标的平面 坐标信息。802为S维坐标提取单元,利用平面坐标获取单元801获取的目标的平面坐标信 息对坐标进行转换,获取目标的=维坐标信息。可W通过上文中公式(6)实现2D坐标转换 为3D坐标。
[0172] 该样的装置,能够在视频采集模块为2D摄像机,获取的视频图像为单2D视频图像 的情况下,实现获取目标的=维坐标信息,通过=维坐标信息进行事件的判断,从而避免由 于透视效果引起的事件误判。
[0173] 在一个实施例中,S维坐标确定模块如图9所示,901为帖对比单元,用于对比连 续帖的平面视频图像,或将平面视频图像与背景图像对比,获取变化的像素点或点群。902 为目标确定单元,用于从帖对比单元901获取的变化点或点群中提取目标。903为平面坐标 获取单元,用于从平面视频图像中获取目标的平面坐标信息,904为=维坐标提取单元,用 于根据目标的平面坐标信息和平面坐标与=维坐标的运算关系获取目标的=维坐标信息。
[0174] 该样的装置,能够根据单平面视频图像,通过帖的对比获取变化的点或点群作为 目标,提高监控的灵敏度,降低遗漏的概率,实现了获取目标的=维坐标信息,通过=维坐 标信息进行事件的判断,从而避免由于透视效果引起的事件误判。
[0175] 在一个实施例中,视频采集模块获取的视频图像为多个从不同拍摄位置拍摄的同 一区域的平面视频图像。=维坐标确定模块如图8所示,801为3D重建单元,用于将多个从 不同拍摄位置拍摄的同一区域的平面视频图像进行3D重建,获取3D视频图像;802为=维 坐标提取单元,用于根据3D重建单元801获得的3D视频图像获取目标的=维坐标信息。
[0176] 该样的装置,能够获取同一监控区域的从不同位置拍摄的多个平面视频图像,将 多个平面视频图像进行3D重建获取3D视频图像,根据3D视频图像进行目标=维坐标的确 定,从而能够运用=维坐标信息进行事件的提取,避免使用二维坐标进行事件提取时,由于 透视效果引起的事件误判。
[0177] 在一个实施例中,=维坐标确定模块如图9所示,901为3D重建单元,将多个从不 同位置拍摄的平面视频图像进行3D重建,获取3D视频图像。902为帖对比单元,用于将重 建后的3D视频图像的前后帖进行对比,或将3D视频图像与背景图像对比,获取=维坐标信 息或色彩信息发生变化的点或点群。903为目标提取单元,在帖对比单元902确定的变化点 或点群中提取目标。904为=维坐标提取单元,根据3D重建单元901重建获取的3D视频图 像,获取目标的二维坐标f目息。
[0178] 该样的装置,能够在获取的图像为多个不同拍摄位置的平面视频图像的情况下, 通过3D重建获取3D视频图像,在3D视频图像中获取变化点或点群作为目标,提高监控的 灵敏度,降低遗漏的概率。能够运用=维坐标信息进行事件的提取,避免使用二维坐标进行 事件提取时,由于透视效果引起的事件误判。
[0179] 在一个实施例中,视频采集模块为距离敏感装置,获取的视频图像为深度图像,贝U =维坐标确定模块根据深度图像获取目标的=维坐标信息。该样的装置,通过深度图像获 取目标的=维坐标信息,基于虚拟口和目标的=维坐标信息判断二者的位置关系,从而提 取事件发生,有效避免了二维图像中由于透视效果引起的事件误判,提高了事件判断的准 确度。
[0180] 在一个实施例中,如图7所示,帖对比单元701对比连续帖的深度图像,或将深度 图像与背景深度图像对比,获取深度信息发生变化的像素点或点群;目标提取单元702从 变化点或点群中提取目标;=维坐标提取单元703根据深度图像,获取目标的=维坐标信 息。
[0181] 该样的装置,能够根据深度图像中深度信息的变化提取变化点或点群作为目标, 提高监控的灵敏度,降低遗漏的概率。能够运用=维坐标信息进行事件的提取,避免使用二 维坐标进行事件提取时,由于透视效果引起的事件误判。
[ 0182] 在一个实施例中,视频采集模块为包含距离敏感装置和2D摄像机的设备,如 Kinect、PMDCARMERA或MESASR等,获取的图像为深度图像和平面视频图像。可W将平面 视频图像的连续帖对比,或与背景图像对比,确定色彩信息发生变化的点或点群,从变化点 或点群中提取目标。根据深度图像获取目标的=维坐标信息。
[0183] 该样的装置,能够根据清晰度更高、具有色彩信息的平面视频图像获取目标,防止 由于深度信息变化不明显导致误判为噪声,从而降低漏捕捉目标的概率,使监控更加可靠。
[0184] 在一个实施例中,S维坐标确定模块还包括轨迹确定单元,轨迹确定单元通过记 录目标在多帖视频图像中的位置信息确定目标的运动轨迹,再通过=维坐标提取单元确定 目标的运动轨迹的S维坐标信息。
[0185] 根据目标的运动轨迹和虚拟口的=维坐标信息提取事件的发生,提取到的事件可 W包括;从外向内穿过虚拟口、从内向外穿过虚拟口、从外向内运动且未穿过虚拟口、从内 向外运动且未穿过虚拟n。通过该样的装置,能够实现对目标的持续监测,提高事件提取的 准确性。
[0186] 在一个实施例中,本发明的视频监控装置的示意图如图10所示。其中,1001U002 和1003分别为视频采集模块、=维坐标确定模块和事件提取模块,其工作过程与图6中相 似。视频监控装置还可W包括报警模块1005。当事件提取模块提取到预定需要报警的事件 时,发送报警信号、事件信息到报警模块1005触发报警。该样的装置,能够实现清楚的向用 户提供报警信息,帮助用户及时处理发生的事件。预定需要报警的事件可W包括位于虚拟 口内,处在虚拟口区域,从外向内穿越虚拟口和/或从内向外穿越虚拟口等。
[0187] 在一个实施例中,视频监控装置还包括目标类型分析模块1004。目标类型分析模 块1004通过视频采集模块获得的视频图像匹配获取目标类型,目标类型可W包括人、动物 和/或车。通过图像匹配,获取目标的类型,从而丰富事件提取信息。在一个实施例中,报 警模块1005可W获取目标类型,向用户提供目标类型信息。通过该样的装置,可W选择需 要报警的目标类型,减少用户的工作量。
[0188] 在一个实施例中,事件提取模块统计提取到的事件发生的帖数,当提取的事件达 到预定的帖数时,才确定事件发生。该样的装置能够防止误判,过滤一部分的虚警。
[0189]最后应当说明的是;W上实施例仅用W说明本发明的技术方案而非对其限制;尽 管参照较佳实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解;依然 可W对本发明的【具体实施方式】进行修改或者对部分技术特征进行等同替换;而不脱离本发 明技术方案的精神,其均应涵盖在本发明请求保护的技术方案范围当中。
【主权项】
1. 一种视频监视方法,其特征在于: 获取视频图像; 根据所述视频图像获取目标的三维坐标信息; 基于所述目标和虚拟门的位置关系提取事件发生,其中,所述虚拟门包括三维坐标信 息。2. 根据权利要求1所述的方法,其特征在于,所述虚拟门为与地面垂直的门区域,所述 虚拟门与地面的交线为直线、线段或折线。3. 根据权利要求1所述的方法,其特征在于,所述根据所述视频图像获取目标的三维 坐标信息包括: 对比连续帧所述视频图像,或将所述视频图像与背景图像对比,获取所述视频图像中 的变化点或点群; 从所述变化点或点群中提取点或点群作为目标; 确定所述目标的三维坐标信息。4. 根据权利要求1所述的方法,其特征在于,所述视频图像为平面视频图像; 所述根据所述视频图像获取目标的三维坐标信息包括: 通过所述平面视频图像获取所述目标的平面坐标信息; 根据所述平面坐标信息通过3D重建算法进行3D重建,获得所述目标的所述三维坐标 信息。5. 根据权利要求4所述的方法,其特征在于,获取所述视频图像的设备包括一个2D摄 像机。6. 根据权利要求1所述的方法,其特征在于,所述视频图像包括多个不同拍摄位置的 平面视频图像; 所述根据所述视频图像获取目标的三维坐标信息包括: 将多个所述平面视频图像进行3D重建获得3D视频图像; 根据所述3D视频图像获取所述目标的三维坐标信息。7. 根据权利要求6所述的方法,其特征在于,获取所述视频图像的设备包括两个以上 2D摄像机或基于双目视觉的3D摄像机。8. 根据权利要求1所述的方法,其特征在于,所述视频图像为深度图像; 所述根据所述视频图像获取目标的三维坐标信息为,根据所述深度图像获取目标的三 维坐标信息。9. 根据权利要求8所述的方法,其特征在于,获取所述深度图像的设备包括距离敏感 装置或3D摄像机。10. 根据权利要求1所述的方法,其特征在于,所述基于所述目标和虚拟门的位置关系 提取事件发生为: 根据所述目标的三维坐标信息中的水平坐标信息与虚拟门的位置关系提取事件发生, 其中,所述虚拟门包括三维坐标中的水平坐标信息。11. 根据权利要求1所述的方法,其特征在于,还包括: 根据多帧所述视频图像确定所述目标的运动轨迹; 确定所述目标的所述运动轨迹的三维坐标信息; 基于所述目标的所述运动轨迹和所述虚拟门的位置关系提取事件发生。12. 根据权利要求1所述的方法,其特征在于,所述事件包括位于虚拟门内、位于虚拟 门外、位于虚拟门区域、从外向内穿过虚拟门、从内向外穿过虚拟门、从外向内运动且未穿 过虚拟门和/或从内向外运动且未穿过虚拟门。13. 根据权利要求1所述的方法,其特征在于,所述目标的类型包括人、动物和/或车。14. 根据权利要求1所述的方法,其特征在于,还包括,若提取到预定事件,则发出报警 信息,所述报警信息包括入侵位置信息和/或入侵方向信息。15. 根据权利要求1所述的方法,其特征在于,基于所述目标和虚拟门的位置关系提取 事件发生包括,统计事件的连续帧数,当所述帧数大于预定报警帧数时,判断事件发生。16.-种视频监控装置,其特征在于,包括: 视频采集模块,用于获取视频图像; 三维坐标确定模块,用于根据所述视频图像获取所述目标的三维坐标信息; 事件提取模块,用于基于所述目标和虚拟门的位置关系提取事件发生,其中,所述虚拟 门包括三维坐标信息。17. 根据权利要求16所述的装置,其特征在于,所述虚拟门为与地面垂直的门区域,所 述虚拟门与地面的交线为直线、线段或折线。18. 根据权利要求17所述的装置,其特征在于,所述目标获取模块包括: 帧对比单元,用于对比连续帧所述视频图像,或将所述视频图像与背景图像对比,获取 所述视频图像中的变化点或点群; 目标确定单元,用于从所述变化点或点群中提取点或点群作为目标; 三维坐标提取单元,用于确定所述目标的三维坐标信息。19. 根据权利要求16所述的装置,其特征在于,所述视频图像为平面视频图像; 所述三维坐标确定模块包括: 平面坐标获取单元,用于通过所述平面视频图像获取所述目标的平面坐标信息; 三维坐标提取单元,用于根据所述平面坐标信息通过3D重建算法进行3D重建,获得所 述目标的所述三维坐标信息。20. 根据权利要求19所述的装置,其特征在于,所述视频采集模块包括一个2D摄像机。21. 根据权利要求16所述的装置,其特征在于,所述视频图像包括多个不同拍摄位置 的平面视频图像; 所述三维坐标确定模块包括: 3D重建单元,用于将多个所述平面视频图像进行3D重建获得3D视频图像; 三维坐标提取单元,用于根据所述3D视频图像,获取目标的三维坐标信息。22. 根据权利要求21所述的装置,其特征在于,所述视频采集模块包括两个以上2D摄 像机或基于双目视觉的3D摄像机。23. 根据权利要求16所述的装置,其特征在于,所述视频图像为深度图像; 所述三维坐标确定模块,用于根据所述深度图像获取目标的三维坐标信息。24. 根据权利要求23所述的装置,其特征在于,所述视频采集模块包括距离敏感装置 或3D摄像机。25. 根据权利要求16所述的装置,其特征在于,所述事件提取模块用于根据所述目标 的三维坐标信息中的水平坐标信息与虚拟门的位置关系提取事件发生,其中,所述虚拟门 包括三维坐标中的水平坐标信息。26. 根据权利要求16所述的装置,其特征在于, 所述三维坐标确定模块还包括: 轨迹确定单元,用于确定所述视频图像中所述目标的运动轨迹; 所述三维坐标提取单元,还用于确定所述目标的所述运动轨迹的三维坐标信息; 所述事件提取模块,还用于基于所述目标的所述运动轨迹和所述虚拟门的位置关系提 取事件发生。27. 根据权利要求16所述的装置,其特征在于,所述事件包括位于虚拟门内、位于虚拟 门外、位于虚拟门区域、从外向内穿过虚拟门、从内向外穿过虚拟门、从外向内运动且未穿 过虚拟门和/或从内向外运动且未穿过虚拟门。28. 根据权利要求16所述的装置,其特征在于,还包括目标类型分析模块,用于分析目 标类型,所述目标的类型包括人、动物和/或车。29. 根据权利要求16所述的装置,其特征在于,还包括报警模块,用于根据提取到的预 定事件发出报警信息,所述报警信息包括入侵位置信息和/或入侵方向信息。30. 根据权利要求16所述的装置,其特征在于,所述事件提取模块还用于统计事件的 连续帧数,当所述帧数大于预定报警帧数时,判断事件发生。
【专利摘要】本发明提出一种视频监视方法和装置,涉及监视领域。其中,本发明的一种视频监视方法包括:获取视频图像;根据视频图像获取目标的三维坐标信息;基于目标和虚拟门的位置关系提取事件发生,其中,虚拟门包括三维坐标信息。通过这样的方法,根据视频图像获取目标的三维坐标信息,基于虚拟门和目标的三维坐标信息判断二者的位置关系,从而提取事件发生,有效避免了二维图像中由于透视效果引起的事件误判,提高了事件判断的准确度。
【IPC分类】G06T7/00, G06T17/00, H04N7/18
【公开号】CN104902246
【申请号】CN201510334845
【发明人】潘华东, 程淼, 潘石柱, 张兴明
【申请人】浙江大华技术股份有限公司
【公开日】2015年9月9日
【申请日】2015年6月17日

最新回复(0)