一种基于3d的物品虚拟穿戴的图片保存和分享方法

xiaoxiao2020-10-23  18

一种基于3d的物品虚拟穿戴的图片保存和分享方法
【技术领域】
[0001] 本发明涉及一种图片保存和分享方法,尤其涉及一种基于3D的物品虚拟穿戴的 图片保存和分享方法。
【背景技术】
[0002] 目前基于3D眼镜试戴的方式有以下几种方式:第一,通过微软发行的Kinect体感 设备和微软发布的Kinect程序二次开发包,以红外检测的方式,达到人体移动的时候红外 检测点实时的进行移动,再将虚拟的眼镜模型与已经检测到的红外点进行绑定,达到位置 的同步移动;第二,基于平面图片的眼镜虚拟试戴,通过用户上传自己的照片来实现眼镜虚 拟试戴,通过对平面图形的面部识别算法来识别用户上传的照片中的人脸部分,从而将眼 镜图片与之叠加;第三,基于TotalImmersionSDK的眼镜虚拟试戴,这是目前国外的一款 非常流行的二次开发SDK,通过国外已经开发并封装好的SDK进行项目的二次技术开发,开 发效果和性能较好,但是加入开发的成本高昂,而且每一个项目,每一个平台都需要向法国 总部支付费用,而且开发限制非常多,不能连接数据库、不能随意让客户进行修改等。
[0003] 以上几种方式均存在各种各样的缺陷:第一,基于Kinect体感设备的眼镜虚拟试 戴缺陷包括:需要特定的Kinect体感硬件设备,费用高昂;识别过程需要先通过人体识别 从而进行面部识别;识别过程容易收到干扰,识别不稳定。第二,基于平面图片的眼镜虚 拟试戴缺陷包括:试戴过程过于死板和僵化,没有实时的互动性;通过用户上传照片的方 式进行试戴,无法同一时刻体验到戴上眼镜的不同角度试戴,操作麻烦不简便。第三,基于 TotalImmersionSDK的眼镜虚拟试戴缺陷包括:基于原厂家的二次开发难度大,不方便, 而且成本高;技术限制多,如无法连接数据库,无法实时修改开发内容;二次开发产品带有 水印,去水印费用高,且每年都需要缴费,不利于长期发展。
[0004] 而另一方面,目前的3D物品虚拟穿戴产品,其穿戴效果图的图片保存和分享方法 都太过繁琐,而且对网络要求高,图片经过压缩等处理容易产生失真,用户对图片的下载、 保存和分享不够便利。

【发明内容】

[0005] 本发明所要解决的技术问题是需要提供一种即使在没有网络的情况下也能直接 下载和保存穿戴效果图,便于用户分享穿戴效果图的基于3D的物品虚拟穿戴的图片保存 和分享方法,同时,该基于3D的物品虚拟穿戴无需特别设备,使用方便,实时跟随效果好。
[0006] 对此,本发明提供一种基于3D的物品虚拟穿戴的图片保存和分享方法,包括以下 步骤:
[0007] 步骤S1,通过摄像头对穿戴部位进行捕捉,采集穿戴部位的灰度数据,并以穿戴部 位中心为坐标原点,建立原始的穿戴部位三维坐标;
[0008] 步骤S2,通过3dmax软件对穿戴物品进行原始建模,得到原始的穿戴物品模型;
[0009] 步骤S3,根据使用者的移动和转动,对原始的穿戴部位三维坐标进行缩放、平移和 旋转处理,得到标准的穿戴部位图像;
[0010] 步骤S4,根据使用者的移动和转动,对原始的穿戴物品模型进行缩放、平移和旋转 处理,得到标准的穿戴物品模型;
[0011] 步骤S5,将步骤S4得到的标准的穿戴物品模型放置在步骤S3得到的标准的穿戴 部位图像上,实现图像合成;
[0012] 步骤S6,将步骤S5的穿戴物品模型和穿戴部位图像进行叠加,生成最终的演示图 像;
[0013] 步骤S7,实时检测用户的拍照指令,接收到拍照指令后对演示图像进行拍照并生 成本地二维码;
[0014] 步骤S8,用户扫描本地二维码,若无网络状态下则直接下载和保存穿戴效果图,若 在网络状态下则实现穿戴效果图的下载、保证和分享功能。
[0015] 本发明的进一步改进在于,所述步骤S7中,接收到拍照指令后,对当前整个屏幕 画面进行捕捉,并将捕捉到的画面以二进制文件的形式进行本地存储,然后将存储二进制 文件的位置编写进本地二维码中。
[0016] 本发明的进一步改进在于,步骤S8中,用户在通过智能终端扫描本地二维码,能 够访问二进制文件的本地存储位置,进而实现图片的下载、保存和分享至朋友圈功能。
[0017] 本发明的进一步改进在于,所述步骤S3的缩放和步骤S4中的缩放采用事先约定 好的缩放倍数。
[0018] 本发明的进一步改进在于,若原始的穿戴部位三维坐标中的两个点的实际距离为 2x毫米,这两个点在标准的穿戴部位图像中的像素差约定为3x,那么当这两点在原始的穿 戴部位三维坐标中的像素差为h,则其从原始的穿戴部位三维坐标到标准的穿戴部位图像 的缩放比例为3x/h。
[0019] 本发明的进一步改进在于,所述物品虚拟穿戴为眼镜虚拟试戴,所述步骤S1中, 通过摄像头对人脸进行捕捉,采集人脸的灰度数据,并以人脸的中心为坐标原点建立原始 的人脸三维坐标,所述穿戴部位三维坐标为人脸三维坐标;步骤S2中,通过3dmax软件对试 戴眼镜进行原始建模,得到原始的眼镜模型,所述眼镜模型为穿戴物品模型;所述步骤S3 的标准的穿戴部位图像为标准的人脸图像;所述步骤S4的标准的穿戴物品模型为标准的 眼镜模型。
[0020] 本发明的进一步改进在于,所述步骤S1中,通过摄像头对人脸画面进行捕捉,通 过人脸与人脸周围的灰度变化关系判断出人脸的区域,在判断出人脸区域之后,在人脸上 进行三维注册并把空间坐标定位在人脸位置。
[0021] 本发明的进一步改进在于,所述步骤S4中,所述眼镜模型在3dmax软件中设定了 自己的坐标点和位置信息,当人脸转动时眼镜模型便跟着人脸的转动而转动。
[0022] 本发明的进一步改进在于,步骤S2中,通过3dmax软件对试戴眼镜的照片进行原 始建模,得到原始的眼镜模型,然后对眼镜模型进行贴图烘焙处理;所述贴图烘焙处理为对 眼镜模型各个不同的部位贴上贴图,贴图由试戴眼镜的照片拍摄并且通过PS处理得到,通 过贴图与眼镜模型之间的关系划分眼镜模型的UV数据,最后在3dmax软件或maya软件中 对眼镜模型进行打光和烘焙效果处理,将效果烘焙到一张或者几张贴图上面,进而得到烘 焙处理后的贴图文件。
[0023] 本发明的进一步改进在于,所述步骤S4中,将得到的眼镜模型的中点放置在人脸 图像的中点下方的2~4mm后实现图像合成。
[0024] 与现有技术相比,本发明的有益效果在于:当用户穿戴效果良好想要进行拍照的 时候,只需通过触摸拍照按钮等方式发送拍照指令,即可实现穿戴效果图的拍照并自动生 成本地二维码,用户扫描本地二维码便能访问下载图片,这一过程无需连接网络,在连通网 络之后还能对其进行微信和朋友圈分享等功能,将试戴效果传播出去,让更多人了解;同 时,所述基于3D的物品虚拟穿戴无需特别的设备,普通电脑或手机摄像头便能实现虚拟穿 戴和虚拟试戴,消费者使用方便;虚拟穿戴和虚拟试戴的过程方便简单,没有复杂操作,消 费者的穿戴部位或人脸出现在摄像头检测范围内即可;穿戴和试戴过程流畅,消费者可以 实时进行虚拟穿戴和虚拟试戴,实时的转动穿戴部位即可查看穿戴物品在穿戴部位上的过 程和效果,实时的转动头部即可查看虚拟眼镜戴在人脸上的过程和效果。
【附图说明】
[0025] 图1是本发明一种实施例的工作流程示意图。
【具体实施方式】
[0026] 下面结合附图,对本发明的较优的实施例作进一步的详细说明:
[0027] 实施例1 :
[0028] 如图1所示,本例提供一种基于3D的物品虚拟穿戴的图片保存和分享方法,包括 以下步骤:
[0029] 步骤S1,通过摄像头对穿戴部位进行捕捉,采集穿戴部位的灰度数据,并以穿戴部 位中心为坐标原点,建立原始的穿戴部位三维坐标;
[0030] 步骤S2,通过3dmax软件对穿戴物品 进行原始建模,得到原始的穿戴物品模型;
[0031] 步骤S3,根据使用者的移动和转动,对原始的穿戴部位三维坐标进行缩放、平移和 旋转处理,得到标准的穿戴部位图像;
[0032] 步骤S4,根据使用者的移动和转动,对原始的穿戴物品模型进行缩放、平移和旋转 处理,得到标准的穿戴物品模型;
[0033] 步骤S5,将步骤S4得到的标准的穿戴物品模型放置在步骤S3得到的标准的穿戴 部位图像上,实现图像合成;
[0034] 步骤S6,将步骤S5的穿戴物品模型和穿戴部位图像进行叠加,生成最终的演示图 像;
[0035] 步骤S7,实时检测用户的拍照指令,接收到拍照指令后对演示图像进行拍照并生 成本地二维码;
[0036] 步骤S8,用户扫描本地二维码,若无网络状态下则直接下载和保存穿戴效果图,若 在网络状态下则实现穿戴效果图的下载、保证和分享功能。
[0037] 本例所述步骤S7中,接收到拍照指令后,对当前整个屏幕画面进行捕捉,并将捕 捉到的画面以二进制文件的形式进行本地存储,然后将存储二进制文件的位置编写进本地 二维码中。所述步骤S8中,用户在通过智能终端扫描本地二维码,能够访问二进制文件的 本地存储位置,进而实现图片的下载、保存和分享至朋友圈功能。所述本地二维码是指存储 位置位于本地智能终端、本地存储器或本地服务器的二维码,该二维码会以二进制文件的 格式对穿戴效果图进行存储,不经过压缩和处理,因此,穿戴效果图不会产生失真,即使在 无网络的情况下,也能够方便的实现下载和保存功能。
[0038] 本例所述步骤S1和步骤S2的不是顺序步骤,可以步骤S2和步骤S1同时进行;也 可以是先完成步骤S2,即事先对穿戴物品进行好原始建模,得到原始的穿戴物品模型对应 的数据库,使用的时候,直接根据用户的选择在数据库中调取用户所需要的穿戴物品模型 即可。所述步骤S3和步骤S4用于实现在使用者移动或转动的时候,使得原始的穿戴部位 三维坐标和原始的穿戴物品模型实时跟随变化,进而得到最新的、实时跟随的穿戴部位图 像和穿戴物品模型,即得到标准的穿戴部位图像和标准的穿戴物品模型,步骤S4对穿戴物 品模型的缩放、平移和旋转处理与步骤S3对穿戴部位图像的缩放、平移和旋转处理是实时 跟随的。所述步骤S5中,优选将步骤S4得到的标准的穿戴物品模型放置在步骤S3的标准 的穿戴部位图像的中点,进而实现图像的合成。
[0039] 所述缩放是指原始的穿戴部位三维坐标与原始的穿戴物品模型的缩放,比如眼镜 虚拟试戴中,所述缩放指的是原始的人脸三维坐标或人脸图像以及原始的眼镜模型的缩 放,需要进行穿戴部位与穿戴物品按照真实比例演示虚拟穿戴,就必须要进行图像的缩放。
[0040] 所述穿戴物品包括眼镜、首饰、衣物、帽子和包包等日常消费的穿戴物品,这种图 像的缩放的解决方案有三种:第一种是缩放穿戴部位三维坐标以适应穿戴物品模型的大 小;第二种是缩放穿戴物品模型以适应穿戴部位三维坐标的大小;第三种是将原始的穿戴 部位三维坐标与原始的穿戴物品模型按照事先约定好的"协议"同时缩放穿戴部位三维坐 标和穿戴物品模型,本例使用的是第三种方案,它将更有利于用制作好的标准的穿戴部位 图像去适应大量不同的镜架库中的标准的穿戴物品模型;本例应用第三种方案,相当于对 穿戴物品模型和穿戴部位三维坐标提出了一种相互之间都遵循的协议,或者说是一种预先 设置好的标准,来达到原始的穿戴部位三维坐标与原始的穿戴物品模型在缩放这点上的 "默契"。
[0041 ] 本例所述步骤S3的缩放和步骤S4中的缩放采用事先约定好的缩放倍数,其所采 用缩放协议内容为:设定原始的穿戴部位三维坐标中的目标物上的两个点的实际距离为 2x毫米,这两个点在标准的穿戴部位图像中的像素差约定为3x,那么当这两点在原始的穿 戴部位三维坐标中的像素差为h,则其从原始的穿戴部位三维坐标到标准的穿戴部位图像 的缩放比例为3x/h,所述标准的穿戴部位图像也称标准图像。
[0042] 该缩放协议的正确性的推导如下:假设真实世界中有两点间的距离为2x毫米,那 么在标准的穿戴部位图像中的像素差为3x;原始的穿戴部位三维坐标中这两点的像素差 为hl,按照协议得到缩放比例则为3x/hl。另外两点间的距离为2y毫米,那么在标准的穿 戴部位图像中的像素差为3y;原始的穿戴部位三维坐标中这两点的像素差为h2按照协议 得到缩放比例为3y/h2。真实世界中距离比=2y:2x= (h2*3y/h2):(hl*3x/hl) =3y:3x =标准的穿戴部位图像中的像素差比。本例所述的x、y和h均为自然数。
[0043] 本例所述的平移采用平移算法,即针对穿戴部位三维坐标和穿戴物品模型分别计 算出相对位移量,然后根据相对位移量分别对穿戴部位三维坐标和穿戴物品模型进行平 移,使得穿戴物品模型到达穿戴部位三维坐标的合适位置。
[0044] 本例所述的旋转,主要是根据采集穿戴部位的灰度数据变换进而判断穿戴部位的 角度变化,进而控制穿戴物品模型实现实时的角度跟随,使得穿戴物品模型就像是贴在标 准的穿戴部位图像上一样,能够根据使用者的位置和角度变换,进而实现虚拟穿戴效果的 实时跟随。
[0045] 实施例2 :
[0046] 在实施例1的基础上,本例所述物品虚拟穿戴为眼镜虚拟试戴,所述步骤S1中,通 过摄像头对人脸进行捕捉,采集人脸的灰度数据,并以人脸的中心为坐标原点建立原始的 人脸三维坐标,所述穿戴部位三维坐标为人脸三维坐标;步骤S2中,通过3dmax软件对试戴 眼镜进行原始建模,得到原始的眼镜模型,所述眼镜模型为穿戴物品模型;所述步骤S3的 标准的穿戴部位图像为标准的人脸图像;所述步骤S4的标准的穿戴物品模型为标准的眼 镜模型。
[0047] 本例首先通过摄像头对人脸进行捕捉,对人脸进行灰度采集与坐标确定,即以人 脸的中心为中点在人脸上建立起三维空间的人脸三维坐标,所述建立起三维空间的人脸三 维坐标的过程为:通过摄像头对人脸的画面进行捕捉,通过人脸与人脸周围的灰度变化关 系判断出人脸的区域,因为人脸在摄像头的捕捉下即使人是静止不动的,人脸也会有极轻 微的转动,那么,人脸周围区域也会有灰度变化,依此原理判断出人脸区域之后,我们在人 脸上进行人脸三维注册,并把空间坐标定位在人脸位置,而眼镜模型位于人脸三维坐标的 在建模软件中所设定的位置中,该眼镜模型拥有自己的坐标点,当人脸转动时眼镜模型便 跟着人脸进行转动。所述建模软件优选为3dmax软件。
[0048] 然后再将眼镜模型放置在虚拟的三维坐标的中点,让眼镜模型与人脸三维坐标一 起移动与旋转,当人脸与摄像头的距离发生变化的时候,其眼镜模型与人脸坐标也一起根 据透视的原理进行缩放变化,这整个过程都是通过虚拟图像与现实场景叠加的方式进行, 在这个变换的过程中,用户可以随时进行合成图像和拍照等功能。
[0049] 本例所述步骤S1中,通过摄像头对人脸画面进行捕捉,通过人脸与人脸周围的灰 度变化关系判断出人脸的区域,在判断出人脸区域之后,在人脸上进行三维注册并把空间 坐标定位在人脸位置。所述步骤S4中,所述眼镜模型在3dmax软件中设定了自己的坐标点 和位置信息,当人脸转动时眼镜模型便跟着人脸的转动而转动。所述步骤S2中,通过3dmax 软件对试戴眼镜的照片进行原始建模,得到原始的眼镜模型,然后对眼镜模型进行贴图烘 焙处理;所述贴图烘焙处理为对眼镜模型各个不同的部位贴上贴图,贴图由试戴眼镜的照 片拍摄并且通过PS处理得到,通过贴图与眼镜模型之间的关系划分眼镜模型的UV数据,最 后在3dmax软件或maya软件中对眼镜模型进行打光和烘焙效果处理,将效果烘焙到一张或 者几张贴图上面,进而得到烘焙处理后的贴图文件,以便使得眼镜模型更加真实。
[0050] 优选的,所述步骤S4中,将得到的眼镜模型的中点放置在人脸图像的中点下方的 2~4_后实现图像合成。所述步骤S4中,将得到 的眼镜模型的中点放置在人脸图像的中 点下方的2~4_后实现图像合成。也就是说,本例所述的平移算法与实施例1的平移算 法有所改进,改进的地方主要是考虑了眼镜镜架自身重力因素,进而提高虚拟试戴真实度, 这是眼镜试戴放大的一个关键,因为眼镜通过鼻托安放在鼻梁上,因其自身重力影响而自 然下垂2-4_,因此,本例在眼镜试戴方法的时候考虑了眼镜自然下垂的影响,没有将瞳孔 位置直接放在镜架水平中心线上,否则就会显得不真实。
[0051] 本例所述的人脸图像与眼镜模型只要分别计算出相对位移量,就能实现平移。 经过推导,分别得到需要平移的位移量如下所示,其中,AX是人脸图像和眼镜模型所 需要平移的x轴数据,AY人脸图像和眼镜模型所需要平移的y轴数据,xl为人脸图像 的中心的x轴数据,x2为眼镜模型的中心的x轴数据,yl为人脸图像的中心的y轴数 据,y2为眼镜模型的中心的y轴数据,zoomface是固定的偏移参数,是矫正参数;所 述ro是经过反复调试后得到的校正参数,优选为0. 5~1,其中,以0. 85为最佳;所述
[0054] 本例由于在眼镜模型与人脸图像之间经过了上述标准化算法处理,因此眼镜模型 与人脸图像之间的跟踪识别便特别准确顺畅;所述眼镜模型通过3dmax软件建模得到,每 一个眼镜模型都是超过10万个面的高精模型。
[0055] 更加值得一提的是,本例进行了在人脸上的人脸三维注册,进而得到人脸三维坐 标,所述人脸三维注册指的是将人脸与人脸边缘环境进行灰度计算,得到人脸的区域,将 获得的人脸区域作为一个新的坐标轴建立XYZ轴,这个XYZ轴便是注册在人脸上的三维标 记;这样做的好处在于,当头部有转动的时候人脸三维坐标会跟着转动,从而让虚拟的眼镜 模型也跟着人脸三维坐标一起转动;尤其是当小角度转动的时候,本例所述小角度具体为 3°以下的小角度,由于人脸周围的灰度会发生变化,在通过坐标矩阵的转换,能够进行虚 拟的人脸三维坐标的小角度转动计算,因为转动的时候人脸与人脸边缘的区域灰度值发生 了变化,比如人脸边缘区域的灰度值为0,在转动的时候,灰度值变为了 1,通过这种变化, 我们就可以计算出3°以下的小角度转动的灰度变换情况,进而使得虚拟的眼镜试戴能有 真的戴在人脸上一般神奇和顺畅的效果,即使在3°以下的小角度转动的时候跟踪稳定贴 合度也非常高,在此基础上,还由于建模细致,因此眼镜模型效果非常真实。
[0056] 以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定 本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在 不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的 保护范围。
【主权项】
1. 一种基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,包括以下步骤: 步骤S1,通过摄像头对穿戴部位进行捕捉,采集穿戴部位的灰度数据,并以穿戴部位中 心为坐标原点,建立原始的穿戴部位三维坐标; 步骤S2,通过3dmax软件对穿戴物品进行原始建模,得到原始的穿戴物品模型; 步骤S3,根据使用者的移动和转动,对原始的穿戴部位三维坐标进行缩放、平移和旋转 处理,得到标准的穿戴部位图像; 步骤S4,根据使用者的移动和转动,对原始的穿戴物品模型进行缩放、平移和旋转处 理,得到标准的穿戴物品模型; 步骤S5,将步骤S4得到的标准的穿戴物品模型放置在步骤S3得到的标准的穿戴部位 图像上,实现图像合成; 步骤S6,将步骤S5的穿戴物品模型和穿戴部位图像进行叠加,生成最终的演示图像; 步骤S7,实时检测用户的拍照指令,接收到拍照指令后对演示图像进行拍照并生成本 地二维码; 步骤S8,用户扫描本地二维码,若无网络状态下则直接下载和保存穿戴效果图,若在网 络状态下则实现穿戴效果图的下载、保证和分享功能。2. 根据权利要求1所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,所述步骤S7中,接收到拍照指令后,对当前整个屏幕画面进行捕捉,并将捕捉到的画面 以二进制文件的形式进行本地存储,然后将存储二进制文件的位置编写进本地二维码中。3. 根据权利要求2所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,步骤S8中,用户在通过智能终端扫描本地二维码,能够访问二进制文件的本地存储位 置,进而实现图片的下载、保存和分享至朋友圈功能。4. 根据权利要求1至3任意一项所述的基于3D的物品虚拟穿戴的图片保存和分享方 法,其特征在于,所述步骤S3的缩放和步骤S4中的缩放采用事先约定好的缩放倍数。5. 根据权利要求4所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,若原始的穿戴部位三维坐标中的两个点的实际距离为2x毫米,这两个点在标准的穿戴 部位图像中的像素差约定为3x,那么当这两点在原始的穿戴部位三维坐标中的像素差为 h,则其从原始的穿戴部位三维坐标到标准的穿戴部位图像的缩放比例为3x/h。6. 根据权利要求1至3任意一项所述的基于3D的物品虚拟穿戴的图片保存和分享方 法,其特征在于,所述物品虚拟穿戴为眼镜虚拟试戴,所述步骤Sl中,通过摄像头对人脸进 行捕捉,采集人脸的灰度数据,并以人脸的中心为坐标原点建立原始的人脸三维坐标,所述 穿戴部位三维坐标为人脸三维坐标;步骤S2中,通过3dmax软件对试戴眼镜进行原始建模, 得到原始的眼镜模型,所述眼镜模型为穿戴物品模型;所述步骤S3的标准的穿戴部位图像 为标准的人脸图像;所述步骤S4的标准的穿戴物品模型为标准的眼镜模型。7. 根据权利要求6所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,所述步骤Sl中,通过摄像头对人脸画面进行捕捉,通过人脸与人脸周围的灰度变化关 系判断出人脸的区域,在判断出人脸区域之后,在人脸上进行三维注册并把空间坐标定位 在人脸位置。8. 根据权利要求7所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,所述步骤S4中,所述眼镜模型在3dmax软件中设定了自己的坐标点和位置信息,当人脸 转动时眼镜模型便跟着人脸的转动而转动。9. 根据权利要求6所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,步骤S2中,通过3dmax软件对试戴眼镜的照片进行原始建模,得到原始的眼镜模型,然 后对眼镜模型进行贴图烘焙处理;所述贴图烘焙处理为对眼镜模型各个不同的部位贴上贴 图,贴图由试戴眼镜的照片拍摄并且通过PS处理得到,通过贴图与眼镜模型之间的关系划 分眼镜模型的UV数据,最后在3dmax软件或maya软件中对眼镜模型进行打光和烘焙效果 处理,将效果烘焙到一张或者几张贴图上面,进而得到烘焙处理后的贴图文件。10. 根据权利要求6所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在 于,所述步骤S4中,将得到的眼镜模型的中点放置在人脸图像的中点下方的2~4_后实现 图像合成。
【专利摘要】本发明提供一种基于3D的物品虚拟穿戴的图片保存和分享方法,包括以下步骤:步骤S1,建立原始的穿戴部位三维坐标;步骤S2,得到原始的穿戴物品模型;步骤S3,对原始的穿戴部位三维坐标进行处理得到标准的穿戴部位图像;步骤S4,对原始的穿戴物品模型进行处理得到标准的穿戴物品模型;步骤S5,将标准的穿戴物品模型放置在标准的穿戴部位图像上实现合成;步骤S6,将穿戴物品模型和穿戴部位图像进行叠加生成演示图像;步骤S7,拍照并生成本地二维码;步骤S8,扫描本地二维码,若无网络则实现下载和保存,若有网络则实现下载、保证和分享功能。本发明即使在没有网络的情况下也能直接下载和保存穿戴效果图,便于用户分享穿戴效果图。
【IPC分类】G06T17/00, G06T15/00
【公开号】CN104899917
【申请号】CN201510242443
【发明人】陈洪标
【申请人】深圳彼爱其视觉科技有限公司
【公开日】2015年9月9日
【申请日】2015年5月13日

最新回复(0)