一种视频通信方法及装置的制造方法
【技术领域】
[0001]本发明涉及通信技术领域,尤其涉及一种视频通信方法及装置。
【背景技术】
[0002]目前,各种视频通话工具层出不穷,通话双方借助麦克风、摄像头和网络,将各自的影像、声音传输到对方的通讯装置上,让远处的人物清晰呈现在通话人的眼前。视频通话的同时,通话人还能输入一些文字信息。这些文字信息独立视频、音频之外,通过单独的窗口传送给对方。
[0003]一方面,这种传统的视频通信方式的实现方式单一,视频画面中仅为个人的头像和静态背景,单调乏味;另一方面,在对方只可接收视频影像不可播放音频时,用户仍需敲打键盘以输入文字信息,并通过独立的窗口发送给对方。因而,这种传统的视频通信方式使得用户的体验效果差,需要提供一种更加优良的解决方案。
【发明内容】
[0004]本发明的主要目的在于提出一种视频通信方法及装置,旨在解决传统方式存在的视频画面内容单调乏味以及视频时不能自动同步传送文字信息的问题。
[0005]为实现上述目的,本发明提供的一种视频通信方法,包括步骤:
[0006]预先拍摄各种表情/动作类型对应的表情/动作模版;
[0007]建立表情/动作类型与预设的图案/动画/特效的映射关系表;
[0008]在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型;
[0009]查找所述映射关系表,将当前识别出的表情/动作类型对应的图案/动画/特效同步显示于传送于对方的视频画面中。
[0010]上述方法还包括步骤:在视频通信过程中,实时解析当前采集的语音信息,得到相应的文字信息,并实时地将解析得到的文字信息同步显示于视频画面中。
[0011]其中,所述步骤在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型中还包括:对当前识别出的表情/动作类型的有效性进行判断;
[0012]在所述步骤查找所述映射关系表,将当前识别出的表情/动作类型对应的图案/动画/特效同步显示于传送于对方的视频画面中,仅对当前识别出的有效表情/动作类型对应的图案/动画/特效进行同步显示。
[0013]其中,所述步骤在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型中,对表情/动作类型的有效性的判断方法具体为:
[0014]在视频通信过程中,按照预设的第二频率,统计本周期内识别出的所有表情/动作类型的出现频率,对于其中出现概率最高的表情/动作类型,判断其出现概率是否超过预设的门限值,若超过,则判定该表情/动作类型为本周期内的有效表情/动作,否则,判定本周期内无有效表情/动作。
[0015]其中,所述步骤在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型中,当前视频影像中所包含的表情/动作类型的识别方法为:
[0016]利用人脸识别及肢体识别技术确定出当前视频影像中人的面部和肢体的位置信息;
[0017]分析面部中五官及肢体的运动轨迹,将其与各种表情/动作模版中相应的运动轨迹进行对比分析,确定最相似的表情/动作类型。
[0018]其中,所述方法还包括:预先设置同步显示于视频画面上的其他信息的显示位置。
[0019]此外,为实现上述目的,本发明还提出一种视频通信装置,包括:拍摄单元、映射关系设置单元、表情/动作识别单元、显示执行单元;
[0020]所述拍摄单元,用于在初始时刻拍摄各种表情/动作类型对应的表情/动作模版,在视频通信过程中实现视频拍摄;
[0021]所述映射关系设置单元,用于建立表情/动作类型与预设的图案/动画/特效的映射关系表;
[0022]所述表情/动作识别单元,用于在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为依据,实时检测分析出所述拍摄单元当前拍摄的视频内容中所包含的表情/动作类型;
[0023]所述显示执行单元,用于在视频通信过程中,查找所述映射关系表,将当前识别出的表情/动作对应的图案/动画/特效实时同步显示于视频画面中。
[0024]其中,所述装置还包括语音内容解析单元;
[0025]所述语音内容解析单元,用于在视频通信过程中,实时解析当前采集的语音信息,得到相应的文字信息;
[0026]所述显示执行单元,用于实时地将解析得到的文字信息同步显示于视频画面中。
[0027]其中,所述装置还包括有效表情/动作判断单元;
[0028]所述有效表情/动作判断单元,用于对所述表情/动作识别单元当前识别出的表情/动作类型的有效性进行判断;
[0029]所述显示执行单元,用于将当前识别出的有效表情/动作对应的图案/动画/特效实时同步显示于视频画面中。
[0030]其中,所述有效表情/动作判断单元进一步包括:
[0031]统计模块,用于按照预设的第二频率,统计本周期内由所述表情/动作识别单元识别出的所有表情/动作类型;
[0032]判断模块,用于根据统计信息,判断其中出现概率最高的表情/动作类型的出现概率是否超过预设的门限值,若超过,则判定该表情/动作类型为本周期内的有效表情/动作,否则,判定本周期内无有效表情/动作。
[0033]本发明提出的视频通信方案不仅能将语音信息转换为文字信息同步显示于视频画面上,满足了用户在视频通话的同时需同步传送文字信息的需求,方便了应用;而且还能自动识别用户的表情/动作并选取相应的图案/动画/特效同步显示于视频画面上,大大增加了趣味性,活跃了交谈的气氛,满足了用户的个性化需求,大大提升了用户使用体验。
【附图说明】
[0034]图1为实现本发明各个实施例的移动终端的硬件结构示意图;
[0035]图2为如图1所示的移动终端的无线通信系统示意图;
[0036]图3为本发明实施例一提供的视频通信装置结构示意图;
[0037]图4为本发明实施例一提供的视频通信方法流程图;
[0038]图5为本发明实施例二提供的视频通信装置结构示意图。
[0039]本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
【具体实施方式】
[0040]应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0041]现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,〃模块〃与〃部件〃可以混合地使用。
[0042]移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
[0043]图1为实现本发明各个实施例的移动终端的硬件结构示意。
[0044]移动终端100可以包括无线通信单元110、A/V (音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。将在下面详细描述移动终端的元件。
[0045]无线通信单元110通常包括一个或多个组件,其允许移动终端100与无线通信系统或网络之间的无线电通信。例如,无线通信单元可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115中的至少一个。
[0046]广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以包括卫星信道和/或地面信道。广播管理服务器可以是生成并发送广播信号和/或广播相关信息的服务器或者接收之前生成的广播信号和/或广播相关信息并且将其发送给终端的服务器。广播信号可以包括TV广播信号、无线电广播信号、数据广播信号等等。而且,广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。广播相关信息也可以经由移动通信网络提供,并且在该情况下,广播相关信息可以由移动通信模块112来接收。广播信号可以以各种形式
存在,例如,其可以以数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等的形式而存在。广播接收模块111可以通过使用各种类型的广播系统接收信号广播。特别地,广播接收模块111可以通过使用诸如多媒体广播-地面(DMB-T)、数字多媒体广播-卫星(DMB-S)、数字视频广播-手持(DVB-H),前向链路媒体(MediaFLCf)的数据广播系统、地面数字广播综合服务(ISDB-T)等等的数字广播系统接收数字广播。广播接收模块111可以被构造为适合提供广播信号的各种广播系统以及上述数字广播系统。经由广播接收模块111接收的广播信号和/或广播相关信息可以存储在存储器160 (或者其它类型的存储介质)中。
[0047]移动通信模块112将无线电信号发送到基站(例如,接入点、节点B等等)、外部终端以及服务器中的至少一个和/或从其接收无线电信号。这样的无线电信号可以包括语音通话信号、视频通话信号、或者根据文本和/或多媒体消息发送和/或接收的各种类型的数据。
[0048]无线互联网模块113支持移动终端的无线互联网接入。该模块可以内部或外部地耦接到终端。该模块所涉及的无线互联网接入技术可以包括WLAN(无线LAN) (W1-Fi)、Wibro (无线宽带)、Wimax (全球微波互联接入)、HSDPA (高速下行链路分组接入)等等。
[0049]短程通信模块114是用于支持短程通信的模块。短程通信技术的一些示例包括蓝牙?、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂?等等。
[0050]位置信息模块115是用于检查或获取移动终端的位置信息的模块。位置信息模块的典型示例是GPS(全球定位系统)。根据当前的技术,GPS模块115计算来自三个或更多卫星的距离信息和准确的时间信息并且对于计算的信息应用三角测量法,从而根据经度、玮度和高度准确地计算三维当前位置信息。当前,用于计算位置和时间信息的方法使用三颗卫星并且通过使用另外的一颗卫星校正计算出的位置和时间信息的误差。此外,GPS模块115能够通过实时地连续计算当前位置信息来计算速度信息。
[0051]A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风1220,相机121对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元151上。经相机121处理后的图像帧可以存储在存储器160(或其它存储介质)中或者经由无线通信单元110进行发送,可以根据移动终端的构造提供两个或更多相机1210。麦克风122可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
[0052]用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示单元151上时,可以形成触摸屏。
[0053]感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(即,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。感测单元140可以包括接近传感器1410将在下面结合触摸屏来对此进行描述。
[0054]接口单元170用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证用户使用移动终端100的各种信息并且可以包括用户识别模块(ΠΜ)、客户识别模块(SM)、通用客户识别模块(USIM)等等。另外,具有识别模块的装置(下面称为"识别装置")可以采取智能卡的形式,因此,识别装置可以经由端口或其它连接装置与移动终端100连接。接口单元170可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端和外部装置之间传输数据。
[0055]另外,当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许从底座输入的各种命令信号通过其传输到移动终端的路径。从底座输入的各种命令信号或电力可以用作用于识别移动终端是否准确地安装在底座上的信号。输出单元150被构造为以视觉、音频和/或触觉方式提供输出信号(例如,音频信号、视频信号、警报信号、振动信号等等)。输出单元150可以包括显示单元151、音频输出模块152、警报单元153等等。
[0056]显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
[0057]同时,当显示单元151和触摸板以层的形式彼此叠加以形成触摸屏时,显示单元151可以用作输入装置和输出装置。显示单元151可以包括液晶显示器(IXD)、薄膜晶体管IXD(TFT-1XD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示单元(或其它显示装置),例如,移动终端可以包括外部显示单元(未示出)和内部显示单元(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
[0058]音频输出模块152可以在移动终端处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将无线通信单元110接收的或者在存储器160中存储的音频数据转换音频信号并且输出为声音。而且,音频输出模块152可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块152可以包括扬声器、蜂鸣器等等。
[0059]警报单元153可以提供输出以将事件的发生通知给移动终端100。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等等。除了音频或视频输出之外,警报单元153可以以不同的方式提供输出以通知事件的发生。例如,警报单元153可以以振动的形式提供输出,当接收到呼叫、消息或一些其它进入通信(incomingcommunicat1n)时,警报单元153可以提供触觉输出(即,振动)以将其通知给用户。通过提供这样的触觉输出,即使在用户的移动电话处于用户的口袋中时,用户也能够识别出各种事件的发生。警报单元153也可以经由显示单元151或音频输出模块152提供通知事件的发生的输出。
[0060]存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
[0061]存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
[0062]控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外,控制器180可以包括
用于再现(或回放)多媒体数据的多媒体模块1810,多媒体模块1810可以构造在控制器180内,或者可以构造为与控制器180分离。控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
[0063]电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
[0064]这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSro)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
[0065]至此,己经按照其功能描述了移动终端。下面,为了简要起见,将描述诸如折叠型、直板型、摆动型、滑动型移动终端等等的各种类型的移动终端中的滑动型移动终端作为示例。因此,本发明能够应用于任何类型的移动终端,并且不限于滑动型移动终端。
[0066]如图1中所示的移动终端100可以被构造为利用经由帧或分组发送数据的诸如有线和无线通信系统以及基于卫星的通信系统来操作。
[0067]现在将参考图2描述其中根据本发明的移动终端能够操作的通信系统。
[0068]这样的通信系统可以使用不同的空中接口和/或物理层。例如,由通信系统使用的空中接口包括例如频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)和通用移动通信系统(UMTS)(特别地,长期演进(LTE))、全球移动通信系统(GSM)等等。作为非限制性示例,下面的描述涉及CDMA通信系统,但是这样的教导同样适用于其它类型的系统。
[0069]参考图2,⑶MA无线通信系统可以包括多个移动终端100、多个基站(BS) 270、基站控制器(BSC) 275和移动交换中心(MSC) 280。MSC280被构造为与公共电话交换网络(PSTN) 290形成接口。MSC280还被构造为与可以经由回程线路耦接到基站270的BSC275形成接口。回程线路可以根据若干己知的接口中的任一种来构造,所述接口包括例如E1/T1、ATM,IP、PPP、帧中继、HDSL、ADSL或xDSL。将理解的是,如图2中所示的系统可以包括多个BSC2750。
[0070]每个BS270可以服务一个或多个分区(或区域),由多向天线或指向特定方向的天线覆盖的每个分区放射状地远离BS270。或者,每个分区可以由用于分集接收的两个或更多天线覆盖。每个BS270可以被构造为支持多个频率分配,并且每个频率分配具有特定频谱(例如,1.25MHz,5MHz 等等)。
[0071]分区与频率分配的交叉可以被称为CDMA信道。BS270也可以被称为基站收发器子系统(BTS)或者其它等效术语。在这样的情况下,术语"基站"可以用于笼统地表示单个BSC275和至少一个BS270。基站也可以被称为〃蜂窝站〃。或者,特定BS270的各分区可以被称为多个蜂窝站。
[0072]如图2中所示,广播发射器(BT) 295将广播信号发送给在系统内操作的移动终端100如图1中所示的广播接收模块111被设置在移动终端100处以接收由BT295发送的广播信号。在图2中,示出了几个全球定位系统(GPS)卫星300。卫星300帮助定位多个移动终端100中的至少一个。
[0073]在图2中,描绘了多个卫星300,但是理解的是,可以利用任何数目的卫星获得有用的定位信息。如图1中所示的GPS模块115通常被构造为与卫星300配合以获得想要的定位信息。替代GPS跟踪技术或者在GPS跟踪技术之外,可以使用可以跟踪移动终端的位置的其它技术。另外,至少一个GPS卫星300可以选择性地或者额外地处理卫星DMB传输。
[0074]作为无线通信系统的一个典型操作,BS270接收来自各种移动终端100的反向链路信号。移动终端100通常参与通话、消息收发和其它类型的通信。特定基站270接收的每个反向链路信号被在特定BS270内进行处理。获得的数据被转发给相关的BSC275。BSC提供通话资源分配和包括BS270之间的软切换过程的协调的移动管理功能。BSC275还将接收到的数据路由到MSC280,其提供用于与PSTN290形成接口的额外的路由服务。类似地,PSTN290与MSC280形成接口,MSC与BSC275形成接口,并且BSC275相应地控制BS270以将正向链路信号发送到移动终端100。
[0075]基于上述移动终端硬件结构以及通信系统,提出本发明方法各个实施例。
[0076]实施例一
[0077]如图3所示,本发明第一实施例提出的一种视频通信装置,包括拍摄单元310、映射关系设置单元320、表情/动作识别单元330、有效表情/动作判断单元340、显示执行单元350。下面将对每个单元分别详细描述。
[0078]拍摄单元310,用于拍摄视频,在初始时刻拍摄表情/动作模版,在视频通信过程中实现视频拍摄。该拍摄单元具体为摄像头。
[0079]映射关系设置单元320,用于建立表情/动作类型与预设的图案/动画/特效的映射关系表。预设的图案/动画/特效可以为各种各样的形式,可由用户自行设计,也可以由用户通过各种方式从其他方获取,该图案/动画/特效用于丰富视频画面内容,增强趣味性,提升用户体验。
[0080]表情/动作识别单元330,用于在视频通信过程中,按照预设频率Tl来实时将拍摄单元310在当前短时间段内拍摄的视频内容与预先拍摄的各种表情/动作模版对比分析,识别出用户当前的表情/动作类型。
[0081 ] 有效表情/动作判断单元340,用于对所述表情/动作识别单元330当前识别出的表情/动作类型的有效性进行判断。具体地,该单元包括:统计模块341,用于按照预设的第二频率,统计本周期内由所述表情/动作识别单元330识别出的所有表情/动作类型;判断模块342,用于根据统计信息,判断其中出现概率最高的表情/动作类型的出现概率是否超过预设的门限值,若超过,则判定该表情/动作类型为本周期内的有效表情/动作,否则,判定本周期内无有效表情/动作。
[0082]显示执行单元350,用于在视频通信过程中,将当前有效表情/动作对应的图案/动画/特效同步显示于传送于对方的视频画面中。
[0083]参照图4,本实施例还进一步提供了一种视频通信方法,包括以下步骤:
[0084]401、预先拍摄各种表情/动作模版。
[0085]在实际生活中,人们的表情/动作很丰富,包括有狂喜、愉悦、惊奇、平静、悲痛、恐惧、愤怒、拍打、吹气、晃动、点头、摇头等,为了最大程度地提高后续表情/动作类型识别的准确度、提升用户体验、增强趣味性,本步骤中需要由用户预先拍摄各种表情/动作视频/照片作为后续识别过程的判断标准。
[0086]402、建立表情/动作类型与预设的图案/动画/特效的映射关系表。
[0087]在步骤401中,每种表情/动作模版代表了一种表情/动作类型,为了生动地展现用户的表情/动作,本步骤402中建立一映射关系表,以确定每种表情/动作相应的图案/动画/特效,这些图案/动画/特效用于增加显示于用户与对方视频通信过程中传送于对方的通信画面中。
[0088]图案/动画/特效可以为各种各样的形式,可由用户自行设计以实现个性化应用,也可以由用户通过各种方式从其他方获取。
[0089]此映射关系表可由用户自定义操作,实现随时添加、删除、修改,随着用户的兴趣爱好而调整,进一步提升用户的使用体验效果。
[0090]403、在用户与对方视频通信过程中,每隔周期Tl,以预先拍摄的表情/动作模版为参考,实时检测对比分析当前的拍摄单元310拍摄的视频内容,识别出用户当前的表情/动作类型。
[0091]本步骤中,可采用现有技术中的人脸识别及肢体识别技术来确定出用户面部和肢体在影像画面中的区域位置,进一步分析出其中眼睛、眉毛、嘴巴、脸颊、肢体等关键部位的运动轨迹,从而将其与表情/动作模版对比以确定最相似的表情/动作类型。
[0092]404、在用户与对方视频通信过程中,每隔周期T2,统计本周期内识别出的各种表情/动作类型的出现概率;对于其中出现概率最高的表情/动作类型,判断其出现概率是否超过预设的门限值,若超过,则判定该表情/动作类型为本周期T2内的有效表情/动作,否贝1J,判定本周期T2内无有效表情/动作。其中,周期T2的长短大于周期Tl的长短。
[00
93]由于用户在短时间段内表情/动作可能多变,而且其中有些表情/动作为无意识的,因而为了防止视频画面上显示的图案/动画/特效变换过快或者与用户当前真实表情类型不符,本步骤增加了有效性判断,将周期T2内出现概率最高且超过预设门限值的表情/动作类型判定为当前有效表情/动作类型。
[0094]405、查找预设的映射关系表,将当前有效表情/动作对应的图案/动画/特效同步显示于传送于对方的视频画面中。
[0095]本步骤中,图案/动画/特效的显示位置和时间长短可以根据用户习惯自由设定。
[0096]至此,用户在与对方视频过程中,视频画面中可随时根据用户的表情/动作显示相应的图案/动画/特效,使得视频画面不再单调,同时大大增加了趣味性和个性化。
[0097]实施例二
[0098]在实施例一中,视频画面上实现了与用户表情/动作相应的图案/动画/特效的同步显示,大大提升了用户的使用体验效果。而未解决现有技术中需手动输入文字信息的问题。因而,本实施例二实现视频画面上同步显示与当前语音信息内容一致的文字信息。
[0099]参阅图5,本实施例中视频通信装置,增设了如下单元:
[0100]语音内容解析单元360,用于在视频过程中,实时解析本端用户的语音信息,得到相应的文字信息。通过该单元,可以对麦克风采集的音频信号进行实时解析,从而将语音转换为文字信息。
[0101]同时,显示执行单元350,还用于实时地将语音内容解析单元360解析得到的文字信息同步显示于视频画面中。
[0102]相应地,本实施例的视频通信方法增加如下步骤:
[0103]在用户与对方视频通信过程中,实时解析本端用户的语音信息,得到相应的文字信息;并实时地将解析得到的文字信息同步显示于视频画面中。
[0104]当然,文字信息的显示位置也可由用户自由设定。这样,大大方便了用户应用,尤其适用于对方虽然能够播放视频信号但是不能或者不方便播放音频信号的情况下。
[0105]在其他实施例中,用户可选择地应用同步显示文字信息和/或图案/动画/特效功能,最大程度地提升用户使用体验。
[0106]需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
[0107]上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0108]通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
[0109]以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
【主权项】
1.一种视频通信方法,其特征在于,所述方法包括步骤: 预先拍摄各种表情/动作类型对应的表情/动作模版; 建立表情/动作类型与预设的图案/动画/特效的映射关系表; 在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型; 查找所述映射关系表,将当前识别出的表情/动作类型对应的图案/动画/特效同步显示于传送于对方的视频画面中。2.如权利要求1所述的视频通信方法,其特征在于,所述方法还包括步骤:在视频通信过程中,实时解析当前采集的语音信息,得到相应的文字信息,并实时地将解析得到的文字信息同步显示于视频画面中。3.如权利要求1或2所述的视频通信方法,其特征在于,所述步骤在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型中还包括:对当前识别出的表情/动作类型的有效性进行判断; 在所述步骤查找所述映射关系表,将当前识别出的表情/动作类型对应的图案/动画/特效同步显示于传送于对方的视频画面中,仅对当前识别出的有效表情/动作类型对应的图案/动画/特效进行同步显示。4.如权利要求3所述的视频通信方法,其特征在于,所述步骤在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型中,对表情/动作类型的有效性的判断方法具体为: 在视频通信过程中,按照预设的第二频率,统计本周期内识别出的所有表情/动作类型的出现频率,对于其中出现概率最高的表情/动作类型,判断其出现概率是否超过预设的门限值,若超过,则判定该表情/动作类型为本周期内的有效表情/动作,否则,判定本周期内无有效表情/动作。5.权利要求1或2所述的视频通信方法,其特征在于,所述步骤在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型中,当前视频影像中所包含的表情/动作类型的识别方法为: 利用人脸识别及肢体识别技术确定出当前视频影像中人的面部和肢体的位置信息; 分析面部中五官及肢体的运动轨迹,将其与各种表情/动作模版中相应的运动轨迹进行对比分析,确定最相似的表情/动作类型。6.权利要求1或2所述的视频通信方法,其特征在于,所述方法还包括:预先设置同步显示于视频画面上的其他信息的显示位置。7.一种视频通信装置,其特征在于,所述装置包括:拍摄单元、映射关系设置单元、表情/动作识别单元、显示执行单元; 所述拍摄单元,用于在初始时刻拍摄各种表情/动作类型对应的表情/动作模版,在视频通信过程中实现视频拍摄; 所述映射关系设置单元,用于建立表情/动作类型与预设的图案/动画/特效的映射关系表; 所述表情/动作识别单元,用于在视频通信过程中,按照预设的第一频率,以所述各种表情/动作模版为依据,实时检测分析出所述拍摄单元当前拍摄的视频内容中所包含的表情/动作类型; 所述显示执行单元,用于在视频通信过程中,查找所述映射关系表,将当前识别出的表情/动作对应的图案/动画/特效实时同步显示于视频画面中。8.如权利要求7所述的视频通信装置,其特征在于,所述装置还包括语音内容解析单元; 所述语音内容解析单元,用于在视频通信过程中,实时解析当前采集的语音信息,得到相应的文字信息; 所述显示执行单元,用于实时地将解析得到的文字信息同步显示于视频画面中。9.如权利要求7或8所述的视频通信装置,其特征在于,所述装置还包括有效表情/动作判断单元; 所述有效表情/动作判断单元,用于对所述表情/动作识别单元当前识别出的表情/动作类型的有效性进行判断; 所述显示执行单元,用于将当前识别出的有效表情/动作对应的图案/动画/特效实时同步显示于视频画面中。10.如权利要求9所述的视频通信装置,其特征在于,所述有效表情/动作判断单元进一步包括: 统计模块,用于按照预设的第二频率,统计本周期内由所述表情/动作识别单元识别出的所有表情/动作类型; 判断模块,用于根据统计信息,判断其中出现概率最高的表情/动作类型的出现概率是否超过预设的门限值,若超过,则判定该表情/动作类型为本周期内的有效表情/动作,否则,判定本周期内无有效表情/动作。
【专利摘要】本发明公开了一种视频通信方法及装置,所述方法包括步骤:预先拍摄各种表情/动作类型对应的表情/动作模版;建立表情/动作类型与预设的图案/动画/特效的映射关系表;在视频通信过程中,按照第一频率,以各种表情/动作模版为参考,实时检测分析以识别出当前拍摄单元拍摄的视频影像中所包含的表情/动作类型;查找映射关系表,将当前识别出的表情/动作类型对应的图案/动画/特效同步显示于视频画面中。本发明提出的视频通信方案不仅满足了用户在视频通话的同时需同步传送文字信息的需求,而且还能自动识别用户的表情/动作并选取相应的图案/动画/特效同步显示于视频画面上,满足了用户的个性化需求,大大提升了用户使用体验。
【IPC分类】H04N21/4788, H04N7/14
【公开号】CN104902212
【申请号】CN201510216667
【发明人】刘卓曦
【申请人】努比亚技术有限公司
【公开日】2015年9月9日
【申请日】2015年4月30日