一种基于主动视觉的互动投影方法及系统的制作方法

文档序号:6525494阅读:149来源:国知局
一种基于主动视觉的互动投影方法及系统的制作方法
【专利摘要】本发明公开了一种基于主动视觉的互动投影方法及系统,其方法是投影装置将需要互动的画面投影到任意平面,并采用拍摄装置采集用户对投影出的互动画面的操作信息,同时将拍摄的信息传输到处理装置进行分析处理,以获取用户对应的操作实现人机交互。本发明的处理装置采用离线训练的方式,使得检测效率得以提高。在训练数据时,提出了一种新的训练机制,减少了大量的人工操作。在检测时,采用了实时更新的模型,即目前的肤色模型只跟前几帧的肤色有关,这样可以有效的去除光照对肤色的影响,并有效的提高算法效率,完全可以达到实时的要求。
【专利说明】一种基于主动视觉的互动投影方法及系统
【技术领域】
[0001]本发明涉及计算机视觉【技术领域】,更具体地,涉及一种基于主动视觉的互动投影方法及系统。
[0002]继而对所需要互动的画面执行对应的用户操作,并通过投影装置投影到投影区域供用户观看;
【背景技术】
[0003]虽然综合运用视觉、听觉、触觉、嗅觉、味觉等的多通道人机交互技术越来越多地得到应用,然而,双手作为虚拟现实系统中重要的动作与感知关系模型,其在虚拟现实系统依然起着不可代替的作用。目前,触摸系统作为一种最新的电脑输入设备,它是目前最简单、方便、自然的一种人机交互方式。它赋予了多媒体以崭新的面貌,是极富吸引力的全新多媒体交互设备。随着科技的进步,投影仪的使用越来越简便,它可以将任意一个平面变成一个显示屏,投影仪广泛的应用于培训会议,课堂教学,电影院等等。
[0004]目前,相机和投影逐渐走入了平常百姓的生活,而通过投影和相机来进行手势的自动识别成为目前的研究热点,通过手势的自动识别,达到了更好的人机交互,使得投影的使用更加方便。目前基于视觉的投影交互系统基本都是基于辅助光定位的或基于指尖定位的,但在目前已有的方案大都实时性不强,鲁棒性不高。
[0005]专利200910190517.0公开了一种基于手指的投影交互方法,该发明通过手的颜色和形状等信息在视频文件中提取出手指的轮廓,并记录手指的运动轨迹,然后将手指的运动轨迹和预先定义好的指令库中的指令对比,来判断所属操作轨迹属于何种操作指令,达到人机交互的目的。专利200910197516.9公开了一种用于交互式演示系统中的手指识别方法,用于基于摄像机投影的交互式演示系统中通过手指的识别确定用户的操作行为。该发明是以图像处理技术为基础,根据用户绘画操作时的手指姿势特点,以其几何空间位置信息为主要识别信息,对摄像头拍摄的图像进行分析和处理,从而识别出手指。互动投影系统中,为了要对手势进行识别,首先要从图片中分割获取手部区域。而目前关于手部区域的分割一直是一个难点。在投影交互系统中,由于投影仪光线的照射,人的手臂可能会呈现出不同的颜色,投影画面中也有可能包含人手,这都给分割手臂带来了困难。

【发明内容】

[0006]为克服上述现有技术所述的至少一种缺陷(不足),本发明首先提供一种识别效率和准确性高的基于主动视觉的互动投影方法。
[0007]本发明的又一目的是提出一种基于主动视觉的互动投影系统。
[0008]为了实现上述目的,本发明的技术方案如下:
[0009]一种基于主动视觉的互动投影方法,投影装置将需要互动的画面投影到任意平面,并采用拍摄装置采集用户对投影出的互动画面的操作信息,同时将拍摄的信息传输到处理装置进行分析处理,以获取用户对应的操作实现人机交互,[0010]所述处理装置处理分析信息的过程为:选定一个对光照不敏感的色彩空间,采用贝叶斯估计法提取手部区域,并对该手部区域进行跟踪及指尖位置的定位,再通过测距来判断手指是否与投影屏幕接触,以确定是否进行人机交互;
[0011]采用贝叶斯估计法来提取手部区域,其具体方式为:
[0012]通过离线训练获取概率P(S)、P (c)、P(c |s)和P(s|c),其中P(S)表示训练过程中肤色的先验概率,P(C)表示训练过程中每个颜色的先验概率,P (c| S)表示像素值为C的像素为肤色的先验概率,P (s| C)表示经过训练后,像素值为C的像素为肤色的概率;
[0013]P(s I c) = P(c I s)P(s)/P(C) (I)
[0014]在离线训练过程中获取滞后阈值T_,Tfflax=P (s I c);是根据概率分布图得到的,也就是概率分布区间;
[0015]采用自适应法进行肤色检测以提取手部区域,根据最近w帧识别的肤色区域来判断目前检测的肤色区域点,最近W帧的先验概率为Pw (S),Pw (C),Pw (C I S),其中Pw (S)表示最近W帧中肤色的先验概率,Pw(C)表示最近W帧中每个颜色的先验概率,Pw (c Is)表示最近W帧中像素值为C的像素为肤色的先验概率,另检测为肤色区域的概率P’ (s|c)为:
[0016]P’(s|c)= Y P(s I c) + (l- Y )Pw(s I c) (2)
[0017]其中Pw (s I c)通过式(I)获取,即 Pw (s I c) = Pw (c I s) Pw (s)/Pw (c) , Y 是一个控制系数,该控制系数跟训练阶段的训练集有关;
[0018]当P’ (s|c) > Tmax,则目前检测是否为肤色区域,至此提取出手部区域,否则不属于肤色区域。
[0019]目前关于手部区域提取方法有很多,最常用的有基于手部颜色的、基于手部形状的以及基于色彩和物理标定的方法。目前肤色检测所采用的色彩空间主要有以下几种,RGB、归一化的RGB、HSV、YCrCb, YUV等。在本方法中,进行肤色检测时,采用对光照不敏感的色彩空间,这样就可以使得肤色的检测鲁棒性比较高。在给定一个色彩空间后,最简单的判断肤色由哪些颜色组成的办法是对选定的空间加一个限制条件,即之后阈值T_。该滞后阈值Tmax是由经验得出的,如在给定一系列的肤色区域图像,这样就可以得到肤色区域的分布。
[0020]本方法在提取手部区域时采用基于离线的贝叶斯学习方法,随后采用非贝叶斯框架来进行跟踪。跟已有的算法相比,本方法具有以下的优点:(1)通过离线学习的方式来得到肤色的分布,这样可以大大增加检测是速度。(2)采用了实时变化的肤色模型,即该肤色模型只跟前几帧有关,因此,虽然没有复杂的肤色模型,但即使在变化的光照情况下,也能鲁棒的、有效的识别出肤色区域。(3)方法所采用的算法效率很高,能达到实时的处理。
[0021]一种应用于所述的基于主动视觉的互动投影方法的系统,包括用于将需要互动的画面投影到任意平面的投影装置、用于采集用户对投影出的互动画面的操作信息的拍摄装置以及进行信息处理分析的处理装置,
[0022]所述处理装置处理分析信息的过程为:选定一个对光照不敏感的色彩空间,采用贝叶斯估计法提取手部区域,并对该手部区域进行跟踪及指尖位置的定位,再通过测距来判断手指是否与投影屏幕接触,以确定是否进行人机交互;
[0023]采用贝叶斯估计法来提取手部区域,其具体方式为:
[0024]通过离线训练获取概率P(S)、P (c)、P(c |s)和P (s I C),其中P(S)表示训练过程中肤色的先验概率,P(C)表示训练过程中每个颜色的先验概率,P (c| S)表示像素值为C的像素为肤色的先验概率,P (s| C)表示经过训练后,像素值为C的像素为肤色的概率;
[0025]P(s|c) = P(c|s)P(s)/P(c) (I)
[0026]在离线训练过程中获取滞后阈值Tmax,Tmax=P (s I c);
[0027]采用自适应法进行肤色检测以提取手部区域,根据最近w帧识别的肤色区域来判断目前检测的肤色区域点,最近w帧的先验概率为Pw (S),Pw (C),Pw (c I s),其中Pw (S)表示最近w帧中肤色的先验概率,Pw(c)表示最近w帧中每个颜色的先验概率,Pw (c |s)表示最近w帧中像素值为c的像素为肤色的先验概率,另检测为肤色区域的概率P’ (s|c)为:
[0028]P’(s|c) = Y P(s I c) + (l- Y )Pw(s I c) (2)
[0029]其中Pw(s I c)通过式(I)获取,即 Pw(s I c) = Pw(c I s)Pw(s)/Pw(c) , Y 是一个控制系数,该控制系数跟训练阶段的训练集有关;
[0030]当P’ (s|c) > Tmax,则目前检测是否为肤色区域,至此提取出手部区域,否则不属于肤色区域。
[0031]与现有技术相比,本发明技术方案的有益效果是:本发明采用离线训练的方式,使得检测效率得以提高。在训练数据时,提出了一种新的训练机制,减少了大量的人工操作。在检测时,采用了实时更新的模型,即目前的肤色模型只跟前几帧的肤色有关,这样可以有效的去除光照对肤色的影响。并且本专利提出的算法效率很高,完全可以达到实时的要求。
【专利附图】

【附图说明】
[0032]图1为本发明的互动投影系统示意图。
[0033]图2为本发明处理装置分析处理信息的流程图。
[0034]图3为采用三角测量法测量原理图。
【具体实施方式】
[0035]附图仅用于示例性说明,不能理解为对本专利的限制;
[0036]为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
[0037]对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0038]如图1所示为本发明的投影系统示意图,包括投影仪、两个相机、计算设备。投影仪主要的作用就是将画面投到任意的平面。相机的作用是拍摄投影出去的画面,然后传输到计算设备中。计算设备主要是对相机采集的数据进行分析,其分析处理的流程图如图2所示。
[0039]首先,是从复杂背景中提取出人手。从复杂背景中提取人手就是从整幅图像中将对应的人手部分提取出来,它涉及到图像的分割和对人手区域判别两个问题。分割图像一般属于是低层次的特征提取,主要利用了人手的几何信息、颜色信息和运动信息。其中,几何信息包括人手的形状、轮廓等等;运动信息指的是人手的运动轨迹。人手区域的提取为后面精确的定位指尖位置奠定了基础,通常可以采用灰度阈值法、边缘检测算子法、差分法等方法来实现。本发明中,为了去除投影光线照射的影响,在手臂提取时采用基于贝叶斯估计的方法。在找到手部的位置之后,开始保持对手部区域的跟踪,同时需要精确的定位指尖。而关于指尖的定位方法也有很多,有特殊标记法、轮廓分析、Hough圆变换等。
[0040]最后,需要计算相机到手指的距离,来判断手指是否与投影屏幕接触。本系统主要采用三角测量的方法,即基于双目视觉的三维重建方法来计算该距离。
[0041]在本实施例中,采用“贝叶斯估计”的方法进行肤色提取:
[0042]目前关于手部区域的检测方法有很多,最常用的有基于手部颜色的、基于手部形状的以及基于色彩和物理标定的方法。目前的算法存在最大的问题是对光照比较敏感,其次就是算法的效率问题。目前肤色检测所采用的色彩空间主要有以下几种,RGB、归一化的RGB、HSV、YCrCb, YUV等。在进行肤色检测时,会优先考虑对光照不敏感的色彩空间,这样就可以使得肤色的检测鲁棒性比较高。在给定一个色彩空间后,最简单的判断肤色由哪些颜色组成的办法是对选定的空间加一个限制条件,即滞后阈值。该滞后阈值是由经验得出的,如在给定一系列的肤色区域图像,这样就可以得到肤色区域的分布。本实施例采用基于离线的贝叶斯学习方法来检测肤色区域,随后采用非贝叶斯框架来进行跟踪。跟已有的算法相比,本发明有以下的优点:(I)通过离线学习的方式来得到肤色的分布,这样可以大大增加检测是速度。(2)采用了实时变化的肤色模型,即该肤色模型只跟前几帧有关,因此,虽然没有复杂的肤色模型,但即使在变化的光照情况下,也能鲁棒的、有效的识别出肤色区域。(3)本发明所采用的算法效率很高,能达到实时的处理。
[0043]1.1肤色检测
[0044]肤色检测主要包括以下几个部分:Ca)估计出某个像素属于肤色的概率;
[0045](b)根据概率分布图得到滞后阈值Tmax;肤色检测采用了贝叶斯方法,主要包括迭代的离线训练过程和自适应的检测过程。
[0046]A.训练和检测机制
[0047]首先需要给定一系列的包括肤色区域的图片,并且需要手工的在图片中勾选出肤色部分,采用色彩空间为YUV4:2: 2。但是本实施例具体训练和识别的时候,并没有采用Y分量,主要有以下两个原因:(I) Y分量与像素点的亮度有关,因此去除Y分量,可以有效的减少光照对检测的影响。(2)去除Y分量后,相对于YUV,图像的维度降低了,所以能大大提升整个过程的效率。
[0048]假定一个像素为I (x,y),其像素值为c = c (x,y),训练过程主要计算以下几个值:(I)肤色的先验概率P (s) ;(2)每个颜色在训练数据中出现的先验概率P(C) ;(3)像素值为C的像素为肤色的先验概率P (C I S);在经过训练后,像素值为C的像素为肤色的概率P(s|c)可以通过贝叶斯准则得到:
[0049]P (s I c) = P (c I s) P (s)/P (C) (I)
[0050]即可确定滞后阈值T_,T_=P(S|C),在具体实施中,当某一像素点属于肤色的概率大于滞后阈值Tmax,则该点为肤色。
[0051]A.简化后的离线训练
[0052]训练主要是在离线的情况下完成的,所以它不会影响在线的检测效率等问题。然而,要得到充足的训练数据是一个非常耗时的工作。为了解决这个问题,本实施例采用一种自适应的训练过程。首先,用一组很少的数据集来进行训练,然后用大量的数据以及滞后阈值来进行肤色区域的识别,并且实时的更新先验概率P(S)、P(C)和P(c|s)。然后不断的用更新后的阈值来将图片中的肤色区域和非肤色区域分开。如果分类器训练得到错误的结果,则需要人工介入来改正这个错误,但是该方法仍然能完成大部分所需要的工作。如果想要更精确的结果,可以输入更多的训练数据,如果训练的结果已经达到需求,可以立即停止训练。
[0053]B.自适应检测肤色
[0054]即使在采用了 UV模型,在光照不断变化的情况下,仍然会得到一些错误的识别结果。为了解决这个问题,需要根据之前几帧识别的肤色区域来判断目前的肤色区域点。因此,本专利采用了两组先验概率:即离线训练先验概率P (S)、P(C)和P (Cl S)。最近W帧的先验概率Pw(S),Pw(C),Pw (C I S)。其中最近的W帧的先验概率最能反映出目前的肤色状态,并且也能更好的适应目前的光照情况。肤色则由以下式子定义:
[0055]P’(s|c) = Y P(s I c) + (l- Y )Pw(s I c) (2)
[0056]其中Pw(s|c)和?¥(8|(3)都由(I)式可以得到,分别为整个训练集的先验概率和最近w帧的先验概率。Y则是一个控制系数,该控制系数跟检测阶段的训练集有关。当P’ (s|c) > Tmax,则目前检测是否为肤色区域,至此提取出手部区域,否则不属于肤色区域。
[0057]1.2肤色跟踪
[0058]由于只是针对手部区域进行跟踪,即单目标跟踪,本实施例采用了 Camshift算法,目前该 算法已经非常成熟的运用于运动跟踪以及图像分割中,它将视频的所有帧数作meanShift运算,meanShift算法是一个变步长的梯度上升算法,并将上一帧的结果,即搜索窗的大小与中心,作为下一帧meanshift算法搜索窗的初始值。以此迭代下去,就可实现对目标的跟踪。算法过程如下:
[0059](I)初始化搜索窗;(2)计算搜索窗的颜色概率分布;(3)运行meanShift算法,获得搜索窗的大小和位置;(4)在下一帧视频图像中用步骤(3)的初始值重新初始化搜索窗的大小和位置,再跳到步骤(2)继续进行。
[0060]1.3找到指尖
[0061]取出手臂之后,下面的任务是要找到指尖在图像中的位置,寻找指尖的方法有很多种,如通过计算轮廓的近似K曲率,根据指尖点处K曲率取极值求出指尖位置.本发明通过以下步骤寻找指尖:
[0062]I)找出最大轮廓并填充此轮廓,这样就得到了没有噪声的手臂前景图像;
[0063]2)计算轮廓的凸包;
[0064]3)计算手臂重心位置,在凸包上找出曲率最大的几个候选点;
[0065]4)把距离重心位置最远的候选点作为指尖。
[0066]1.4 测距
[0067]在找到指尖位置之后,需要得到指尖到相机指尖的距离。根据立体几何原理,首先要做的工作时进行投影仪和摄像机的标定。准确而简单的标定过程是投影仪-摄像机构成主动视觉系统进行三维测量的关键所在,标定摄像机方法已经很成熟,目前普遍采用的是张正友的标定方法。标定摄像机只需要使用一个平面棋盘格。只要找到投影图像三维坐标点与投影图像的二维点之间的对应关系就可以求解出投影仪的内部参数与外部参数。
[0068]在本实施例中采用如下步骤来标定投影仪:
[0069]S1.标定摄像机;[0070]S2.准备一个白板,白板上贴有一个纸质棋盘格;
[0071]S3.控制投影仪投射出一个棋盘格照射在白板上;
[0072]S4.分别提取两个棋盘格的角点;
[0073]S5.根据纸质棋盘格角点计算出白板所在平面;
[0074]S6.使用标定好的摄像机计算出投影棋盘格角点的三维坐标;
[0075]S7.结合角点三维坐标点和投影仪的投射的原始图像计算投影仪内部参与外部参数;
[0076]经过以上步骤可以获取投影仪的内部参与外部参数。便可以利用三角测量的方法计算指尖到相机的距离,如图3所示。其中P为观测点,O1^为相机,T为两个相机之间的距离,Z为两个相机到观测点的垂直距离,f为相机的焦距,Xr和X1分别表示观测点在图像中的水平坐标。Cf、cf"分别表示两个相机拍摄的图像中心的水平坐标。
[0077]利用相似三角形可以很容易推导出Z值,由图3可知:
【权利要求】
1.一种基于主动视觉的互动投影方法,投影装置将需要互动的画面投影到任意平面,并采用拍摄装置采集用户对投影出的互动画面的操作信息,同时将拍摄的信息传输到处理装置进行分析处理,以获取用户对应的操作实现人机交互, 其特征在于,所述处理装置处理分析信息的过程为:选定一个对光照不敏感的色彩空间,采用贝叶斯估计法提取手部区域,并对该手部区域进行跟踪及指尖位置的定位,再通过测距来判断手指是否与投影屏幕接触,以确定是否进行人机交互; 采用贝叶斯估计法来提取手部区域,其具体方式为: 通过离线训练获取概率P(S)、P (C)、P(C Is)和P (S I C),其中P(S)表示训练过程中肤色的先验概率,P(C)表示训练过程中每个颜色的先验概率,P (c| S)表示像素值为C的像素为肤色的先验概率,P (s| C)表示经过训练后,像素值为C的像素为肤色的概率;
P(s I c) = P(C I S)P(S)/P(C) (I) 在离线训练过程中获取滞后阈值T_,Tfflax=P (s I c); 采用自适应法进行肤色检测以提取手部区域,根据最近W帧识别的肤色区域来判断目前检测的肤色区域点,最近W帧的先验概率为Pw (S),Pw (C),Pw (C I S),其中Pw (S)表示最近W帧中肤色的先验概率,Pw(C)表示最近W帧中每个颜色的先验概率,Pw(c|s)表示最近W帧中像素值为C的像素为肤色的先验概率,另检测为肤色区域的概率P’ (s|c)为:
P,(s I c) = Y P(s I c) + (l- Y )Pw(s I c) (2) 其中Pw(Slc)通过式(I)获取,即Pw(s|c) =Pw (c|s)Pw (S)/Pw (C),Y是一个控制系数,该控制系数跟训练阶段的训练集有关; 当P’ (s|c) > Tmax,则目前检测是否为肤色区域,至此提取出手部区域,否则不属于肤色区域。`
2.根据权利要求1所述的基于主动视觉的互动投影方法,所述色彩空间采用YUV4:2:20
3.根据权利要求2所述的基于主动视觉的互动投影方法,所述YUV4:2:2色彩空间不采用Y分量。
4.根据权利要求1所述的基于主动视觉的互动投影方法,所述离线训练的具体过程为:选用一组少量的数据进行训练,再采用大量数据以及滞后阈值来进行肤色区域的识别,并实时的更新先验概率P(s)、P(C)和P(c I s),同时不断的用更新后的滞后阈值来将图片中的肤色区域和非肤色区域分开。
5.根据权利要求1所述的基于主动视觉的互动投影方法,所述对手部区域进行跟踪的实现方式为:采用Camshift算法,即将上一帧的结果,即搜索窗的大小与中心,作为下一帧meanshift算法搜索窗的初始值;以此迭代下去,实现对目标的跟踪。
6.根据权利要求5所述基于主动视觉的互动投影方法,所述对手部区域进行跟踪的具体实现方式为: 1)初始化搜索窗; 2)计算搜索窗的颜色概率分布; 3)运行meanShift算法,获得搜索窗的大小和位置; 4)在下一帧视频图像中用步骤3)的初始值重新初始化搜索窗的大小和位置,再跳到步骤2)继续进行。
7.根据权利要求1所述的基于主动视觉的互动投影方法,所述定位指尖位置的方式为: a)找出最大轮廓并填充此轮廓,以得到了没有噪声的手臂前景图像; b)计算轮廓的凸包; c)计算手臂重心位置,在凸包上找出曲率最大的几个候选点; d)把距离重心位置最远的候选点作为指尖。
8.根据权利要求1所述的基于主动视觉的互动投影方法,所述测距是测量指尖到相机指尖的距离,具体方式为:标定投影仪和摄像机,其中投影仪的标定方法为: 51.标定摄像机; 52.准备一个白板,白板上贴有一个纸质棋盘格; 53.控制投影仪投射出一个棋盘格照射在白板上; 54.分别提取两个棋盘格的角点; 55.根据纸质棋盘格角点计算出白板所在平面; 56.使用标定好的摄像机计算出投影棋盘格角点的三维坐标; 57.结合角点的三维坐标点和投影仪的投射的原始图像计算投影仪内部参与外部参数;` 58.利用三角测量的方法计算指尖到相机的距离Z;当距离Z小于某一特定阈值,则认为有点击事件发生。
9.一种应用于权利要求1至8任一项所述的基于主动视觉的互动投影方法的系统,包括用于将需要互动的画面投影到任意平面的投影装置、用于采集用户对投影出的互动画面的操作信息的拍摄装置以及进行信息处理分析的处理装置, 其特征在于,所述处理装置处理分析信息的过程为:选定一个对光照不敏感的色彩空间,采用贝叶斯估计法提取手部区域,并对该手部区域进行跟踪及指尖位置的定位,再通过测距来判断手指是否与投影屏幕接触,以确定是否进行人机交互; 采用贝叶斯估计法来提取手部区域,其具体方式为: 通过离线训练获取概率P(S)、P (C)、P(C Is)和P (S I C),其中P(S)表示训练过程中肤色的先验概率,P(C)表示训练过程中每个颜色的先验概率,P (c| S)表示像素值为C的像素为肤色的先验概率,P (s| C)表示经过训练后,像素值为C的像素为肤色的概率;
P(s I c) = P(C I S)P(S)/P(C) (I) 在离线训练过程中获取滞后阈值T_,Tfflax=P (s I c); 采用自适应法进行肤色检测以提取手部区域,根据最近W帧识别的肤色区域来判断目前检测的肤色区域点,最近W帧的先验概率为Pw (S),Pw (C),Pw (C I S),其中Pw (S)表示最近W帧中肤色的先验概率,Pw(C)表示最近W帧中每个颜色的先验概率,Pw(c|s)表示最近W帧中像素值为C的像素为肤色的先验概率,另检测为肤色区域的概率P’ (s|c)为:
P,(s I c) = Y P(s I c) + (l- Y )Pw(s I c) (2) 其中Pw(Slc)通过式(I)获取,即Pw(s|c) =Pw (c|s)Pw (S)/Pw (C),Y是一个控制系数,该控制系数跟训练阶段的训练集有关; 当P’ (s|c) > Tmax,则目前检测是否为肤色区域,至此提取出手部区域,否则不属于肤色区域。
10.根据权利要求9所`述的系统,其特征在于,所述拍摄装置为两台相机。
【文档编号】G06K9/62GK103677274SQ201310724304
【公开日】2014年3月26日 申请日期:2013年12月24日 优先权日:2013年12月24日
【发明者】沈三明 申请人:广东威创视讯科技股份有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1