一种互联网图像驱动的三维模型最优视图自动选择方法

文档序号:6624315阅读:309来源:国知局
一种互联网图像驱动的三维模型最优视图自动选择方法【专利摘要】本发明公开了一种互联网图像驱动的三维模型最优视图自动选择方法,包括以下步骤:三维模型集预处理;图像视角分类器训练:得到一个用以估计图像的观察视角的分类器,包括训练集生成、图像视角分类器训练两个步骤;互联网图像采集:通过图像搜索引擎和社交网络中用户上传的大量图像,采集互联网中相应模型的图像,包括互联网图像抓取、无关图像过滤以及前景物体图像提取三个步骤;视图投票评价:通过互联网图像对三维模型相应的视图投票,选择排序靠前的视图为最优视图,包括互联网图像视角估计以及视图排序两个步骤。本发明可以适用于包括刚体和非刚体在内的多种类别的三维模型,符合人们的视觉习惯。【专利说明】一种互联网图像驱动的三维模型最优视图自动选择方法【
技术领域
】[0001]本发明涉及一种互联网图像驱动的计算机图形形状分析的处理方法,属于计算机图形学【
技术领域
】,具体地说是一种互联网图像驱动的三维模型最优视图自动选择方法。【
背景技术
】[0002]根据成像原理以及视觉计算理论,三维模型需要在人类的视网膜或者显示屏幕上映射到二维视图后,才能被人类浏览和认知。人类对物体的认知依赖于视点位置,而使得人类能够最好地认知和理解三维模型的视点位置,称之为该三维模型的最优视点,从该视点映射得到的二维视图为最优视图。最优视图选择问题的目标在于找到能够表示三维模型主要特点的代表性视图。计算机技术的发展使得三维模型在计算机辅助设计、数字娱乐、医学、生物学等诸多领域得到了广泛的应用,为了有效地利用由此产生的大量三维模型,需要高效的浏览与认知手段。三维模型数据集的浏览过程中,应该选用具有代表性的最优视图作为缩略图来展示三维模型。人类能够合理地选择视点位置,得到三维模型的最优视图,但是对于大量的三维模型来说,完全由人工选择是不可行的,因而需要自动选择三维模型最优视图的方法。[0003]由于最优视图和人类的感知有关,难以确切地给出最优视图严格的数学定义,因此近年来出现了多种最优视图的定义以及相应方法。这些方法都基于不同的最优视图的定义来量化人类观察物体的视觉习惯,将二维视图的优劣定义为一个三维模型与视图相关的函数,使得该函数取得最大值的视图就是最优视图。[0004]一种是基于信息论的框架,最优视图是包含最多信息的视图,一个视图的信息量由熵函数来评价,例如文献I:FeixasM,delAceboE,BekaertP,etal.Aninformat1ntheoryframeworkfortheanalysisofscenecomplexity[J].ComputerGraphicsForum18(3),95-106(1999).定义了基于互信息的场景复杂性评价,来度量场景中点或者面片之间的相关性;文献2:杨利明,王文成,吴恩化.基于视平面上特征计算的视点选择[J].计算机辅助设计与图形学学报,2008,20(9):1097-1103.在视平面上分析曲率特征度量模型的几何特征在视平面上的分布状况,以此计算熵值作为衡量视点优劣的标准;文献3:曹伟国,胡平,李华,等.基于距离直方图的最优视点选择[J].计算机辅助设计与图形学学报,2010,22(9):1515-1521.提出基于距离直方图的三维模型最优视点选择方法,计算距离直方图的香农熵并作为衡量视点优劣的标准,又如文献4:JoshuaP,PhilipS,AlekseyG,etal.Aplanar-reflectivesymmetrytransformfor3Dshapes[J].ACMTransact1nsonGraphics,2006,25:549-559.提出的对称性方法、文献5:YamauchiH,SaleemW,YoshizawaS,Karni,etal.Towardsstableandsalientmult1-viewrepresentat1nof3Dshapes.1nProceedingsoftheIEEEInternat1nalConferenceonShapeModelingandApplicat1ns2006(SMI’06),2006:40.提出的相似性方法等等使得视觉冗余信息最小化。[0005]虽然基于这种定义,有着众多的评价标准及相应方法,但是三维模型随着人们的需求有各种类别,使得难以有适用于所有种类三维模型的通用评价标准。此外,这些方法并不考虑在视觉上能够对模型加以区别,然而同类三维模型也会有几何变化,这样也就难以保证同类模型具有人类感官上相似的最优视图,因此,这些方法不适用于对三维数据集的高效浏览。[0006]此外,这些定义都试图量化人类的对于三维模型的视觉认知。但是这些量化标准都相对主观。一种更好的方法是引入人们对他们感觉的最优视图的投票和选择,以往这种人工标记需要很多的人力成本来调查人们的观点。但是,人们在拍摄照片的时候往往带有对于物体视角的喜好,这可以反映出人们对于三维模型最优视图的选择。而且随着互联网的和图片共享服务的兴起,人们愿意在互联网上发布自己拍摄的图像。这样可以利用在互联网上的大量图像直接获取人们对于三维模型最优视图的选择。此外,这种定义是在类别层次上的,只需要对于一类三维模型进行计算和选择,不需要对每个模型的每个视图进行计算,从而可以节省计算代价。文献6:中国发明专利,CN102163343,基于互联网图像的三维模型最佳视角自动获取方法,使用了这种定义来获得三维模型最优视图,但是仅仅利用了互联网图像和三维模型视图之间一些简单特征的匹配,对于人体等非刚体以及其他较为复杂的模型的效果不佳,而且需要对于每个模型的每个视图进行处理,需要很大的计算开销。【
发明内容】[0007]发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种互联网图像驱动的三维模型最优视图自动选择方法,利用互联网图像来支持对三维模型最优视图的自动选择。[0008]为了解决上述技术问题,本发明公开了一种互联网图像驱动的三维模型最优视图自动选择方法,包括以下步骤:[0009]步骤一,三维模型集预处理:对输入的三维模型集中的各个三维模型进行预处理,得到所有三维模型的类别,包括姿态校正、尺度归一化以及三维模型类别判断三个步骤,所述三维模型集中每个三维模型设有类别或者描述标记;[0010]姿态校正过程调整三维模型的坐标系,将三维模型的姿态校正为直立状态;[0011]尺度归一化过程将三维模型的大小归一化为单位长度;[0012]三维模型类别判断过程根据已有三维模型集来确定不在三维模型集中未分类三维模型的所属类别;[0013]步骤二,图像视角分类器训练:得到一个用以估计图像的观察视角的分类器,包括训练集生成以及图像视角分类器训练两个步骤;[0014]训练集生成过程渲染带有贴图和纹理的三维模型,并采集各个角度的图像和视角标记;[0015]图像视角分类器训练过程使用之前生成的训练集,来训练得到一个对于某类物体图像的视角分类器;[0016]步骤三,互联网图像采集:通过图像搜索引擎和社交网络中用户上传的大量图像,采集互联网中相应模型的图片,包括图像抓取、无关图像过滤以及前景物体图像提取三个步骤:[0017]互联网图像抓取过程以三维模型类别描述为关键词,通过爬虫抓取图像搜索弓I擎和社交网络中用户上传的大量图像;[0018]无关图像过滤过程过滤掉与三维模型类别描述无关的图像,保留相关的图像;[0019]前景物体图像提取过程将图像中背景去除,提取出前景物体及其包围盒,并放置于纯白色背景的新图像之中,构建相应三维模型的候选互联网图像集合;[0020]步骤四,视图评价:通过互联网图像对三维模型相应的视图投票,选择排序靠前的视图为最优视图,包括互联网图像视角估计以及视图排序两个步骤;[0021]互联网图像视角估计过程使用图像视角分类器对于互联网图像集合的所有图像的视角进行估测和计算;[0022]视图排序过程中,三维模型对应的互联网图像集合中每幅图像对相应的视角进行投票,按视图得到的票数降序排列,排序最靠前视图的为该模型的最优视图。[0023]本发明步骤一中所述姿态校正部分还包括以下步骤:步骤111计算三维模型的中心,将三维模型平移至以该模型的中心为原点的坐标系上。步骤112通过PCA(主成分分析,PrincipalComponentAnalysis)方法(文献7:PearsonK.0nlinesandplanesofclosestfittosystemsofpointsinspace[J].PhilosophicalMagazine,1901,2(6):559-572.)计算模型的主轴方向。步骤113将模型所在坐标系的各个坐标轴方向调整为PCA方法得到的主轴方向。[0024]本发明步骤一中所述尺度归一化部分还包括以下步骤:步骤121计算三维模型的中心以及三维模型上的各个顶点到中心的距离。步骤122,以最长的距离作为单位长度对各个顶点进行归一化。[0025]本发明步骤一中所述三维模型类别判断部分还包括以下步骤:步骤131对每个三维模型进行特征提取,得到三维模型的特征。步骤132利用已有三维模型集每个模型的特征和类别标记作为训练集进行有监督学习,得到三维模型类别的分类器。步骤133对于不在步骤132中已有三维模型集里的三维模型,使用步骤132得到的分类器该三维模型确定所属类别,并加入三维模型集相应类别中,得到完全分好类的三维模型集M=(M1,...,MJ,其中η为三维模型的数量。[0026]本发明步骤二中所述三维模型视图采样部分还包括以下步骤:步骤211从带有贴图和纹理的三维模型数据库中,利用三维模型类别或描述标签检索相应的三维模型,数据库中的所有三维模型都经过了预先的校正。步骤212,将相应的三维模型放入坐标轴原点,附上贴图和纹理,并加入在红绿蓝阿尔法颜色(redgreenbluealpha,RGBA)空间中的亮度值为(0.4,0.4,0.4,1)的均一白色全局环境光照。步骤213,利用预先定义的正二十面体的坐标生成初始包围三维模型的正二十面体,对正二十面体进行曲面细分得到离散化的视点位置。步骤214,在每个视点上渲染三维模型,得到三维模型的多个视角合成的图像、视角标记和前景物体包围盒。[0027]本发明步骤二中所述图像视角分类器训练部分还包括以下步骤:步骤221,对于某类三维模型,提取之前步骤得到的合成的图像的方向梯度直方图(Histogramoforientedgradient,HOG)特征(文献8:DalaiN,TriggsB.Histogramsoforientedgradientsforhumandetect1n[C]//ComputerVis1nandPatternRecognit1n,2005.CVPR2005.1EEEComputerSocietyConferenceon.1EEE,2005,1:886-893.)。步骤222,以方向梯度直方图特征、图像视角标记以及前景物体包围盒作为输入,使用文献9:P.Felzenszwalb,R.Girshick,D.McAllester,D.Ramanan,ObjectDetect1nwithDiscriminativelyTrainedPartBasedModelsIEEETransact1nsonPatternAnalysisandMachineIntelligence,Vol.32,N0.9,Sep.2010提出的可变形部件模型(Deformablepartmodels,DPM)训练得到图像视角分类器。[0028]本发明步骤三中所述互联网图像抓取部分还包括以下步骤:步骤311以三维模型类别描述作为关键词,利用基于文本的图像搜索在互联网和社交网络上进行检索。步骤312,对于检索结果,构建一个互联网资源爬虫下载检索结果中的图像,构建各类三维模型的互联网图像集。[0029]本发明步骤三中所述无关图像过滤部分还包括以下步骤:步骤321,采用显著性测试算法衡量图像集中每幅图像的显著性并过滤掉显著性物体过多、背景复杂的图像。[0030]本发明步骤三中所述前景物体图像提取部分还包括以下步骤:步骤331,采用文献10:BoykovY,VekslerO,ZabihR.Fastapproximateenergyminimizat1nviagraphcuts[J].PatternAnalysisandMachineIntelligence,IEEETransact1nson,2001,23(11):1222-1239.提出的GraphCuts算法分割出互联网图像的前景物体并得到前景物体的包围盒。步骤332,依据包围盒裁剪图像,仅保留前景物体。[0031]本发明步骤四中所述互联网图像视角估计部分还包括以下步骤:步骤411,从互联网图像集中选择属于同类型物体的图像,使用训练得到的图像视角分类器估计互联网图像的视角。[0032]本发明步骤四中所述图像投票部分还包括以下步骤:步骤421,三维模型对应的互联网图像集合中每幅图像对相应的视角进行投票。步骤422,按视图得到的票数降序排列,输出排序最靠前的视图的为该类三维模型的最优视图。[0033]本发明不同于已有的最优视图几何度量标准的大量研究,本发明采用另外一种评价标准:采用互联网图像获取人们对于三维模型最优视图的评价并对三维模型的各个视图进行投票,票数最多的视图为三维模型的最优视图。这样,三维模型的最优视图选择问题就可以划归为互联网图像收集和互联网图像视角估计的机器学习问题,而这些在图像识别的问题中得到了大量的研究。采用互联网图像投票作为最优视图的选择标准以及使用带有纹理和贴图的三维模型作为训练集构建图像视角分类器,是本发明区别于以往传统的主观选择方法之处,使得本发明的选择方法建立在客观量化的评价标准上,实现了技术上的可重复再现性,满足了工业计算机领域图形图像处理的基本要求。[0034]有益效果:本发明具有以下优点:首先,本发明是一种通用的最优视图选择方法,可以适用于多种类别的三维模型;其次,本发明依据对于互联网图像的视角估计,是一种较为可观的度量方式;再次,本发明利用带有纹理和贴图的三维模型来训练图像视角分类器,不需要大量人工标注;最后,本发明是在三维模型类别层面上的,具有较高的计算速度,且同类别三维模型的最优视图具有较高的姿态一致性。【专利附图】【附图说明】[0035]下面结合附图和【具体实施方式】对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。[0036]图1是本发明的处理流程示意图。[0037]图2是输入的一个无标记的汽车模型。[0038]图3是生成三维模型采样视点的示意图。[0039]图4是对带有纹理和贴图的三维模型采样得到的多个二维视图图像。[0040]图5是可变形部件模型在模型上检测到的部件。[0041]图6是训练得到的各个视角下可变形部件模型的部件构成。[0042]图7是谷歌搜索引擎上关于轿车类别的三维模型的描述标记搜索结果的示意图。[0043]图8a?8d是对轿车类别的三维模型选择得到的最优视图的示意图。【具体实施方式】:[0044]如图1所示,本发明公开的一种三维模型最优视图的自动选择方法,具体包括以下步骤:[0045]步骤一,三维模型集预处理:对输入的三维模型进行预处理以减少三维模型不同姿态以及缩放尺度的影响,并得到所有模型的类别,包括姿态校正、尺度归一化以及三维模型类别判断三个步骤,所述三维模型集中每个三维模型设有类别或者描述标记。[0046]步骤二,图像视角分类器训练:得到一个用以估计图像的观察视角的分类器,包括训练集生成以及图像视角分类器训练两个步骤。[0047]步骤三,互联网图像采集:通过图像搜索引擎和社交网络中用户上传的大量图像,采集互联网中相应模型的图片,包括图像抓取、无关图像过滤以及前景物体图像提取三个步骤。[0048]步骤四,视图评价:通过互联网图像对三维模型相应的视图投票,选择排序靠前的视图为最优视图,包括互联网图像视角估计以及视图排序两个步骤。[0049]本发明的输入三维模型集为含有已分好类且有类别标记的三维网格模型集合以及带有纹理和贴图的三维模型集合。[0050]下面具体介绍各个步骤的主要流程:[0051]1.三维模型集预处理[0052]三维模型集预处理:对输入的三维模型进行预处理以减少三维模型不同姿态以及缩放尺度的影响,并得到所有模型的类别,包括姿态校正、尺度归一化以及三维模型类别判断三个步骤。[0053]1.1.姿态校正[0054]姿态校正过程调整三维模型的坐标系,将三维模型的姿态校正为直立状态,减少三维模型不同姿态的影响。过程如下[0055]步骤I通过对三维模型顶点坐标进行排序,得到三维模型在原坐标系上X轴方向上的最大值Xmax及最小值xmin,y轴方向上的最大值ymax及最小值ymin,以及z轴方向上的最大值Znlax及最小值Znlintl得到三维模型的中心的坐标(Xcenter?^center?^center)=((Xmax-Xmin)/2,(y_-ymin)/2,(Zmax-Zmin)/2),将三维模型每个顶点的坐标减去中心坐标,顶点之间的连接关系保持不变,设原顶点的坐标为(X,y,z),那么对应的新的顶点的坐标为y-ycenter,z-zcenter)。这样就使得三维模型平移至以该模型的中心为原点的坐标系上。[0056]步骤2通过主成分分析方法计算模型的主轴方向,设三维模型顶点坐标组成的矩1-\rλ/.*v*I人11x12x13阵X=;‘..=,其中n为三维模型顶点个数,然后计算X中每列坐标的平均值XnlΧη2^η3.[0057]Xi=~^k=ixki^[0058]其中为i为列号i=1,2,3,将X中每列减去相应的平均值Xi得到新的矩阵ΓV_VrV"_VV_rV"I人11?人11IH人I[0059]B=:.::.χη?~xIxH~xixIi~x1.[0060]得到协方差矩阵[0061]S=~~Σ)1^ιΒ,Β!,Μ._丄[0062]对协方差矩阵S进行对角化[0063]Sqi=λ凡,i=1,2,3,[0064]得到3个特征向量q1;q2,q3和特征值λλ2,λ3,特征向量q1;q2,q3分别对应调整后的坐标系的X轴、y轴、z轴方向。[0065]步骤3将模型所在坐标系的各个坐标轴方向调整为主成分分析方法得到的三个主成分轴方向,新的顶点坐标组成的矩阵V=X*[QirQ2^Q3]。[0066]1.2.尺度归一化。[0067]尺度归一化过程将三维模型的大小归一化为单位长度,减少三维模型不同缩放尺度的影响。过程如下:[0068]步骤I当前坐标系下三维模型的中心即为坐标原点,三维模型上的各个坐标为(xi;yi;Zi)的顶点到中心的距离为[0069]dt=Jx^+yf+zf,?=1,2...η。[0070]步骤2以Cli中最长的距离dmax作为单位长度,将三维模型上各个顶点的坐标除以该距离,进行尺度归一化,新的顶点坐标组成的矩阵X"=V./dmax。[0071]1.3.三维模型类别判断[0072]三维模型类别判断过程根据已有三维模型集来确定不在该集合中未分类三维模型的所属类别,对于已在在该集合中的三维模型则略过此步骤。过程如下:[0073]步骤I对每个三维模型进行特征提取,得到三维模型的特征,所提取特征为文献11:VranicDV,SaupeD.3DModelRetrieval.Proc.0ftheSpringConferenceonComputerGraphicsanditsApplicat1ns(SCCG2000),Budmerice,2000:89?93.提出的由186维的深度视图特征、150维的轮廓特征、136维的射线特征组成的混合描述子,将这些特征组合起来成为每个三维模型的特征向量。[0074]步骤2利用三维模型集每个已分类模型的特征和相应的类别标记作为训练集,应用AdaBoost算法进行有监督学习,由于三维模型集中有较多类别,因此使用一对多分类策略将多分类问题转为多个二分类问题,在训练时当前类别的样本归为一类,其他剩余的样本归为另一类,得到三维模型类别的分类器。[0075]步骤3对于不在数据集里的新模型,向分类器输入步骤I中提取的特征,使用步骤2中得到的分类器确定模型所属类别,并加入三维模型集中相应类别。[0076]2.图像视角分类器训练[0077]图像视角分类器训练:得到一个用以估计图像的观察视角的分类器,包括训练集生成以及图像视角分类器训练两个步骤。[0078]2.1.训练集生成[0079]训练集生成过程渲染带有贴图和纹理的三维模型,并采集各个角度的图像和视角标记。过程如下:[0080]步骤I从带有贴图和纹理的三维模型数据库中,利用三维模型类别或描述标签Li为关键词,通过Li与三维数据库中模型文本描述的匹配来检索相应的三维模型,数据库中的所有三维模型都经过了预先的校正。[0081]步骤2将与Li相匹配的三维模型逐一放入坐标轴原点,依照三维模型文件提供的贴图和纹理图像和位置给三维模型贴图、附上纹理、设置材质,设置背景为纯白色,加入均一白色全局环境光照,其在红绿蓝阿尔法颜色(redgreenbluealpha,RGBA)空间中红色通道的值为0.4,绿色通道的值为0.4,蓝色通道的值为0.4,阿尔法通道的值为I,这样构成(0.4,0.4,0.4,I)的环境光照亮度值,环境光照充满着整个场景,使得场景中的物体被环境光从各个方向照射,场景和物体上几乎不存在阴影。[0082]步骤3采用伪均匀法来离散化视点位置,根据文献11:M.ffoo,J.Neider,T.Davis,D.Shreiner.0penGLProgrammingGuide,Addison-ffesley,1999:2.10.中正二十面体的生成方法,首先依照预先定义的正二十面体的12个顶点的坐标位置(O,土I,±(1+V^)/2),(±1,±(1+V5)/2,0),(±(l+λ/5)/2,0,±1),生成一个体心位于原点(0,0,0)的正二十面体。通过扩张这个正二十面体体心到每个顶点的距离,可以生成初始能够包围三维模型的正二十面体,对正二十面体进行Loop曲面细分,在三角形面片每边的中点处插入新顶点,并将其两两相连,使每个三角形面片剖分为4个三角形面片,Loop曲面细分算法对每个顶点及其相邻顶点计算权重得到新的顶点位置,通过执行Loop曲面细分,得到离散化的均匀分布的视点位置。[0083]步骤4在每个视点上,以视点到模型中心即坐标系原点作为相机的方向,渲染三维模型,截取多个视点下的二维彩色图像得到三维模型的多个视角合成的图像;以这些视点的参数作为图像的视角标记;从图像中找到非白色的像素在图像坐标系中的坐标,并得到其中X轴方向的最大值Xmax和最小值xmin,y轴方向的最大值ymax和最小值ymin,得到图像中前景物体包围盒的四个顶点的坐标分别为(Xniil^yniin),(xmin,ymJ,(x_,ymin),(x_,ymJ。[0084]2.2.视角分类器训练[0085]步骤I对于类别或描述标签为Li的三维模型,提取其多个视角图像的方向梯度直方图特征,将视角图像分成固定尺寸的小的连通区域,每个连通区域称为细胞;计算细胞单元中各像素点梯度或边缘的局部方向直方图;把这些局部直方图多个细胞单元内,进行对比度归一化;将这些直方图组合到一起构成金字塔形的视角图像特征描述。[0086]步骤2采用可变形部件模型将图像中的物体表示为根滤波器(rootfilter)和一系列部件滤波器(partfilter)的星形连接而成的组合。根滤波器覆盖整个物体以获取全局的整体信息,部件滤波器置于方向梯度直方图特征金字塔的底部,用以覆盖物体更小的部件,获取局部信息。然后通过一系列形变参数β={F0,Fl,,Fn,Cl1,,dn,b}和部件假设为L时的特征特征向量少(L)={Φ(Ιο),Φ(Ιι),—,Φ(Ιη)>~Φ?(}?~〖O),—>~Φ?(.^η~《O)}来描述整个模型,其中β为模型的参数向量,F1,...,FnS各部件滤波器的参数向量,(I1,...,dn为各部件的形变向量,b为偏移向量,Φ(In)为部件Vn放置在位置In时的方向梯度直方图特征向量,-Φ^?η-?ο)为部件之间相对位置的特征向量。这些参数描述了检测中部件的实际位置相对其训练位置的偏移程度,以β和P的点积,作为当前部件位置的得分。对于一类三维模型,以2.1中以生成的该模型各个视角下的二维视图作为训练正样本,以其他视角以及随机图像作为负样本,以每幅二维图像的视角作为标记。通过隐支持向量机(latentsupportvectormachine,Latent-SVM)进行训练,初始化参数向量β,利用当前的参数β,采用动态规划对训练集中正样本和负样本中的每张图像进行扫描检测,找到每张图像上得分最高的部件位置假设,然后采用梯度下降最小化目标函数Fd(P)=0Μβ\\2+CZL.max(0,1—奶),其中φ是第i个样本根据得分最高的部件位置向量得到得特征向量,N为训练集中剩余样本的总数,yie{1,-1}为样本正负标记,从而得到当前循环的最优参数向量β。不断利用新的最优参数向量β进行检测并对β进行修正,循环500万次,得到最终的参数向量β,从而得到图像视角的分类器。[0087]3.图像视角分类器训练[0088]3.1.图像抓取[0089]步骤I以三维模型类别或描述标签Li作为关键词,利用基于文本的图像搜索在谷歌、百度以及必应等互联网搜索引擎和社交网络上进行检索,对于谷歌图片搜索来说使用HTTPGET请求进行图像检索,GET请求的查询参数为q=Li以及tbm:isch,即生成类似于https://www.google,com/search?q=Lj&tbm=isch的HTTPURL来请求检索结果;[0090]步骤2对于检索结果,通过分析页面的框架构建一个互联网资源爬虫来下载图像,对于页面中类别为rg_di的div块中使用正则表达式提取出检索到的图像的HTTP地址;然后根据这些HTTP地址下载所有的图像。[0091]3.2.无关图像过滤[0092]步骤I米用文献12ZhaiY,ShahM.Visualattent1ndetect1ninvideosequencesusingspat1temporalcues[C]//Proceedingsofthel4thannualACMinternat1nalconferenceonMultimedia.ACM,2006:815-824.中图像显著度区域计算的方法得到每幅图像的高显著性的区域,首先计算图像像素级的显著度为每个像素点颜色与图像中所有其他像素点的欧式距离与其他像素点颜色直方图频率的乘积,然后,根据得到的显著性高的像素点对显著性区域进行初始化,以其为中心生成种子区域,通过计算区域边缘的能量进行迭代区域增长,最终得到一个矩形的显著区域。扩展的区域重叠时,将重叠的区域合并到一起作为一个连通区域,如果这些块的总数超过5块,认为这张图像太复杂而进行排除。这样,仅保留了前景物体明晰的图像,过滤掉了无关的图像。[0093]3.3.前景物体图像提取[0094]步骤I采用图割算法把图像分割问题转化为二值分类问题,然后利用图论重的最大流原理进行解决,假设图的构成为G=<y,E>,其中y为节点集,E为边缘集,通过最小化Gibbs能量,给y中所有节点附上值,从而分割出互联网图像的前景物体并得到图像中前景物体包围盒的四个顶点的坐标分别为(Xniil^yniin),(xmin,ymJ,(χ_,ymin),(χ_,ymJ。[0095]步骤2依据包围盒的坐标,裁剪图像中位于包围盒之外的部分,得到仅保留前景物体的图像。[0096]4.视图排序[0097]4.1.互联网图像视角估计[0098]步骤I从互联网图像集中选择与类别或描述标签Li匹配的图像Ii,使用训练得到的图像视角分类器估计互联网图像Ii得到其拍摄时的视角\。[0099]4.2.图像投票[0100]步骤I给一类三维模型的每个视角Vi设置一个计数器Ci,并将Ci初始化为0,如果使用图像视角分类器得到的互联网图像Ii的视角Vi,那么对视角Vi投一票,使得Vi对应的计数器Ci加一。最终Ci表示互联网上这类模型视角为Vi的图像数量。[0101]步骤2按每个视图得到的票数Ci降序排列,输出排序最靠前的视图作为该类三维模型的最优视图。[0102]实施例[0103]本实施例中,输入三维模型集合,通过本发明所述的三维模型最优视图的自动选择方法,可以得到每个三维模型的最优视图。以一个无标记的汽车模型为例,其三视图如图2所示,具体实施过程如下:[0104]步骤一中,该三维模型经过姿态校正过程、尺度归一化过程后,判断出这个三维模型的类别为轿车,添加相应类别的中文标记“轿车”和英文标记“Car”。[0105]步骤二中,训练集生成过程首先生成包围模型的二十面体,对这个二十面体进行一次曲面细分,以生成的多面体顶点作为视点,如图3所示,在每个视点上取得训练集中每个三维模型的二维投影,得到这组训练集中三维模型各个视角下带有纹理和贴图的二维图像和视角标记,如图4所示。图像视角分类器训练过程中提取这些图像的特征,并利用图像附带的视角标记训练得到基于可变形部件模型的图像视角分类器,可变形部件模型在模型上检测到的部件如图5所示,训练得到的各个视角下每个部件的构成如图6所示。[0106]步骤三中,互联网图像抓取过程使用三维模型的类别标记“轿车”和“Car”作为关键词在谷歌图片搜索引擎上进行搜索,得到的搜索结果图像如图7所示,下载搜索结果中的图像,对这些图像进行无关图像过滤排除掉与轿车整体外观无关的图像,再对这些图像提取存在于前景中的轿车,删除背景,从而构建这一类三维模型的互联网图像集。[0107]步骤四中,通过互联网图像视角估计和图像投票过程后,对于轿车相关的图像,从前侧视角拍摄的图像最多,因此前侧视角得到的票数最多,选择这个视角作为三维模型最优视图,得到三维模型的最优视图如图8a?图8d所示。[0108]本发明提供了一种互联网图像驱动的三维模型最优视图自动选择方法的思路,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本【
技术领域
】的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。【权利要求】1.一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,包括以下步骤:步骤一,三维模型集预处理:对输入的三维模型集中的各个三维模型进行预处理,得到所有三维模型的类别,包括姿态校正、尺度归一化以及三维模型类别判断三个步骤,所述三维模型集中每个三维模型设有类别或者描述标记;姿态校正过程调整三维模型的坐标系,将三维模型的姿态校正为直立状态;尺度归一化过程将三维模型的大小归一化为单位长度;三维模型类别判断过程根据已有三维模型集来确定不在三维模型集中未分类三维模型的所属类别;步骤二,图像视角分类器训练:得到一个用以估计图像的观察视角的分类器,包括训练集生成以及图像视角分类器训练两个步骤;训练集生成过程渲染带有贴图和纹理的三维模型,并采集各个角度的图像和视角标记;图像视角分类器训练过程使用之前生成的训练集,来训练得到一个对于一类物体图像的视角分类器;步骤三,互联网图像采集:采集互联网中相应三维模型的图片,包括互联网图像抓取、无关图像过滤以及前景物体图像提取三个步骤:互联网图像抓取过程以三维模型类别描述为关键词,通过爬虫抓取图像搜索引擎和互联网中用户上传的图像;无关图像过滤过程过滤掉与三维模型类别描述无关的图像,保留相关的图像;前景物体图像提取过程将图像中的背景去除,提取出前景物体及其包围盒,并放置于纯白色背景的新图像之中,构建相应三维模型的互联网图像集合;步骤四,视图评价:通过互联网图像对三维模型相应的视图投票,选择排序靠前的视图为最优视图,包括互联网图像视角估计以及视图排序两个步骤:互联网图像视角估计过程使用图像视角分类器对于互联网图像集合的所有图像的视角进行估测和计算;视图排序过程中,三维模型对应的互联网图像集合中每幅图像对相应的视角进行投票,按视图得到的票数降序排列,排序最靠前视图的为该三维模型的最优视图。2.根据权利要求1所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤一中所述姿态校正部分包括以下步骤:步骤111,计算三维模型的中心,将三维模型平移至以该三维模型的中心为原点的坐标系上;步骤112,通过主成分分析方法计算三维模型的主轴方向;步骤113,将三维模型所在坐标系的各个坐标轴方向调整为PCA方法得到的主轴方向。3.根据权利要求2所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤一中所述尺度归一化部分包括以下步骤:步骤121,计算三维模型的中心以及三维模型上的各个顶点到中心的距离;步骤122,以最长的距离作为单位长度对各个顶点进行归一化。4.根据权利要求3所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤一中所述三维模型类别判断部分包括以下步骤:步骤131,对每个三维模型进行特征提取,得到三维模型的特征;步骤132,利用已有三维模型集中每个三维模型的特征和类别标记作为训练集进行学习,得到三维模型类别的分类器;步骤133,对于不在步骤132中已有三维模型集里的三维模型,使用步骤132得到的分类器该三维模型确定所属类别,并加入三维模型集相应类别中,得到完全分好类的三维模型集M=(M1,...,MJ,其中η为三维模型的数量。5.根据权利要求4所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤二中训练集生成部分包括以下步骤:步骤211,从带有贴图和纹理的三维模型数据库中,利用三维模型类别或描述标签检索相应的三维模型;步骤212,将相应的三维模型放入坐标轴原点,附上贴图和纹理,并加入均一白色全局环境光照;步骤213,利用预先定义的正二十面体的坐标生成初始包围三维模型的正二十面体,对正二十面体进行曲面细分得到离散化的视点位置;步骤214,在每个视点上渲染三维模型,得到三维模型的多个视角合成的图像、视角标记和前景物体包围盒。6.根据权利要求5所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤二中图像视角分类器训练部分包括以下步骤:步骤221,对于一类三维模型,提取之前步骤得到的合成的图像的方向梯度直方图特征;步骤222,以方向梯度直方图特征、图像视角标记以及前景物体包围盒作为输入,使用可变形部件模型训练得到图像视角分类器。7.根据权利要求6所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤三中所述互联网图像抓取部分包括以下步骤:步骤311,以三维模型类别描述作为关键词,利用基于文本的图像搜索在互联网上进行检索;步骤312,对于检索结果,构建一个互联网资源爬虫下载检索结果中的图像,构建各类三维模型的互联网图像集。8.根据权利要求7所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤三中所述无关图像过滤部分包括以下步骤:步骤321,采用显著性测试算法衡量图像集中每幅图像的显著性并过滤掉显著性物体多且背景复杂的图像。9.根据权利要求8所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤三中前景物体图像提取部分包括以下步骤:步骤331,采用图割算法分割出互联网图像的前景物体并得到前景物体的包围盒;步骤332,依据包围盒裁剪图像,仅保留前景物体。10.根据权利要求9所述的一种互联网图像驱动的三维模型最优视图自动选择方法,其特征在于,步骤四中互联网图像视角估计部分包括以下步骤:步骤411,从互联网图像集中选择属于同类型物体的图像,使用训练得到的图像视角分类器估计互联网图像的视角;步骤四中图像投票部分包括以下步骤:步骤421,三维模型对应的互联网图像集合中每幅图像对相应的视角进行投票;步骤422,按视图得到的票数降序排列,输出排序最靠前的视图的为该类三维模型的最优视图。【文档编号】G06K9/46GK104182765SQ201410415993【公开日】2014年12月3日申请日期:2014年8月21日优先权日:2014年8月21日【发明者】孙正兴,李晨曦,宋沫飞,王爽申请人:南京大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1