识别服饰图片的方法、服饰图片的标注方法及装置的制造方法_2

文档序号:9708779阅读:来源:国知局
定位关键点,包括左右两肩膀各一点、领口一点、上衣与下装衔接 位置外侧左右两点以及下装左右下摆外侧各一点。
[0036] 类似地,可通过预先标注了定位关键点以及服饰穿着区域的第二服饰图片训练样 本集训练出用于对服饰图片定位/标注定位关键点的服饰关键点定位模型。现有的图像分 类技术中,通常每个分类任务单独训练(如上半身定位模型、下半身定位模型、全身定位模 型等),这使得训练的模型过多且不易优化,在模型训练、维护以及参数优化方面更为复杂。
[0037] 此外,在本发明中,使用单个基于卷积神经网络的分类模型来训练多种服饰穿着 区域的关键点定位模型,采用共享底层的卷积参数,而仅在高层才分别独立计算各自的约 束参数的训练方法,从而实现单模型处理多任务的目标,减少了模型参数优化的大小,整体 的定位精度更容易优化,预测速度可以满足在线预测的要求。
[0038] 具体地,获取已标注服饰穿着区域的样本服饰图片;根据所述样本服饰图片的服 饰穿着区域,对所述样本服饰图片进行定位关键点标注;利用预设的卷积神经网络参数矩 阵对已标注定位关键点的所述样本服饰图片进行训练,得到所述样本服饰图片对应的服饰 关键点定位模型。
[0039] 此外,由于所述服饰分类模型和服饰关键点定位模型涉及的参数特征存在关联, 因此可将这两个模型合并为一个,来实现服饰分类和定位关键点的标注。
[0040] 关于服饰特征的识别
[0041] 在从服饰图片识别出服饰穿着区域并确定服饰的定位关键点后,可对关键点定位 后服饰图片的局部区域进行进一步识别。
[0042] 直接利用原始的服饰图片或者人脸/人体定位技术进行服饰类别和属性识别模 型的训练的方式精度不高,且容易受到背景内容的干扰。在本发明提出的方案中,利用服饰 定位关键点的数据先对将作为样本的训练数据进行对齐处理,然后抽取在根据标注的定位 关键点划定的多个区域(特征区域)内有效的服饰图片内容进行特征识别,从而提高识别 精度,可避免背景区域的影响。
[0043] 所述特征区域可包括,上身区域、下身区域、全身区域、领子区域、胸口区域和袖子 区域等区域当中的至少一个区域。图7是示出根据本发明示例性实施例可提取的特征区域 的示意图。
[0044] 其中,上身区域可以是上半身的5个定位关键点的外接矩形C,下身区域可以是下 半身的4个定位关键点的外接矩形F,全身区域可以是全身的7个定位关键点的外接矩形 B,领子区域可以是以上半身的与领口相应的定位关键点为中心,边长为肩宽的1/2的正方 形A、胸口区域可以是上半身除领口相应的定位关键点以外的4个定位关键点的内接矩形 E,袖子区域可以是分别以与左肩和左上衣的下摆关键点的连线,以右肩和右上衣的下摆关 键点的连线为中线,宽度为肩宽的1/2的区域D。
[0045] 对应每个服饰穿着区域不同模型识别相对应的特征区域。例如,当所述服饰穿着 区域为上衣时,所述特征区域包括上身区域、领子区域、胸口区域和袖子区域。
[0046] 识别出的特征信息可以是服饰类别的信息、服饰特征区域的属性的信息或两者。
[0047] 针对每个服饰穿着区域和属性,需要提取代表所述服饰的特征的特征区域。为此, 针对每个特征区域需要训练不同的区域特征识别模型。例如,针对领子区域,单独训练用于 识别领子特征的区域特征识别模型,领子特征包括圆领、方领、鸡心领、高领、一字领等各种 领型。同理,针对下身区域,单独训练用于识别裙型的区域特征识别模型,包括识别A字裙、 包臀裙、蛋糕裙、鱼尾裙等裙型,以及短裙、中裙、长裙等裙长。类似地,训练其他各特征区域 的区域特征识别模型。
[0048] 以下表1示出识别的服饰类别的示例。
[0049] 表1服饰类别列表
[0050]
[0051] 在本发明具体实施中,我们可将日常常见的服饰的特征区域的属性和属性值进行 如表2和表3所不的划分。
[0052] 表2服饰属性及属性值列表一
[0053]
[0054] 表3服饰属性及属性值列表二
[0055]
[0056] 具体地,所述区域特征识别模型的训练处理可包括:获取样本服饰图片中表示特 征区域的图片区域;分别对各所述图片区域进行特征信息标注;利用预设的卷积神经网络 参数矩阵对已标注特征信息的所述图片区域进行训练,以得到所述特征区域相对应的区域 特征识别模型。
[0057] 需要指出,用于训练各所述区域特征识别模型的图片训练样本应为提取的所述区 域特征的样本图片并且经过特征标注,以此提高训练出的模型的总体识别精度。
[0058] 通过前述预先训练的服饰分类模型、服饰关键点定位模型以及区域特征识别模 型,可以从提供的服饰图片识别服饰的类别和属性的特征信息。
[0059] 下面结合附图详细描述本发明的示例性实施例。
[0060] 实施例一
[0061] 图1是示出本发明示例性实施例服饰图片的标注方法的流程示意图。可例如,通 过如图6所示的装置执行所述服饰图片的标注方法。
[0062] 参照图1,在步骤S110,获取服饰图片。
[0063] 具体地,所述服饰图片可以是用户通过拍照的方式获取的服饰图片,也可以是网 络上或各种存储介质上的服饰图片。
[0064] 在步骤S120,根据如前所述预先建立的服饰分类模型,获取所述服饰图片中服饰 穿着区域的信息。
[0065] 如前所述,所述服饰分类模型划分的服饰穿着区域可包括,但不限于,上衣、下装、 上下分体全身装和连体装等。
[0066] 可选地,所述服饰分类模型为基于卷积神经网络建立的服饰分类模型。
[0067] 在步骤S130,根据如前所述预先建立的服饰关键点定位模型对所述服饰图片进行 第一定位关键点的标注。
[0068] 例如,对于确定为上衣的服饰图片,可标注出如前所述的5个第一定位关键点;对 于下装,可标注出4个第一定位关键点。
[0069] 本发明实施例提供的服饰图片的标注方法,根据预先建立的服饰分类模型,获取 服饰图片中服饰穿着区域的信息,并根据预先训练的服饰关键点定位模型对所述服饰图片 进行第一定位关键点的标注。通过对第一定位关键点的标注,定位了所述服饰图片中表示 服饰内容的图片,减少了服饰图片中背景内容的干扰。
[0070] 根据本发明的优选实施例,本发明实施例的服饰图片的标注方法还可包括步骤 S140 ~S160〇
[0071] 在步骤S140,根据标注的第一定位关键点的信息,获取所述服饰图片中服饰的旋 转角度信息。
[0072] 具体地,在得到标注的第一定位关键点的信息后,可计算所述第一定位关键点的 沿身高方向的中心线与竖直方向之间的角度,并将该角度确定为旋转角度信息。可以理解, 实际标注的第一定位关键点很可能不对称,所以这里允许出现误差。
[0073] 在步骤S150,根据所述旋转角度信息,对所述服饰图片进行旋转校正。
[0074] 具体地,在得到旋转角度信息后,将所述服饰图片沿顺时针或逆时针方向旋转,以 得到旋转校正后的服饰图片。如果所述旋转角度为零,则不需对所述服饰图片做旋转校正 处理。
[0075] 在步骤S160,根据所述服饰关键点定位模型对经过旋转校正的服饰图片进行第二 定位关键点的标注。
[0076] 具体地,在得到旋转校正后的服饰图片时,根据所述服饰关键点定位模型对所述 服饰图片进行第二定位关键点的标注。经过上述服饰图片的校正及再次标注的处理,可进 一步地减少服饰图片中背景内容的干扰,使标注的第二定位关键
当前第2页1 2 3 4 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1