图像处理方法、装置、电子设备及存储介质与流程

文档序号:19787978发布日期:2020-01-24 13:51阅读:149来源:国知局
图像处理方法、装置、电子设备及存储介质与流程

本申请涉及图像处理技术领域,更具体地,涉及一种图像处理方法、装置、电子设备及存储介质。



背景技术:

现有的图像的属性识别技术方案主要是基于传统的机器学习的属性识别方案和基于卷积神经网络模型的属性识别方案等。但是,现有的图像的属性识别技术,最常用的是基于单一的模型并实现单一的属性判断,而在多属性识别的时候,效率并不高。



技术实现要素:

本申请提出了一种图像处理方法、装置、电子设备及存储介质,以改善上述缺陷。

第一方面,本申请实施例提供了一种图像处理方法,包括:获取待处理的图像数据;将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签,其中,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同;将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果,其中,所述共享网络用于根据各属性标签和各属性标签的相关性确定图像识别结果;输出所述图像识别结果。

第二方面,本申请实施例还提供了一种图像处理方法,包括:获取多个样本图像数据,每个所述样本图像数据对应多个属性标签;设置共享网络和多个特异性网络,每个所述特异性网络能够识别至少一个属性标签,且每个所述特异性网络能够识别的属性标签互不相同;将所述多个样本图像数据输入所述共享网络和多个特异性网络进行训练,以得到训练后的共享网络和多个特异性网络;获取待处理的图像数据,根据所述训练后的共享网络和多个特异性网络对所述待处理的图像数据处理,得到图像识别结果。

第三方面,本申请实施例还提供了图像处理装置,包括:数据获取单元、属性确定单元、结果获取单元和输出单元。数据获取单元,用于获取待处理的图像数据。属性确定单元,用于将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签,其中,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同。结果获取单元,用于将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果,其中,所述共享网络用于根据各属性标签和各属性标签的相关性确定图像识别结果。输出单元,用于输出所述图像识别结果。

第四方面,本申请实施例还提供了图像处理装置,包括:样本获取单元、设置单元、网络训练单元和识别单元。样本获取单元,用于获取多个样本图像数据,每个所述样本图像数据对应多个属性标签。设置单元,用于设置共享网络和多个特异性网络,每个所述特异性网络能够识别至少一个属性标签,且每个所述特异性网络能够识别的属性标签互不相同。训练单元,用于将所述多个样本图像数据输入所述共享网络和多个特异性网络进行训练,以得到训练后的共享网络和多个特异性网络。识别单元,用于获取待处理的图像数据,根据所述训练后的共享网络和多个特异性网络对所述待处理的图像数据处理,得到图像识别结果。

第五方面,本申请实施例还提供了一种电子设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述方法。

第六方面,本申请实施例还提供了一种计算机可读介质,所述可读存储介质存储有处理器可执行的程序代码,所述程序代码中的多条指令被所述处理器执行时使所述处理器执行上述方法。

本申请提供的图像处理方法、装置、电子设备及存储介质,预先训练好共享网络和多个特异性网络,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同,则当获取到待处理的图像数据的时候,将待处理的图像数据输入多个特异性网络,每个特异性网络能够识别到该特异性网络所能够识别到的属性,从而待处理图像数据所对应的多个属性标签能够被多个特异性网络分别识别到,提高了整体的图像数据的多个属性标签的识别,从而能够得到图像数据对应的属性标签,然后,再将该图像数据对应的属性标签输入至共享网络,共享网络根据各属性标签和各属性标签的相关性确定图像识别结果,并将图像识别结果输出。因此,多个特异性网络共同分析图像数据并得到多个属性标签,能够提高属性标签的获得速度,而共享网络能够结合各属性标签的相关性得到图像识别结果,提高了识别结果的准确度和整体性能。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出了本申请一实施例提供的图像处理方法的方法流程图;

图2示出了本申请另一实施例提供的图像处理方法的方法流程图;

图3示出了本申请又一实施例提供的图像处理方法的方法流程图;

图4示出了本申请一实施例提供的图3所示的图像处理方法的中s310的方法流程图;

图5示出了本申请另一实施例提供的图3所示的图像处理方法的中s310的方法流程图;

图6示出了本申请实施例提供的测量区域的示意图;

图7示出了本申请实施例提供的特异性网络和共享网络的连接示意图;

图8示出了本申请实施例提供的子图像数据的示意图;

图9示出了本申请实施例提供的人脸朝向的示意图;

图10示出了本申请再一实施例提供的图像处理方法的方法流程图;

图11示出了本申请一实施例提供的图像处理装置的模块框图;

图12示出了本申请另一实施例提供的图像处理装置的模块框图;

图13示出了本申请又一实施例提供的图像处理装置的模块框图;

图14示出了本申请实施例提供的电子设备的模块框图;

图15出了本申请实施例提供的用于保存或者携带实现根据本申请实施例的图形处理方法的程序代码的存储单元。

具体实施方式

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。

人脸识别是一种基于人类脸部表象特征来鉴别不同人身份的技术,应用场景广泛,相关研究和应用已有数十年之久。随着近年来大数据和深度学习等相关技术的发展,人脸识别效果有了突飞猛进的提高,在身份认证、视频监控、美颜娱乐等场景应用愈加广泛。其中,人证比对问题,即在标准证件照与生活照之间的人脸识别问题,由于识别目标人仅需要在数据库中部署其证件照,免去了目标人在系统中采集生活照进行注册的麻烦,正得到越来越多的关注。

现有的人脸属性识别技术方案主要是基于传统的机器学习的属性识别方案和基于卷积神经网络cnn模型的属性识别方案等等。

一些人脸识别技术中,借鉴了多任务学习的概念,在应用人脸检测算法从图像或影像中提取人脸区域后,再利用卷积神经网络学习人脸库中预设的分析任务的卷积层,得到人脸分析模型,并完成对人脸情绪的预测。

另一些人脸识别技术中,基于多任务学习的思想,通过在训练过程中加入性别、是否微笑、是否戴眼镜、姿态等辅助信息实现了多任务级联学习,但是该技术将人脸的多种属性作为标签,通过级联实现人脸对齐。

多任务学习方法不仅仅进行单一的人脸属性识别,同时也可以实现多属性预测。例如,可以通过将多任务学习方法引入人脸图像种族和性别识别中,以不同语义作为不同任务,提出基于语义的多任务特征选择,应用于种族和性别识别中,但是在构建网络结构时,依旧将种族和性别作为两个任务单独求解,模型存在大量的冗余,且不能实时预测。

因此,现有的人脸属性识别技术,最常用的是基于单一的模型并实现单一的属性判断,即在统一的模型下一次只学习一个任务,将复杂问题先分解成理论上独立的子问题,在每个子问题中,训练集中的样本只反映单个任务的信息。但是人脸图像蕴含着种族、性别、年龄等各种各样的属性信息,对应不同信息的识别任务间存在相关性,在学习过程中各个任务之间共享一定的相关信息。将多任务学习方法引入人脸图像种族和性别、年龄识别中,以不同语义作为不同任务,提出基于语义的多任务特征选择,应用于多属性识别,能显著提高学习系统的泛化能力和识别效果。

虽然,针对上述问题,出现了基于多任务学习的人脸图像种族和性别识别方法。它将多任务学习方法引入人脸图像种族和性别识别中,以不同语义作为不同任务,提出基于语义的多任务特征选择,尽管显著的提高了学习系统的泛化能力和识别效果,但是采用的是传统的机器学习的方式,在效率方面大打折扣。

现有的专利也有提出将深度学习技术与属性识别任务结合起来,但是只采用了多任务学习的方式,提出了三阶段的训练流程,分别在卷积网络上学习到人脸部位、人脸动作单元和情绪空间值这三个特征,来完成人脸情绪分析的任务,并没有实现多属性的输出结果。

因为,为了解决上述缺陷,本申请实施例提供了一种图像处理方法,如图1所示,该方法包括:s101至s104。

s101:获取待处理的图像数据。

其中,图像数据可以是预先已经下载在电子设备内的离线的图像文件,也可以是在线的图像文件,于本申请实施例中,该图像数据可以是在线图像数据,例如,可以是实时获取的图像。

其中,该在线图像数据对应一个视频文件内某一帧图像或者多帧图像,而该在线图像数据为该视频文件已发送至电子设备内的数据,例如,该视频文件是某某电影,电子设备所接收的是该某某电影的播放时间0至10分钟的数据,则该某某电影对应的在线图像数据为某某电影的播放时间0至10分钟的数据。则客户端在获取到每个在线图像数据之后能够将每个在线图像数据各自解码并得到各自对应的待渲染图层,然后合并显示,从而能够在屏幕上显示多个视频画面。

作为一种实施方式,电子设备内包括多个能够播放视频文件的客户端,当电子设备的客户端播放视频的时候,电子设备能够获取欲播放的视频文件,然后再对视频文件解码,具体地,可以采用上述的软解码或者硬解码对视频文件解码,在解码之后就能够获取视频文件对应的待渲染的多帧图像数据,之后需要将多帧图像数据渲染之后才能够在显示屏上显示。

作为另一种实施方式,该图像数据还可以是电子设备内的指定应用程序通过电子设备的摄像头采集的图像,具体地,指定应用程序执行某个功能的时候,调用摄像头拍摄图像,并且请求电子设备通过本申请的方法确定图像识别结果,并且将该图像识别结果发送至指定应用程序,由该指定应用程序根据该图像识别结果执行对应的操作。

s102:将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签。

其中,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同。

具体地,在预先对特异性网络学习的时候,输入特异性网络内的样本图像数据包括多个属性标签,例如,人脸图像中的头发的颜色为黑,车辆图像内的白色汽车等,而每个属性标签的取值为0或者1,0表示不具备这项属性,1表示不具备这项属性,而这些属性标签是为了得到图像识别结果而预先设定的图像的特征值,而特异性网络的作用确定图像内是否包括预先设定的属性标签。

具体地,每个特异性网络都能够确定图像数据对应的属性标签,在一些实施例中,可以是每个特异性网络能够确定图像数据对应的至少一个属性标签,例如,多个特异性网络包括第一特异性网络和第二特异性网络,而属性标签包括标签1、标签2和标签3,则第一特异性网络用于识别图像数据对应的标签1的识别结果,即如果图像数据包括标签1,则第一特异性网络识别的图像数据对应有标签1,或者,给出一个关于标签1的识别结果,即标签1为1,而如果没有标签1,则给出的识别结果是标签1为0。而第二特异性网络用于确定标签2和标签3,因此,标签1与标签2和标签3分开由不同的特异性网络识别,能够提高识别效率,避免标签1、标签2和标签3由同一个特异性网络识别而导致计算量过大,并且,第一特异性网络仅用于识别标签1,则就不需要学习和训练针对标签2和3的识别,也减少了训练成本。

另外,需要说明的是,多个特异性网络可以是同时执行的,即可以是多个线程下同时操作,而并非是一个级联的关系,即某个特异性网络的输出结果不需要其他特异性网络的输入。具体地,特异性网络的结构在后续实施例中介绍。

本申请实施例中,特异性网络,其主要作用是从图像中分割出目标物体,并对该目标物体进行识别,即特异性网络也可以是目标检测网络,显然,特异性网络是将目标物的分割和识别合二为一。常用的目标检测网络有goturn网络、mobilenet-ssd深度卷积神经网络、fasterrcnn神经网络、yolo神经网络以及spp-net(spatialpyramidpooling)神经网络等。goturn神经网络是一种利用卷积神经网络进行离线训练的目标检测算法,其利用现有大规模分类数据集预训练的cnn分类网络提取特征并对该特征进行识别。

s103:将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果。

其中,所述共享网络用于根据各属性标签和各属性标签的相关性确定图像识别结果。具体地,共享网络则重点学习所有属性标签的共享信息,例如,嘴角上扬的属性标签与翻白眼的属性标签同时出现的时候,所表达的情绪为思考,而嘴角上扬的属性标签与翻白眼的属性标签的相关性就是通过共享网络识别到并且根据该相关性得到的识别结果。也就是说,共享网络经过预先训练之后,能够识别到各个属性标签之间的相关性,并根据其得到图像识别结果。

s104:输出所述图像识别结果。

其中,输出图像识别结果的方式可以是,将图像识别结果在屏幕上显示,或者发送至请求获取该图像识别结果的请求端,该请求端可以是与该电子设备通信的服务器,也可以是其他的电子设备,还可以是电子设备内安装的应用程序,则上述方法的执行主体可以是电子设备内的能够图像识别的应用程序可以是电子设备的操作系统,则得到图像识别结果之后,将图像识别结果发送至请求端,请求端根据该图像识别结果执行某个操作,例如,交易支付或者屏幕解锁等。

请参阅图2,示出了本申请实施例提供的图像处理方法,该方法包括:s201至s207。

s201:获取原始图像数据。

其中,原始图像数据为可以是图像对应的灰度值,也就是说,图像内的每个像素的数值为[0,255]区间的数值,即灰度值。则作为一种实施方式,在电子设备获取到图像的时候,该图像可以是一个彩色图像,则对该彩色图像做二值化处理,得到灰度图,则该灰度图内的每个像素的灰度值构成了该原始图像的数据。

另外,需要说明的是,该原始图像数据可以是电子设备的摄像头采集的数据,例如,而图像处理方法的应用于该摄像头采集的图像数据的实时分析,并且,该分析是针对人脸识别属性的分析。

具体地,该图像数据还可以是电子设备内的指定应用程序通过电子设备的摄像头采集的图像,具体地,指定应用程序执行某个功能的时候,调用摄像头拍摄图像,并且请求电子设备通过本申请的方法确定图像识别结果,并且将该图像识别结果发送至指定应用程序,由该指定应用程序根据该图像识别结果执行对应的操作。其中,该指定应用程序可以是电子设备内的屏幕解锁app也可以是支付app。例如,该屏幕解锁app通过摄像头采集到的人脸图像进行人脸识别从而确定出身份信息,判断所述人脸图像是否与预设人脸图像匹配,如果匹配,则判定成功解锁,如果不匹配,则判定未成功解锁。

其中,预设人脸图像可以是用户预先设定的人脸图像,可以是存储在移动终端内,也可以是存储在某个服务器或者存储器内,移动终端能够由该服务器或者存储器内获取待预设人脸图像。具体地,可以是预设人脸图像的预设特征信息,则如果人脸图像为二维图像,则预设特征信息为用户预先录入的人脸图像的五官特征点信息,如果人脸图像为三维图像,则预设特征信息为用户预先录入的人脸图像的人脸三维信息。则判断所述人脸图像是否满足预设条件的方式为,获取人脸图像的特征点信息,将所采集的人脸图像的特征信息与用户预先录入的预设特征信息比对,如果匹配,则判定人脸图像满足预设条件,则确定人脸图像有权限将移动终端的屏幕解锁,如果不匹配,则判定人脸图像不满足预设条件,没有权限将屏幕解锁。

于本申请实施例中,图像数据包含人脸图像,而针对该图像数据的识别为人脸识别,则在执行获取待处理的图像数据,可以先判断该图像数据内是否包括人脸,如果包括,则执行后续操作。具体地,摄像头采集的图像为二维图像,通过查找该图像内是否有人脸五官特征点,能够确定是否采集到人脸图像,如果采集到,则将所采集的人脸图像发送给移动终端的处理器,以使处理器能够对人脸图像进行分析并执行屏幕解锁操作。作为另一种实施方式,摄像头包括结构光,则根据结构光所采集的三维信息,确定是否存在人脸三维信息,如果存在,则将所采集的图像发送给移动终端的处理器。

另外,如果所述摄像头采集的图像内不包括人脸图像,则返回继续执行判断所述摄像头采集的图像内是否包括人脸图像的操作,还可以是,发出人脸采集提醒信息,以提醒用户使用所述摄像头采集人脸图像。具体地,该人脸采集提醒信息可以是在电子设备的当前界面显示。

s202:对所述原始图像数据归一化处理,以得到待处理的图像数据。

对原始图像内的每个像素值做归一化处理,即原来的0-255的数值变为0-1区间内的数值,从而能够提高后续的特异性网络和共享网络的计算速度,提高整体图像处理的速度,具体地,可以采用均值方差归一化或灰度变换归一化的方式将原始图像数据归一化处理。

另外,还是可以在对所述原始图像数据归一化处理之后,去除冗余信息,该冗余信息是指被压缩了分布之间的差距。

则经过归一化处理之后的原始图像数据作为待处理的图像数据。

s203:确定每个所述特异性网络对应的属性标签。

具体地,所述特异性网络能够识别的属性标签为该特异性网络对应的属性标签。所述特异性网络能够识别的属性标签是在训练该特异性网络的时候就已经设置好的,具体地,可参考后续实施例。

s204:根据每个所述特异性网络对应的属性标签将所述图像数据划分为多个子图像数据。

由于图像数据内的每个属性标签都对应图像内的一个位置,以人脸图像为例,头发的颜色的属性标签所对应的图像内的位置为头发位置,眼睛颜色的属性标签所对应的图像数据内的位置为眼睛位置,从而每个属性标签所对应的位置可以预先确定,例如,在训练特异性网络的时候,就设定好每个属性标签所对应的区域,由于,图像数据内的每个像素值都对应一个像素坐标,则每个属性标签对应的区域在像素坐标内的位置能够确定,进而就能够确定每个特异性网络所能识别的属性标签在图像内的位置。进而,就能够将图像数据划分未多个子图像数据,而每个子图像数据对应图像内的一个区域,并且该区域内的属性标签都对应同一个特异性网络,即每个特异性网络所能够识别的属性标签位于为子图像数据对应的区域内。

从而就能够得到每个特异性网络对应的图像子区域,即每个特异性网络对应的子图像数据。例如,图像被划分为第一区域、第二区域和第三区域,第一特异性网络所能够识别的属性标签分布在第一区域内,第二特异性网络所能够识别的属性标签分布在第二区域内,第三特异性网络所能够识别的属性标签分布在第三区域内,则图像数据被划分为三个子图像数据,分别为第一子图像数据、第二子图像数据和第三子图像数据,则第一子图像数据对应第一区域,第二子图像数据对应第二区域,第三子图像数据对应第三区域。

另外,为了更好的根据像素坐标划分多个区域,可以将图像统一按照一个方向调整,从而是指定区域位于同一个位置内。以人脸图像为了,可以在获取到原始图像的时候,截图原始图像内的人脸区域,并且按照一定方向调整图像旋转,使得人脸固定朝向某个位置,例如,始终保持人脸的额头位于图像的上部,下巴位于图像的下部。

s205:将所述子图像数据输入与该子图像数据对应的特异性网络。

作为一种实施方式,可以是在确定了每个特异性网络对应的属性标签位于图像内的区域之后,可以将图像划分为多个区域,而每个区域对应一个特异性网络,按照所确定的多个区域将图像划分为多个子图像,而每个子图像对应的像素数据作为子图像数据,即为经过s202处理之后的像素数据。

例如,上述的第一区域、第二区域和第三区域,然后,将图像分为三个子图像,分别为第一子图像、第二子图像和第三子图像,然后,将第一子图像内的各个像素值对应的像素数据输入第一特异性网络,将第二子图像内的各个像素值对应的像素数据输入第二特异性网络,将第三子图像内的各个像素值对应的像素数据输入第三特异性网络。

从而可以不必将整个图像数据分别输入到各个特异性网络内,而只将特异性网络所能够识别的属性标签对应的子图像数据输入至该特异性网络内,减少了特异性网络的计算量,提高了整体的识别速度。

s206:将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果。

s207:输出所述图像识别结果。

需要说明的是,上述步骤中未详细描述的部分可以参考前述实施例,在此不再赘述。

另外,在执行s102或s204之前,还需要对特异性网络和共享网络训练,具体地,该训练过程可以是在s101之后以及s102之前或者s201之后以及s204之前,也可以是在s101和s201之前,于本申请实施例中,可以是在执行本图像识别方法之前先对特异性网络和共享网络训练。

具体地,请参阅图3,示出了本申请实施例提供的图像处理方法中的特异性网络和共享网络训练的训练过程,具体地,图3所示,该方法包括:s310至s370。

s310:获取多个样本图像数据,每个所述样本图像数据对应多个属性标签。

具体地,该样本图像数据为已经被标记的图像数据,可以是预先获取的图像之后,人工对该图像进行标记,而每个标记点对应一个属性标签。例如,该样本图像数据可以是celeba人脸属性数据集作为实验数据集。该数据集包含约20万张人脸图像,每张图片提供了40个人脸属性标注和5个人脸关键点的位置信息。本文依据celeba官方的标准,取其中的约10万张人脸图像用于网络模型的训练,约1万张图像用于验证,1万张图像用于测试网络模型。

针对该公开的人脸属性数据集,可得每张人脸图片对应40个属性标签,每个标签的取值为0或者1,0表示不具备这项属性,1表示不具备这项属性。

需要说明的是,样本图像数据和待处理的图像数据均包含人脸图像,也就是说本申请实施例所提供的图像处理方法应用于人脸属性识别,而该特异性网络和共享网络的训练也是针对人脸属性识别而训练的。

进一步地,为了提高图像识别的准确度可以将人脸对齐,具体地,请参阅图4,s310可以包括:s311至s314。

s311:获取多个样本图像数据。

具体地,该步骤可参考上述描述,在此不再赘述。

s312:识别每个所述样本图像数据内的人脸关键点在所述样本图像内的位置信息。

具体地,该人脸关键点可以是人脸图像内的五官,例如,该人脸关键点可以是眼睛、鼻子、嘴巴等。而具体的识别方式可以是,通过人脸图像的五官识别方式,例如,pca(principalcomponentanalysis)分析方法确定人脸图像内的五官,从而确定人脸关键点在人脸图像内的位置信息,即像素坐标。

具体地,可以是在获取到样本图像之后,获取人脸区域图像,裁剪面部区域,对所述待训练样本数据进行人脸矫正,确定人脸关键点的位置信息,如眼睛、鼻子、嘴巴等。

s313:根据每个所述样本图像数据的人脸关键点的位置信息,调整每个所述样本图像数据内的人脸朝向符合预设朝向。

具体地,预设朝向可以是人脸朝向正前方,具体地,人脸朝向正前方的含义是人脸的额头部分在图像的上部,人脸的下巴部分在图像的下部。具体地,可以通过人脸关键点的位置信息确定图像中人脸朝向。具体地,为每个样本图像设定相同的像素坐标系,即都可以是以样本图像的左侧顶部的顶点为原点,建立像素坐标系,从而人脸图像内的人脸关键点的像素坐标就能够获取到,而通过人脸关键点的位置信息能够确定当然人的额头和下巴的位置关系,具体地,假如确定眼睛在图像的左侧,而嘴巴在图像的右侧,且二者的纵坐标之间的差距小于指定数值,则可以确定眼睛和嘴巴在同一个水平线上,则可以通过顺时针旋转90°的方式使得样本图像数据内的人脸朝向符合预设朝向。作为一种实施方式,预设朝向可以是人脸朝向正前方15度之内。

另外,在根据每个所述样本图像数据的人脸关键点的位置信息,调整每个所述样本图像数据内的人脸朝向符合预设朝向之后,为了减少计算量,还可以调整样本图像的尺寸,从而做尺寸调整,具体地,通过人脸关键点的定位,如眼睛、鼻子、嘴巴等,按预设方向标准调整所述待预测对象的方向,保证每个待预测对象的人脸朝向正前方15度之内,实现人脸对齐,并向面部区域添加预定比例的边距,同时为了减少计算量,设置图像大小为指定尺寸,例如,该指定尺寸可以是112*112。具体地,可以是将整个图像的尺寸压缩到指定尺寸,也可以是以指定尺寸大小的窗口剪裁样本图像,具体地,可以是以样本图像的中心点为该窗口的中心点,检测该窗口大小对应的图像区域内的图像,作为尺寸调整后的图像。作为一种实施方式,该窗口的大小可以是112*112。

s314:将调整后的样本图像数据作为本次用于训练所述共享网络和多个初始特异性网络的样本图像数据。

具体地,如果上述调整为根据每个所述样本图像数据的人脸关键点的位置信息,调整每个所述样本图像数据内的人脸朝向符合预设朝向,则将经过人脸朝向的调整之后的样本图像数据作为本次用于训练所述共享网络和多个初始特异性网络的样本图像数据,如果上述调整包括根据每个所述样本图像数据的人脸关键点的位置信息,调整每个所述样本图像数据内的人脸朝向符合预设朝向以及调整样本图像的尺寸为指定尺寸,则将经过人脸朝向的调整和尺寸调整之后的样本图像数据作为本次用于训练所述共享网络和多个初始特异性网络的样本图像数据。

进一步地,为了增加数据样本并且提高训练后的图像处理模型,即人脸识别模型,也即共享网络和多个特异性网络的泛化型,具体地,请参阅图5,s310可以包括:s311、s315、s316和s317。

s311:获取多个样本图像数据。

具体地,该步骤可参考上述描述,在此不再赘述。

s315:对所述多个样本图像数据进行数据增强处理,以使每个所述样本图像数据的光照强度和对比度在预设区间内随机分布。

具体地,按预设光照强度区间变换所述待训练对象的光照强度,得到每个待训练对象的光照强度在预设光照强度区间随机分布的数据;按预设对比度区间变换所述待训练对象的对比度,得到每个待训练对象的对比度在预设对比度区间随机分布的数据。

具体地,预设光照强度区间可以是预先设定的光照强度区域,而在获取样本图像内的每个像素点的光照强度之后,可以将该像素点的光照强度调整到预设光照强度区间内。作为一种实施方式,可以是统计样本图像内的每个像素点的光照强度的分布情况,使得光照强度较高的像素点在预设光照强度区间内也位于光照强度较高的数值,光照强度较低的像素点在预设光照强度区间内也位于光照强度较低的数值,另外,还可以增加各个像素点在预设光照强度区间内的光照强度的分布的连续性,即多个像素值的光照强度的分布子区域内,相邻的两个子区域之间的强度值相差不大于指定数值,使得光照强度在预设光照强度区间内随机分布,从而能够增加数据的多样性,具体地,每个样本图像数据内的像素点的光照强度均可以在其对应的预设光照强度区间内随机分布,并且每个样本图像数据所对应的预设光照强度区间可以不全相同,从而进一步增加数据的多样性,进而提高后期模型训练的泛化型。

同理,按预设对比度区间变换所述待训练对象的对比度,得到每个待训练对象的对比度在预设对比度区间随机分布的数据要可以参考上述光照强度的调整的过程。从而使得每个样本图像数据内的像素点的对比度均可以在其对应的预设对比度区间内随机分布,并且每个样本图像数据所对应的预设对比度区间可以不全相同,从而进一步增加数据的多样性,进而提高后期模型训练的泛化型。

另外,在执行上述的增强处理之前,可以先对处理得到的样本数据进行归一化处理,将其像素值从[0,255]归一化到[0,1],去除样本数据中包含的冗余信息。

s316:对增强处理后的每个所述样本图像数据按照预设随机剪裁比例剪裁,并且每个将每个剪裁后的样本图像数据的尺寸均为预设尺寸。

按预设随机裁剪比例裁剪所述待训练对象,并将其调整为预设尺寸,其中,预设尺寸可以是112*112;按水平方向翻转所述待训练对象。

需要说明的是,上述按预设随机裁剪比例裁剪所述待训练对象,并将其调整为预设尺寸可以参考前述的调整为指定尺寸的剪裁方式,则预设尺寸与指定尺寸相同。

s317:将剪裁后的样本图像数据作为本次用于训练所述共享网络和多个初始特异性网络的样本图像数据。

需要说明的是,上述的步骤s311至s314可以替换s310,即在s311、s312、s313和s314之后执行s320,也可以是步骤s311、s315、s316和s317替换s310,即在s311、s315、s316和s317之后执行s320,还可以是在s311至s317一起替换s310,即s311、s312、s313、s314、s315、s316和s317之后再执行s320。

s320:设置共享网络和多个特异性网络。

每个所述特异性网络能够识别至少一个属性标签,且每个所述特异性网络能够识别的属性标签互不相同。如果为每个属性标签配置一个特异性网络,会存在巨大的计算开销。例如,以人脸图像识别为例,假设属性标签一共包括40个,如果将40个人脸属性视为40个独立的任务,直接将40个人脸属性视为40个独立的任务存在巨大的计算开销,而且忽视了人脸属性之间的显示的位置相关性。因此,可以为人脸划分多个区域,而每个区域对应一个特异性网络,具体地,设置共享网络和多个特异性网络的具体实施方式可以是划分多个测量区域,每个所述测量区域对应人脸的不同区域;根据所述多个测量区域设置多个特异性网络,每个特异性网络对应一个测量区域,每个所述特异性网络用于确认所对应的测量区域内的属性标签。

具体地,可以设置四个特异性网络,分别为上部特异性网络、中部特异性网络、下部特异性网络和全脸特异性网络。对应地,属性标签划分为四个组,分别为上部组、中部组、下部组和全脸组,每个组对应属性标签,且各个组的属性标签不同,也就是说,每个特异性网络能够识别所对应的组的属性标签。根据它们的相应位置,可以将每个组的属性分类视为单独的属性学习任务。将属性分成4个组之后,将每个属性组的属性分类问题视为一个子任务,具体地,属性标签如下表所示:

如图6所示,样本图像被划分为四个区域,分别为上部区域m1、中部区域m2、下部区域m3和全脸区域m4,作为一种实施方式,上部区域m1为图像的顶部侧边至双眼中位置最靠下的眼睛的位置的横坐标之间的区域,具体地,如图6所示,在双眼中位置最靠下的眼睛的位置的横坐标设置有一条平行横坐标轴的直线,记为第一直线,则第一直线与图像的顶部侧边之间的区域作为上部区域。在鼻子与上嘴唇之间的区域选中一个位置点,可以是中间位置点,设置有一条平行横坐标轴的直线,记为第二直线,则第一直线和第二直线之前的区间作为中部区域,第二执行和图像的底部侧边至今的区域作为下部区域,将人脸的下巴末端至头发顶端之间的区域作为全脸区域,其中,该全脸区域能够圈住人脸以及头发。在其中,上述的区域为测量区域,即上部区域m1、中部区域m2、下部区域m3和全脸区域m4为四个测量区域。

于本申请实施例中,一共包括四个特异性网络和一个共享网络,则每个任务拥有一个独立的特异性网络。与分支结构不同的是,为了更好地保留任务各自的特异性,任务间的特异性网络的参数是不共享的。共享网络作为一个独立的网格,并不对应某个特定的学习任务,而是为了学习任务之间的相关性,提取任务间的互补信息。通过一个简单的连接单元,将特异性网络和共享网络连接起来,从而达到最大化两者之间信息流的目的。具体地,如图7所示,特异性网络和共享网络的连接关系如图7所示,共享网络的每一层输入,除了包括其上一层的输出特征之外,还包括上一层所有的特异性网络的输出特征。这些特征串联在一起,组成了特异性网络每一层的输入。同时,特异性网络的每一层输入,除了包括其上一层的输出特征之外,还包括上一层共享网络的输出特征。两者串联在一起形成了最后的输入。另外,图7仅示出了两个特异性网络和共享网络之间的连接关系,而针对四个特异性网络的连接关系也可以参考图7所示而合理得出。

本申请实施例所构建的多任务属性识别模型包括4个特异性网络和1个共享网络。特异性网络重点学习每一个特征组的特异性特征,而共享网络则重点学习所有特征组的共享信息。特异性网络和共享网络通过局部共享单元进行连接和信息交互,从而组成整个局部共享的多任务人脸多属性分类网络。每个特异性网络和共享网络都具有相同的网络结构。都含有5个卷积层和2个全连接层。同时,每个卷积层和全连接层的后面接上归一化层和relu(rectifiedlinearunit)激活层。特异性网络之间每一层的输出通道个数也相同,而共享网络的输出通道数个数则与特异性网络有不同。

s330:将所述多个样本图像数据输入所述共享网络和多个特异性网络进行训练,以得到训练后的共享网络和多个特异性网络。

作为一种实施方式,可以将样本图像数据整张都输入至每个特异性网络进行训练,但是,每个特异性网络仅能够识别所对应的属性标签,例如,上部特异性网络进能够识别上部组的属性标签,而其他的属性标签其无法识别。

作为另一种实施方式,为了减少计算量和训练速度,可以为每个特异性网络输入不同的样本图像数据的不同的部分,具体地,根据每个所述特异性网络对应的属性标签将所述样本图像数据划分为多个子样本图像数据,将所述子样本图像数据输入与该子图像数据对应的特异性网络。

如图8所示,同一张样本图像被划分为四个子样本图像,左上的图像为如6所示的样本图像中上部区域m1对应的子样本图像数据,右上的图像为如6所示的样本图像中中部区域m2对应的子样本图像数据,左下的图像为如6所示的样本图像中下部区域m3对应的子样本图像数据,右下的图像为如6所示的样本图像中全脸区域m4对应的子样本图像数据,则将上部区域m1对应的子样本图像数据输入上部特异性网络,用于训练上部特异性网络,将中部区域m2对应的子样本图像数据输入中部特异性网络,用于训练中部特异性网络,将下部区域m3对应的子样本图像数据输入下部特异性网络,用于训练下部特异性网络,将全脸区域m4对应的子样本图像数据输入全脸特异性网络,用于训练全脸特异性网络。

另外,需要说明的是,在s311步骤中获取到的样本图像数据一部分用于训练上述网络模型,另一部分用于测试上述网络模型,具体地,对所述待训练对象样本中的两类按比例随机划分为训练集和测试集,划分比例为8:2,其中训练集用于人脸多属性识别模型的训练,测试集用于人脸多属性识别模型的测试,保证同一个人的数据仅出现在一个集合中。

将测试数据集送入训练好的特异性网络和共享网络进行测试,验证网络模型的准确性,并且将上述测试数据集中判断错误的样本再次送入网络模型中进行精调,提高模型的泛化性。

于本申请实施例中,采用adam梯度下降算法,adam是一种高效计算方法,可以提高梯度下降收敛速度。训练过程中将训练集输入卷积神经网络模型并迭代预设次数epochs,本方法设置为epochs为90次。每一次迭代计算过程中使用adam梯度下降算法优化目标函数,本方法设置batch_size为64,即每轮训练送入64张输入图像。其中,特异性网络和共享网络均是基于卷积神经网络模型而训练完成的。

针对多属性问题,本方法使用交叉熵作为损失函数进行训练,该函数作为衡量目标和输出之间的交叉熵的标准,其公式如下:

上式中,m代表属性总数,ni代表第i个属性的样本总数,代表第i个属性第j个样本的标签值,而指第i个属性第j个样本的预测值。

s340:获取待处理的图像数据。

需要说明的是,获取待处理的图像数据除了可以参考上述步骤之后,还可以增加人脸朝向的检测,具体地,可以是在确定当前图像内包含人脸图像之后,确定当前所采集的人脸图像内的人脸朝向是否满足预设朝向。具体地,以电子设备内的摄像头采集人脸图像为例,电子设备响应人脸识别请求调用摄像头采集人脸图像,识别人脸图像内的用户的人脸关键点的位置信息,从而能够确定出人脸的朝向是否为预设朝向。

如图9所示,左边的图像的人脸朝向为以被采集人脸图像的用户的右侧,并且能够确定图像上的几个关键点,分别为,左眼a1、右眼a2、鼻子a3和嘴唇a4,并且以图像的竖向对称线,可以看出右眼a2、鼻子a3和嘴唇a4均位于对称线的左侧,从而能够确定用户的人脸朝向向右偏,,具体地,可以在屏幕上显示一个采集框,用户需要通过移动的方式将自己的人脸位于该采集框内,而如果用户没有正对屏幕的话,或者人脸的朝向不符合预设朝向,则可以发出提醒信息提示用户针对摄像头调整脸部朝向。则图9所示,右侧的人脸图中,左眼b1、右眼b2、鼻子b3和嘴唇b4位于对称线附近,并且左眼b1、右眼b2分居对称线两侧,可以确定该人脸朝向正对屏幕,则符合预设朝向,则可以正常采集人脸图像,并进行后期识别。

s350:将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签。

s360:将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果。

s370:输出所述图像识别结果。

需要说明的是,人脸图像中不仅包含了面部特征、种族、性别、年龄、表情等人脸属性信息,而且还可以表达人的身份信息。因此,人脸属性识别在有关年龄的访问控制、人脸属性的人脸检索、安防和人机交互等领域中有广泛的应用前景。

请参阅图10,示出了本申请实施例提供的图像处理方法,该方法包括:s1001至s1004。

s1001:获取多个样本图像数据,每个所述样本图像数据对应多个属性标签。

s1002:设置共享网络和多个特异性网络,每个所述特异性网络能够识别至少一个属性标签,且每个所述特异性网络能够识别的属性标签互不相同。

s1003:将所述多个样本图像数据输入所述共享网络和多个特异性网络进行训练,以得到训练后的共享网络和多个特异性网络。

其中,s1001至s1003为共享网络和多个特异性网络的训练过程,其具体的实施方式可以参考前述s310至s330,在此不再赘述。

s1004:获取待处理的图像数据,根据所述训练后的共享网络和多个特异性网络对所述待处理的图像数据处理,得到图像识别结果。

根据所述训练后的共享网络和多个特异性网络对所述待处理的图像数据处理,得到图像识别结果可以参考前述实施例,在此不再赘述。

请参阅图11,其示出了本申请实施例提供的一种图像处理装置1100的结构框图,该装置可以包括:数据获取单元1110、属性确定单元1120、结果获取单元1130和输出单元1140。

数据获取单元1110,用于获取待处理的图像数据。

属性确定单元1120,用于将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签,其中,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同。

结果获取单元1130,用于将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果,其中,所述共享网络用于根据各属性标签和各属性标签的相关性确定图像识别结果。

输出单元1140,用于输出所述图像识别结果。

请参阅图12,其示出了本申请实施例提供的一种图像处理装置1200的结构框图,该装置可以包括:训练单元1210、数据获取单元1220、属性确定单元1230、结果获取单元1240和输出单元1250。

训练单元1210用于对所述共享网络和多个特异性网络进行训练。

具体地,训练单元1210包括样本获取子单元1211、设置子单元1212和训练子单元1213。

获取子单元1211,用于获取多个样本图像数据,每个所述样本图像数据对应多个属性标签。

设置子单元1212,用于设置共享网络和多个特异性网络,每个所述特异性网络能够识别至少一个属性标签,且每个所述特异性网络能够识别的属性标签互不相同。

训练子单元1213,用于将所述多个样本图像数据输入所述共享网络和多个特异性网络进行训练,以得到训练后的共享网络和多个特异性网络。

进一步地,所述样本图像数据和待处理的图像数据均包含人脸图像,获取子单元1211还用于获取多个样本图像数据;识别每个所述样本图像数据内的人脸关键点在所述样本图像内的位置信息;根据每个所述样本图像数据的人脸关键点的位置信息,调整每个所述样本图像数据内的人脸朝向符合预设朝向;将调整后的样本图像数据作为本次用于训练所述共享网络和多个初始特异性网络的样本图像数据。

进一步地,获取子单元1211还用于获取多个样本图像数据;对所述多个样本图像数据进行数据增强处理,以使每个所述样本图像数据的光照强度和对比度在预设区间内随机分布;对增强处理后的每个所述样本图像数据按照预设随机剪裁比例剪裁,并且每个将每个剪裁后的样本图像数据的尺寸均为预设尺寸;将剪裁后的样本图像数据作为本次用于训练所述共享网络和多个初始特异性网络的样本图像数据。

进一步地,所述样本图像数据和待处理的图像数据均包含人脸图像,每个所述样本图像数据对应的多个属性标签对应于人脸的不同位置;设置子单元1212还用于划分多个测量区域,每个所述测量区域对应人脸的不同区域;根据所述多个测量区域设置多个特异性网络,每个特异性网络对应一个测量区域,每个所述特异性网络用于确认所对应的测量区域内的属性标签。

数据获取单元1220,用于获取待处理的图像数据。

进一步地,数据获取单元1220还用于获取原始图像数据;对所述原始图像数据归一化处理,以得到待处理的图像数据。

属性确定单元1230,用于将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签,其中,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同。

进一步地,属性确定单元1230还用于确定每个所述特异性网络对应的属性标签,其中,所述特异性网络能够识别的属性标签为该特异性网络对应的属性标签;根据每个所述特异性网络对应的属性标签将所述图像数据划分为多个子图像数据;将所述子图像数据输入与该子图像数据对应的特异性网络。

结果获取单元1240,用于将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果,其中,所述共享网络用于根据各属性标签和各属性标签的相关性确定图像识别结果。

输出单元1250,用于输出所述图像识别结果。

请参阅图13,其示出了本申请实施例提供的一种图像处理装置1300的结构框图,该装置可以包括:样本获取单元1310、设置单元1320、网络训练单元1330和识别单元1340。

样本获取单元1310,用于获取多个样本图像数据,每个所述样本图像数据对应多个属性标签。

设置单元1320,用于设置共享网络和多个特异性网络,每个所述特异性网络能够识别至少一个属性标签,且每个所述特异性网络能够识别的属性标签互不相同。

网络训练单元1330,用于将所述多个样本图像数据输入所述共享网络和多个特异性网络进行训练,以得到训练后的共享网络和多个特异性网络。

其中,样本获取单元1310、设置单元1320、网络训练单元1330对应于上述的训练单元1210。作为一种实施方式,样本获取单元1310对应于获取子单元,样本获取单元1310的具体实施方式可以参考获取子单元,设置单元1320对应于设置子单元,设置单元1320的具体实施方式可以参考设置子单元,网络训练单元1330对应于训练子单元,网络训练单元1330的具体实施方式可以参考训练子单元。

识别单元1334,用于获取待处理的图像数据,根据所述训练后的共享网络和多个特异性网络对所述待处理的图像数据处理,得到图像识别结果。

具体地,识别单元1334用于获取待处理的图像数据;将所述待处理的图像数据输入预先训练的多个特异性网络,以获取所述图像数据对应的属性标签,其中,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同;将每个所述特异性网络所确定的属性标签输入预先训练好的共享网络,以获取图像识别结果,其中,所述共享网络用于根据各属性标签和各属性标签的相关性确定图像识别结果;输出所述图像识别结果。

作为一种实施方式,识别单元1334对应于数据获取单元、属性确定单元、结果获取单元和输出单元,具体实施方式可参考数据获取单元、属性确定单元、结果获取单元和输出单元。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。

另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。

请参考图14,其示出了本申请实施例提供的一种电子设备的结构框图。该电子设备100可以是智能手机、平板电脑、电子书等能够运行应用程序的电子设备。本申请中的电子设备100可以包括一个或多个如下部件:处理器110、存储器120、以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。

处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(digitalsignalprocessing,dsp)、现场可编程门阵列(field-programmablegatearray,fpga)、可编程逻辑阵列(programmablelogicarray,pla)中的至少一种硬件形式来实现。处理器110可集成中央处理器(centralprocessingunit,cpu)、图像处理器(graphicsprocessingunit,gpu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户界面和应用程序等;gpu用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。

存储器120可以包括随机存储器(randomaccessmemory,ram),也可以包括只读存储器(read-onlymemory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储电子设备100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。

请参考图15,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质1500中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。

计算机可读存储介质1500可以是诸如闪存、eeprom(电可擦除可编程只读存储器)、eprom、硬盘或者rom之类的电子存储器。可选地,计算机可读存储介质1500包括非易失性计算机可读介质(non-transitorycomputer-readablestoragemedium)。计算机可读存储介质1500具有执行上述方法中的任何方法步骤的程序代码1510的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码1510可以例如以适当形式进行压缩。

综上所述,本申请提供的图像处理方法、装置、电子设备及存储介质,预先训练好共享网络和多个特异性网络,每个所述特异性网络用于确定所述图像数据对应的属性标签,且各个所述特异性网络确定的属性标签互不相同,则当获取到待处理的图像数据的时候,将待处理的图像数据输入多个特异性网络,每个特异性网络能够识别到该特异性网络所能够识别到的属性,从而待处理图像数据所对应的多个属性标签能够被多个特异性网络分别识别到,提高了整体的图像数据的多个属性标签的识别,从而能够得到图像数据对应的属性标签,然后,再将该图像数据对应的属性标签输入至共享网络,共享网络根据各属性标签和各属性标签的相关性确定图像识别结果,并将图像识别结果输出。因此,多个特异性网络共同分析图像数据并得到多个属性标签,能够提高属性标签的获得速度,而共享网络能够结合各属性标签的相关性得到图像识别结果,提高了识别结果的准确度和整体性能。

本申请提出了一种基于深度学习的人脸多属性识别算法及系统,该方法将40个人脸属性根据属性对应的图片位置分为4个人脸属性组,考虑到了人脸属性之间的显示的位置相关性,将每个属性组的属性分类问题视为一个子任务,构建了包含4个特异性网络和1个共享网络的模型。

特异性网络旨在学习任务之间的特异性,因此每个属性组配置一个单独的特异性网络,而共享网络旨在学习任务之间的互补信息,促进任务间的交互。特异性网络和共享网络间丰富的连接促进了相互之间的信息交流,有利于挖掘任务间的相关性,提高了整体的性能。

最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1