数据处理的方法和设备的制造方法_4

文档序号:9727321阅读:来源:国知局
此不作限定,只要能使得根据场景的标识(场景编号或类型),从该感知模型库中获取到对应的感知模型库即可。
[0194]S240,根据该请求消息,向该终端发送该目标感知模型,以便于该终端根据该目标感知模型计算该目标感知数据的识别结果。
[0195]因此,本发明实施例的数据处理的方法,通过为终端提供需要识别的感知数据所属的场景对应的感知模型,使得终端根据该感知模型处理对应的感知数据,由于具体一种场景对应的感知模型的复杂度相对较小、模型准确度相对较高,因此能够有效降低计算复杂度,同时能够提高数据处理的速度和准确度。
[0196]在本发明实施例中,该预存的感知模型库中存储有根据不同感知数据和不同场景的样本数据,所训练得到的不同场景分别对应的感知模型。
[0197]可选地,在本发明实施例中,在接收到该请求消息之前,该方法200还包括:
[0198]S250,获取感知数据样本,该感知数据样本至少包括一部分具有场景标注信息和物品标注信息的感知数据;
[0199]S260,根据该感知数据样本,训练不同场景分别对应的感知模型;
[0200]S270,将该不同场景分别对应的感知模型存储到该感知模型库中,该感知模型库中包括该目标感知模型。
[0201]具体地,以感知数据为图像数据为例,训练不同场景对应的感知模型的具体步骤如图3所示:
[0202]在S310中,读取图像样本,该图像样本中至少有一部分图像具有场景标注信息和物品标注信息。
[0203]具体地,例如该图像样本中的图像ImgOOOOl的场景标注信息为 < 场景:广场 >,物品标注信息为:〈物品:花坛、长椅、游客、巴士、巴士站、轿车、警察、儿童、气球、咖啡馆、鸽子 >。进一步地,图像的物品标注信息还可以包括该物品在图像中的位置,例如采用局部矩形区域表示。
[0204]应理解,在本发明实施例中,图像样本的其中一部分图像可以同时具有场景标注信息和物品标注信息、另一部图像可以只具有物品标注信息、还有一部分图像可以既没有场景标注信息也没有物品标注信息。还应理解,该图像样本中的全部图像可以都具有各自的场景标注信息和物品标注信息,本发明实施例对此不作限定,只要保证该图像样本中至少具有一部分图像具有场景标注信息和物品标注信息即可。
[0205]在S320中,获取该图像样本中包括的所有图像的局部区域图像文件。
[0206]具体地,对读取的图像样本中包括的所有图像进行局部区域抽取。例如用不同大小的矩形滑动窗口,分别自左向右、自上而下地从图像P(图像样本中的任一个原始图像)中截取多个局部图像区域,生成多个局部区域图像文件。更具体地,采用大小分别为200 X 200和400 X 400的矩形滑动窗口,从左向右、自上而下地从3264 X 2448的原始图像中截取多个200*200和400X400的局部图像区域,进而生成该原始图像的多个局部区域图像文件。
[0207]在S330中,根据局部区域图像文件和图像样本中携带的物品标注信息,确定通用感知模型,或者称之为确定通过感知模型的参数文件。
[0208]具体地,将在S320中生成的图像样本中所有原始图像的局部区域图像文件作为通用感知模型的输入,结合该通用感知模型输出的物品类型计算信息和图像样本中携带的物品标注信息,确定该通用感知模型的参数文件。
[0209]应理解,该通用感知模型可以看作是卷积神经网络(CNN)模型与支持多分类的逻辑回归(Softmax)模型合并后的模型。确定该通用感知模型的步骤例如包括:将局部区域图像文件作为CNN模型的输入,相应地,CNN模型会输出相关的矩阵信息;然后将CNN模型输出的矩阵信息作为Softmax模型的输入,相应地,Softmax模型会输出物品类型计算结果;基于该物品类型计算结果和图像样本中携带的物品标注信息(二者之间的匹配度或错误率),可以计算得到CNN模型和Softmax模型的各自的参数,即确定了该通用感知模型。
[0210]还应理解,S330生成通用感知模型的方法可以采用现有的相关方法,为了简洁,这里不再赘述。
[0211]在S340中,确定目标图像样本,该目标图像样本中的图像具有场景标注信息和物品标注息。
[0212]具体地,在S310中读取的图像样本中,选择既有场景标注信息,又有物品标注信息的图像,将这类型图像确定为目标图像样本。例如第一类图像的标注信息为:〈场景:餐馆;物品:椅子、桌子、酒瓶、盘子、筷子 >、第二类图像的标注信息为:< 场景:广场;物品:花坛、长椅、游客、巴士、轿车、警察、儿童、气球、咖啡馆〉、第三类图像的标注信息为:〈场景:广场;物品:花坛、长椅、游客、巴士、巴士站、轿车、气球、咖啡馆、鸽子〉、第四类图像的标注信息为:〈场景:病房;物品:病床、监护仪、呼吸机、呼叫器、支架、污物桶〉、第五类图像的标注信息为:〈场景:厨房;物品:烧水壶、水龙头、微波炉、盐罐、糖罐、番茄汁、盘子、燃气灶
[0213]应理解,S340中确定的目标图像样本中,每一种场景对应包括多张图像的图像集合,不应该理解为一种场景只对应一张图像的,换句话说,上面提到的场景标注信息为 < 场景:餐馆 > 的第一类图像是数张图像的集合。
[0214]在S350中,根据该目标图像样本中的图像及其物品标注信息和场景标注信息,基于通用感知模型,确定不同场景各自对应的感知模型。
[0215]具体地,以场景标注信息为〈场景:广场〉的第三类图像的局部区域图像文件(在S320中已经获取到)作为S330中确定的通用感知模型的输入,相应地,该通用感知模型会输出计算所得的物品类型计算信息;然后根据该第三类图像所携带的物品标注信息所指示的物品类型,确定该物品类型计算信息的错误率,同时衡量该通用感知模型的复杂度,综合考虑该错误率和复杂度,对该通用感知模型的参数进行调节和简化,其中,参数的简化包括对参数相似的计算节点进行聚类合并,对输出无贡献参数的裁剪等。通过上述对通用感知模型的参数的调节和简化,使得该物品类型计算信息的错误率和通用感知模型的复杂度均满足预定条件后,这时的经过参数简化后的感知模型可以成为场景〈广场 > 对应的感知模型。应理解,在上述确定场景〈广场 > 对应的感知模型的过程中,会备份好S330中确定的通用感知模型,以便于后续确定其他场景对应的感知模型。还应理解,类似地,可以获取到其他各个场景所对应的感知模型。
[0216]由于与全局通用的物体识别相比,特定场景中的物体识别的类别数量相对较少,则每个场景对应的感知模型的参数相对于S330中确定的通用感知模型的参数的数量大大减少。能够在提高识别计算准确率的前提下,有效降低计算复杂度。
[0217]在S360中,将各个场景对应的感知模型,存储感知模型库中。
[0218]应理解,上面的实施例仅是为了帮助更好的理解本发明,而并非对本发明的限制。
[0219]应理解,由于每个场景中出现的对象类型有限,例如对于室外场景或者城市场景,可能需要识别人、车、建筑、或文字等对象,但基本不会出现各种动物和植物的识别需求。换句话说,每种场景中经常出现的需要识别的对象类别数都是相对较少的,相应地,每个场景各自对应的感知模型的模型参数也相对较少,从而,每个场景对应的感知模型的计算复杂度大大减小,而且也不会对存储空间有很高的需求。因此,本发明提出的数据处理的方法,能够在保持甚至提高数据识别的准确度的前提下,大大简化感知模型的复杂度和计算量,从而解决了计算能力与模型的复杂度之间矛盾,能够有效提高识别能力。
[0220]还应理解,上述训练各个场景对应的感知模型的过程(相当于更新感知模型库的过程),不局限于只在接收终端发送的用于请求处理目标感知数据的目标感知模型的请求消息之前执行一次;也可以按照一定的周期,定期执行感知模型的训练过程,这样可以参考终端实时请求的感知数据,不断丰富充实感知数据和场景的样本库,从而更加充实和完善场景的类型及其对应的感知模型,同时能够不断提高各个场景分别对应的感知模型的识别计算的准确度。
[0221]因此,本发明实施例的数据处理的方法,通过为终端提供需要识别的感知数据所属的场景对应的感知模型,使得终端根据该感知模型处理对应的感知数据,由于具体一种场景对应的感知模型的复杂度相对较小、模型准确度相对较高,因此能够有效降低计算复杂度,同时能够提高数据处理的速度和准确度。
[0222]还应理解,上文中在数据处理的方法100和数据处理的方法200中都提到了“预存的感知模型库”,总的来说,该“预存的感知模型库”用于存储用于处理感知数据的各个场景所对应的感知模型;但在方法100和方法200中,该“预存的感知模型库”的含义略有区另IJ,具体说明如下:本发明实施例提供的数据处理的方法100例如由终端来执行,则该“预存的感知模型库”指的是终端内用于缓存从服务器获取的各个场景对应的感知模型的存储区域;换句话说,该“预存的感知模型库”存储的感知模型为该终端已经处理的或者即将处理的感知数据所属的场景所对应的感知模型,可能没有包括所有场景分别对应的感知模型。而本发明实施例提供的数据处理的方法200的执行主体一般是服务器,则该“预存的感知模型库”指的是服务器中用于存储根据不同感知数据和不同场景的训练样本生成的各个场景分别对应的感知模型的存储区域;可以理解为服务器内的“预存的感知模型库”包括了所有场景分别对应的感知模型。
[0223]上文中结合图1至图3,详细描述了根据本发明实施例的数据处理的方法,下面将结合图4至图7,详细描述根据本发明实施例的数据处理的设备。
[0224]图4示出了根据本发明实施例的数据处理的设备400的示意性框图,如图4所示,该设备400包括:
[0225]获取模块410,用于获取目标感知数据,该目标感知数据为下列数据中的任一种:图像数据、视频数据和声音数据;
[0226]第一确定模块420,用于确定该获取模块获取的该目标感知数据所属的目标场旦牙、;
[0227]第二确定模块430,用于确定该第一确定模块确定的该目标场景对应的目标感知模型;
[0228]计算模块440,用于根据该第二确定模块确定的该目标感知模型,计算该获取模块获取的该目标感知数据的识别结果。
[0229]因此,本发明实施例的数据处理的设备400,通过确定要识别的感知数据所属的场景,采用该场景对应的感知模型计算获取该感知数据的识别结果,相比现有技术,能够降低计算复杂度,从而能够提高数据处理的效率。
[0230]具体地,计算模块440可以为感知计算处理器,其功能为执行感知计算,例如根据卷积神经网络CNN、深度学习网络DNN等算法模型,执行感知数据的识别处理。将输入的感知数据,依次进行数据块选择、神经网络各层级联卷积和抽样计算、分类矩阵计算,最终产生识别结果。计算过程,包括并不限于在完全在通用CPU上执行,部分在GPU加速芯片上执行,或在专用芯片上执行。
[0231]可选地,作为一个实施例,该第一确定模块420具体用于,通过对该目标感知数据进行场景分析,确定该目标场景。
[0232]具体地,该第一确定模块420可以为场景识别器,其功能为识别输入的感知数据所处的场景。输入感知数据,输出场景类型或场景编码,或其他可以表示场景的标识。
[0233]可选地,作为一个实施例,该目标感知数据为在终端当前所处位置生成的数据;
[0234]其中,该第一确定模块具体用于,结合该终端当前所处位置的定位信息,对该目标感知数据进行场景分析,确定该目标场景。
[0235]具体地,该第一确定模块输入感知数据和定位信息,输出场景类型或编码。
[0236]可选地,作为一个实施例,该第一确定模块包括:
[0237]第一发送单元,用于向服务器发送用于请求该目标感知数据所属的场景的第一请求;
[0238]第一接收单元,用于接收该服务器根据该第一请求发送的该目标场景。
[0239]可选地,作为一个实施例,该第二确定模块具体用于,从预存的感知模型库中,确定该目标场景对应的该目标感知模型,该感知模型库中的每个感知模型分别对应一种场旦
ο
[0240]可选地,如图5所示,作为一个实施例,该设备包括:
[0241]获取模块410,用于获取目标感知数据,该目标感知数据为下列数据中的任一种:图像数据、视频数据和声音数据;
[0242]第一确定模块420,用于确定该获取模块获取的该目标感知数据所属的目标场旦牙、;
[0243]第二确定模块430,用于确定该第一确定模块确定的该目标场景对应的目标感知模型;
[0244]计算模块440,用于根据该第二确定模块确定的该目标感知模型,计算该获取模块获取的该目标感知数据的识别结果;
[0245]更新模块450,用于在该获取模块获取目标感知数据之前,根据用户历史场景序列,更新该感知模型库,该更新后的感知模型库中包括该目标场景对应的该目标感知模型。
[0246]应理解,更新模块450可以在第二确定模块430向服务器请求获取到目标感知模型后,将该目标感知模型存储到预存的感知模型库,以更新该
当前第4页1 2 3 4 5 6 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1