基于视频流神经网络的异常驾驶行为识别方法及相关装置与流程

文档序号:30388691发布日期:2022-06-11 12:46阅读:80来源:国知局
基于视频流神经网络的异常驾驶行为识别方法及相关装置与流程
基于视频流神经网络的异常驾驶行为识别方法及相关装置
【技术领域】
1.本发明涉及计算机视觉与模式识别技术领域,尤其涉及一种基于视频流神经网络的异常驾驶行为识别方法及相关装置。


背景技术:

2.异常驾驶行为的识别在智能交通系统中发挥着重要作用,可以及时发现异常的驾驶行为,起到自动识别、及时预警以及降低事故发生率的效果,可广泛应用于智能交通、交通控制、智慧城市等场景,从安全性到交通控制的各种潜在性应用,近年来引起了大众广泛的研究关注。
3.目前对异常驾驶行为常用的识别是基于双流法的卷积神经网络识别方法,该方法使用了两个网络分支,一个分支是获取输入视频流的单帧视频图像的卷积神经网络,主要用于获取图像中对象的空间特征;另一个分支是获取输入视频流的密集光流序列的光流卷积神经网络,主要用于识别输入视频流的时序特征;之后将两个分支的时序特征和空间特征进行融合,进而识别出异常驾驶行为。
4.该方法应用到具体场景时,存在如下的问题:一是当人体的位置发生较大变化时,仅用单帧图像定位人体,定位误差较大;二是在将输入视频流转换为密集光流序列时,驾驶人员的驾驶行为容易被掩盖,无法获取驾驶人员的驾驶行为细节。并且驾驶车辆的过程中,车辆在不断地抖动并且车窗外的景象是迅速变化的,生成的密集光流图会掩盖驾驶人员的细微动作,导致在光流图中无法体现驾驶人员的驾驶行为;三是仅做一次特征融合,易于导致特征信息的大量丢失。


技术实现要素:

5.针对现有技术存在的不足,本技术的目的在于提供基于视频流神经网络的异常驾驶行为识别方法及相关装置,避免不同深度特征的丢失,提升异常驾驶行为的准确率;同时,降低识别方法对成像环境的要求。
6.为实现上述目的,本发明提供了如下技术方案:
7.第一方面,提供一种基于视频流神经网络的异常驾驶行为识别方法,包括:
8.从获取的输入视频流中以不同的采样率分别提取第一视频帧序列和第二视频帧序列;
9.将所述第一视频帧序列和所述第二视频帧序列分别进行卷积特征的提取;
10.针对不同的时空尺度,将从所述第一视频帧序列和所述第二视频帧序列中提取的特征分别进行融合;
11.对融合结果进行分类,输出所述输入视频流的分类信息。
12.本发明进一步设置为:所述第一视频帧序列的帧数小于所述第二视频帧序列的帧数。
13.本发明进一步设置为:所述将所述第一视频帧序列和第二视频帧序列分别进行卷
积特征的提取之前,具体步骤包括:
14.将所述第一视频帧序列和所述第二视频帧序列两者之中每一帧处理为宽高为相一致的图像。
15.本发明进一步设置为:所述将所述第一视频帧序列和第二视频帧序列分别进行卷积特征的提取,包括:
16.获得所述第一视频帧序列和所述第二视频帧序列分别输入至第一卷积分支和第二卷积分支之中;
17.在所述第一卷积分支之中,依次利用3d卷积块和多个第一卷积残差块进行卷积操作提取空间特征;
18.在所述第二卷积分支之中,依次利用3d卷积块和多个第二卷积残差块进行卷积操作提取时序特征;
19.获取空间特征和时序特征,所述时序特征融合至与其同一尺度的所述空间特征之中得到融合后的时空特征;
20.获得融合后的时空特征,以作为所述第一卷积分支后续卷积操作的特征。
21.本发明进一步设置为:所述第一卷积分支的帧率大于所述第二卷积分支的帧率。
22.本发明进一步设置为:所述获得融合后的时空特征,以作为所述第一卷积分支后续卷积操作的特征之后,具体步骤包括:
23.获取从最后一个的所述第一卷积残差块输出的时空特征,和获得从最后一个的所述第二卷积残差块输出的时序特征,将时空特征和时序特征进行融合操作,以作为输入至分类模块的特征。
24.本发明进一步设置为:在所述第一卷积分支之中,依次利用3d卷积块和多个第一卷积残差块进行卷积操作提取空间特征,包括:
25.所述3d卷积块包括卷积层和最大化池层,其中卷积层采用1*7*7的卷积核,用于对卷积特征降维,以提交至最大池化层进行下采样。
26.本发明进一步设置为:所述第一卷积残差块和所述第二卷积残差块均以3d-resnet为基础,采用分离卷积替换了原始的3d卷积核3*3*3,分离卷积是把3d卷积核拆分成1*3*3和3*1*1的卷积核。
27.本发明进一步设置为:所述第一卷积残差块和所述第二卷积残差块两者均重复多次步长为1的卷积操作,直至最后一次重复时,配置步长为2的卷积操作,以缩减图像的尺寸。
28.本发明进一步设置为:所述对融合结果进行分类,输出所述输入视频流的分类信息之后,包括:
29.获得所述输入视频流的分类信息,提交至损失优化模块进行分类损失的计算以及优化。
30.本发明进一步设置为:获取以所述输入视频流为基础形成的数据集,将所述数据集包括有训练集、验证集和测试集三个部分,所述训练集用于训练网络模型,所述验证集是用于验证网络模型的性能状况,所述测试集则用于评估网络模型的泛化能力。
31.第二方面,提供一种基于视频流神经网络的异常驾驶行为识别装置,包括:
32.视频流采样模块,用于从获取的输入视频流中以不同的采样率分别提取第一视频
帧序列和第二视频帧序列;
33.特征提取模块,用于将所述第一视频帧序列和第二视频帧序列分别进行卷积特征的提取;
34.特征融合模块,用于针对不同的时空尺度,将从第一视频帧序列和第二视频帧序列中提取的特征分别进行融合;
35.分类模块,用于对融合结果进行分类,输出所述输入视频流的分类信息。
36.本发明进一步设置为:还包括损失优化模块,用于获得所述输入视频流的分类信息,提交至损失优化模块进行分类损失的计算以及优化。
37.本发明进一步设置为:其包括处理芯片和存储介质,一个或多个程序被存储在所述存储介质中并被配置为由所述处理芯片执行,所述一个或多个程序用于驱动所述处理芯片构造用于执行如权利要求1-11任意一项所述的异常驾驶行为识别方法。
38.第三方面,提供一种可读计算机介质,包括一个或多个应用程序中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个应用程序被配置为用于执行根据权利要求1-11任意一项所述的异常驾驶行为识别方法。
39.与现有技术相比,本发明具备如下优点:
40.1.本技术从输入视频流中以不同的采样率进行采样,采样不同数量的多帧视频图像,分别输入到第一卷积分支和第二卷积分支中,避免以单帧视频图片中人物的位置来确定整个输入视频流中人物的位置,使得人物位置的定位更加准确;
41.2.本技术将第一卷积分支和第二卷积分支均为3d卷积神经网络,可识别到输入视频流的时序和空间特征,避免了输入视频流转换为光流序列的时序特征的损失,第一卷积分支采用较慢的帧率,以获取输入视频流中的空间特征;同时,将光流序列神经网络分支更改为帧率较高的3d卷积神经网络分支,以获取输入视频流的时间行为特征,无需使用密集光流序列,避免了时序特征的损失,提升异常驾驶行为的准确率,降低识别方法对成像环境的要求;
42.3.本技术对第一卷积分支和第二卷积分支的特征进行了多尺度的融合,避免了不同深度的特征的损失,不同深度的网络均融合了上一尺度的时空特征,最终将两个分支最后尺度的特征再次融合,使得第一卷积分支后续卷积过程中兼顾有上一尺度的时序特征,使得卷积操作所提取的特征更为准确可靠;
43.4.通过在网络模型之中采用残差连接,实现了较大的感受野,从而可以训练更深的网络,从输入视频流中提取更为准确的特征细节;同时,降低卷积过程中的损失,且无需增加卷积所需的参数量。
【附图说明】
44.图1为本实施例的步骤流程图;
45.图2为本实施例的识别方法的流程图;
46.图3为本实施例的残差块的网络结构图;
47.图4为本实施例的融合卷积块的结构图。
48.附图标记:110、视频流采样模块;120、特征提取模块;130、特征融合模块;140、分
类模块;150、损失优化模块;151、损失计算模块;152、优化器。
【具体实施方式】
49.下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
50.本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
51.本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
52.本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,进行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;pcs(personal communications service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;pda(personal digital assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或gps(global positioning system,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是pda、mid(mobile internet device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
53.如图1和图2所示,本发明公开的一种基于视频流神经网络的异常驾驶行为识别方法,具体步骤包括:
54.s1、从获取的输入视频流中以不同的采样率分别提取第一视频帧序列和第二视频帧序列;
55.s2、将第一视频帧序列和第二视频帧序列分别进行卷积特征的提取;
56.s3、针对不同的时空尺度,将从第一视频帧序列和第二视频帧序列中提取的特征分别进行融合;
57.s4、对融合结果进行分类,输出所述输入视频流的分类信息。
58.可选地,在s1中,从获取的输入视频流中以不同的采样率分别提取第一视频帧序列和第二视频帧序列,具体步骤包括:
59.从视频设备提取视频流或其他人已经提取出来的视频流,整理成一个一个较小的视频片段,并按时间顺序进行保存为输入视频流;同时,对上述视频片段的异常驾驶行为进行分类;读取输入视频流,提交至视频流采样模块110以不同采样率进行采样,以获得不同帧数的视频帧序列;
60.获得第一视频帧序列和第二视频帧序列,将第一视频帧序列和第二视频帧序列两者之中每一帧处理为宽高为相一致的图像,输入至双分支3d卷积网络模型;其中,第一视频帧序列的帧数小于第二视频帧序列的帧数。
61.具体地,当输入视频流设为64帧时,以8hz的采样率对输入视频流进行采样,获得采样后的第一视频帧序列,第一视频帧序列的帧数为8帧;然后,以2hz的采样率对输入视频流进行采样,获得采样后的第二视频帧序列,第二视频帧序列的帧数为32帧,对第一视频帧序列和第二视频帧序列两者进行预处理,即是利用计算机视觉库opencv对视频片段切帧,并将第一视频帧序列和第二视频帧序列两者之中的每一图像帧变形为宽高为224*224的图像。
62.可选地,在s2中,将第一视频帧序列和第二视频帧序列分别进行卷积特征的提取,具体步骤包括:
63.获得第一视频帧序列和第二视频帧序列,分别输入至第一卷积分支和第二卷积分支之中;其中,第一卷积分支的帧率大于第二卷积分支的帧率;
64.在第一卷积分支之中,依次利用3d卷积块和多个第一卷积残差块进行卷积操作提取空间特征,在第一卷积分支对第一视频帧序列的空间特征进行提取。
65.具体地,第一视频帧序列输入至第一卷积分支中,第一卷积分支依次包括有3d卷积块、第一卷积残差块1、第一卷积残差块2和第一卷积残差块3,在上述第一卷积分支的3d卷积块和第一卷积残差块之间、第一卷积残差块与第一卷积残差块之间均设有融合卷积块,以使得第一卷积分支中卷积特征同时具备时序和空间的维度特征,提高识别性能;其中,第一视频帧序列先输入至3d卷积块之中,3d卷积块包括卷积层和最大化池层,卷积层的参数设为keral:[1,7,7]、stride:[1,2,2]和padding:[0,3,3],即是通过卷积核为1*7*7的卷积层获取较大的感受野,尽可能保证局部信息完整;同时,将卷积层处理后的卷积特征提交至最大池化层进行下采样,其中最大池化层的参数设为keral:[1,3,3]、stride:[1,2,2]和padding:[0,1,1],对卷积特征进行降维,简化网络复杂度,提高特征的鲁棒性。
[0066]
在第二卷积分支之中,依次利用3d卷积块和多个第二卷积残差块进行卷积操作提取时序特征;
[0067]
具体地,第二视频帧序列输入至第二卷积分支中,第二卷积分支依次包括有3d卷积块、第二卷积残差块1、第二卷积残差块2和第二卷积残差块3;其中,第二视频帧序列先输入至3d卷积块之中,3d卷积块包括卷积层和最大化池层,卷积层的卷积参数设为keral:[1,7,7]、stride:[1,2,2]和padding:[0,3,3],即是通过卷积核为1*7*7的卷积层获取较大的感受野,尽可能保证局部信息完整;同时,将卷积层处理后的卷积特征提交至最大池化层进行下采样,其中最大池化层的下采样参数设为keral:[1,3,3]、stride:[1,2,2]和padding:
[0,1,1],对卷积特征进行降维,简化网络复杂度,提高特征的鲁棒性。
[0068]
可选地,在s3中,针对不同的时空尺度,将从第一视频帧序列和第二视频帧序列中提取的特征分别进行融合,具体步骤包括:
[0069]
获取空间特征和时序特征,时序特征融合至与其同一尺度的空间特征之中;获得融合后的时空特征,以作为第一卷积分支后续卷积操作的特征。
[0070]
具体地,首先,从第一卷积分支中的3d卷积块提取到第一视频帧的空间特征,和从第二卷积分支中的3d卷积块提取到第二视频帧的时序特征,此时,将该时序特征和空间特征输入至3d卷积块和第一卷积残差块1之间的融合卷积块进行融合,从而获得兼具空间和时间维度的时空特征。
[0071]
然后,将第一卷积分支中的时空特征输入至后续第一卷积残差块1之中继续进行卷积操作;同时,将第二卷积分支中的空间特征继续输入至第二卷积残差块1中进行卷积操作。上述卷积残差块均以3d-resnet为基础,其中,卷积特征分别在第一卷积残差块1和第二卷积残差块1中各循环3次、卷积特征分别在第一卷积残差块2和第二卷积残差块2中各循环6次、卷积特征分别在第一卷积残差块3和第二卷积残差块3中各循环3次。
[0072]
示例地,若以时空特征在第一卷积残差块1中循环3次卷积操作为例:
[0073]
第一卷积残差块1以3d-resnet为基础,采用分离卷积替换了原始的3d卷积核3*3*3,分离卷积是把3d卷积核拆分成1*3*3和3*1*1的卷积核,将卷积核为1*3*3和3*1*1的卷积串联作为第一残差块1的第一残差分支;同时,以卷积核为1*1*1的卷积作为第一残差块1的第二残差分支,第二残差分支卷积结果用于作为第一残差分支卷积结果的同等映射。
[0074]
首先,如图3和图4所示,获得时空特征分别输入至第一残差分支和第二残差分支,在时空特征在上述第一残差分支中卷积参数如下,第一次循环:卷积1(内核:1*1*1,步长:1*1*1)、卷积2(内核:1*3*3,步长:1*1*1)、卷积3(内核:3*1*1,步长:1*1*1);第二次循环:卷积1(内核:1*1*1,步长:1*1*1)、卷积2(内核:1*3*3,步长:1*1*1)、卷积3(内核:3*1*1,步长:1*1*1);第三次循环:卷积1(内核:1*1*1,步长:1*1*1)、卷积2(内核:1*3*3,步长:1*1*1)、卷积3(内核:3*1*1,步长:1*2*2),当在第一残差分支的最后一次循环时,卷积操作的步长变更为2,从而使得第一残差分支输出的图像尺寸减半,进而将一个224*224的图片输入到网络后,经过卷积模块提取的特征尺寸依次降低,3d卷积块、第一卷积残差块1、第一卷积残差块2和第一卷积残差块3所提取特征尺寸分别为:112*112、56*56、28*28、14*14,以在第一卷积分支中形成了多种尺度的特征。
[0075]
在时空特征在上述第二残差分支中卷积参数如下,第一次循环:卷积(内核:1*1*1,步长:1*1*1);第二次循环:卷积(内核:1*1*1,步长:1*1*1);第三次循环:卷积(内核:1*1*1,步长:1*2*2),当在第二残差分支的最后一次循环时,卷积操作的步长变更为2,从而使得第二残差分支输出的图像尺寸减半,进而将一个224*224的图片输入到网络后,经过卷积模块提取的特征尺寸依次降低,3d卷积块、第二卷积残差块1、第二卷积残差块2和第二卷积残差块3所提取特征尺寸分别为:112*112、56*56、28*28、14*14,以在第二卷积分支中形成了多种尺度的特征。
[0076]
第一残差分支和第二残差分支在完成一次循环后,将第一残差分支的卷积结果与第二残差分支的卷积结果进行堆叠,以判断第一残差分支的卷积结果是否理想,若是与第二残差分支相比损失拉大,则可将本次第一残差分支的卷积权重设为0,以降低在多次卷积
特征提取之中存在的损失,利于优化特征提取,增加相当的深度来提高特征提取的准确率。上述第一残差块1之中使用了跳跃连接,缓解了在深度神经网络中增加深度带来的梯度消失问题。
[0077]
可选地,在s4中,对融合结果进行分类,输出所述输入视频流的分类信息,包括:
[0078]
获取从最后一个的所述第一卷积残差块输出的时空特征,和获得从最后一个的所述第二卷积残差块输出的时序特征,将时空特征和时序特征进行融合操作,以作为输入至分类模块140的特征,在分类模块140之中对特征进行分类,输出输入视频流的分类信息。
[0079]
可选地,在s4中,对融合结果进行分类,输出所述输入视频流的分类信息之后,包括:
[0080]
获得输入视频流的分类信息,提交至损失优化模块150进行分类损失的计算以及优化。其中损失优化模块150包括损失计算模块151和优化器152。
[0081]
具体地,从视频设备提取视频流或其他人已经提取出来的视频流,整理成一个一个较小的视频片段,以及标注好该视频片段的异常驾驶行为的分类,获取以输入视频流为基础形成的数据集。
[0082]
将数据集包括有训练集、验证集和测试集三个部分,训练集用于训练网络模型,验证集是用于验证训练模型的性能状况,测试集则用于评估网络模型的泛化能力。其中,将训练集和验证集分别输入至上述模型之中执行双分支3d卷积网络模型训练,在训练过程中对特征进行提取以及将特征进行多尺度的融合,最后将空间特征和时序特征在通道上进行特征融合得到一个特征向量,将特征输入至分类模块140之中,分类模块140可采用为softmax分类器,在softmax分类器输出特征的分类得分;同时,结合分类得分与输入视频流的分类标签用于计算分类损失,利用sgd优化器对训练集和验证集中的图像进行迭代训练,直至多任务融合损失函数l的值不断收敛为止,使之趋于稳定后,得到训练完成的双分支3d卷积网络模型。再输入测试集至双分支3d卷积网络模型当中,进而获得最终的驾驶行为识别结果。
[0083]
如图2所示,本发明实施例提供一种基于视频流神经网络的异常驾驶行为识别装置,包括:
[0084]
视频流采样模块110,用于从获取的输入视频流中以不同的采样率分别提取第一视频帧序列和第二视频帧序列;
[0085]
特征提取模块120,用于将第一视频帧序列和第二视频帧序列分别进行卷积特征的提取;
[0086]
特征融合模块130,用于针对不同的时空尺度,将从第一视频帧序列和第二视频帧序列中提取的特征分别进行融合;
[0087]
分类模块140,用于对融合结果进行分类,输出输入视频流的分类信息。
[0088]
还包括损失优化模块150,用于获得输入视频流的分类信息,提交至损失优化模块进行分类损失的计算以及优化。
[0089]
其中,其中损失优化模块150包括损失计算模块151和优化器152,损失计算模块151用于对分类信息的特征损失进行计算,优化器152用于对训练集和验证集中的图像进行迭代训练,直至多任务融合损失函数l的值不断收敛为止,使之趋于稳定。
[0090]
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任意一项所述的电信计费方法的步骤。其中,所述存储介质包括
但不限于任何类型的盘(包括软盘、硬盘、光盘、cd-rom、和磁光盘)、rom(read-only memory,只读存储器)、ram(random access memory,随即存储器)、eprom(erasable programmable read-only memory,可擦写可编程只读存储器)、eeprom(electrically erasable programmable read-only memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,存储介质包括由设备(例如,计算机)以能够读的形式存储或传输信息的任何介质。可以是只读存储器,磁盘或光盘等
[0091]
综上,本技术提供的基于视频流神经网络的异常驾驶行为识别方法及相关装置具有如下有益效果:
[0092]
当汽车低速行驶过程中,驾驶人员往往会放松警惕,做出很多大弧度的动作,而在单帧图像的卷积神经网络分支中,只从输入视频流中提取了单帧图像,对人体的定位存在较大的误差,而在本技术中以不同采样率对输入视频流采样,以分别获得多帧数的第一视频帧序列和第二视频帧序列,提升了对图像人物行为的定位准确性;同时,在卷积过程中的多尺度融合,使得第一卷积分支所提取的空间特征中融入了时序特征,使得第一卷积分支的特征提取更为可靠,降低对不同深度特征的损失。
[0093]
无需采用密集的光流序列,避免驾驶人员的细微异常驾驶行为被掩盖;同时,在驾驶车辆的过程中,车辆在不断地抖动,并且车窗外的景象是迅速变化的,若是生成的密集光流图会掩盖驾驶人员的细微动作,导致在光流图中无法体现驾驶人员的驾驶行为,双分支均采用3d卷积神经网络,既克服了输入视频流转换为光流序列所存在的问题,并在增加了网络的深度的同时没有带来大量的网络参数,对帧图像中人体行为识别有较好的效果。
[0094]
在模型中使用了残差连接,便于进行深度的特征提取,使得提取的特征更为细致;同时,降低模型在提取特征中的特征损失,避免输入视频流特征的丢失,进而可识别更为细微的异常驾驶行为,做到对驾驶异常行为的及时预警,降低事故发生率。
[0095]
本技术领域技术人员可以理解,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
[0096]
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1