人机交互方法、装置、电子设备及车辆与流程

文档序号:32418885发布日期:2022-12-02 22:40阅读:113来源:国知局
人机交互方法、装置、电子设备及车辆与流程

1.本发明涉及人机交互技术领域,尤其涉及一种人机交互方法、装置、电子设备及车辆。


背景技术:

2.hmi(human machine interface,人机交互界面)是信息化技术发展的产物,该系统实现了人与车之间的对话功能。而人机交互的方式也从文字界面交互,到图形界面交互、手势识别、语音交互、脑机接口等方向拓展。目前的用户界面往往以gui(图形用户界面)和vui(语音用户界面)形态呈现,随着机器智能化水平的提升,vui(语音用户界面)也逐渐发展,但gui 仍然是当前人机交互形态的主流体验媒介。
3.相关技术中,现有的交互方式都存在各自的缺点,并且两种交互界面的情景感知等级都较低,因此无法满足用户的需求。


技术实现要素:

4.本发明实施例提供一种人机交互方法、装置、电子设备及车辆,旨在解决或者部分解决背景技术中存在的问题。
5.为了解决上述技术问题,本发明是这样实现的:
6.第一方面,本发明实施例提供了一种人机交互方法,方法包括:
7.获取用户输入的不同维度的交互指令;
8.生成每个维度的交互指令的识别结果;
9.根据每个维度的交互指令的识别结果,确定每个维度的事件指令;
10.按照预设控制逻辑和优先级,对每个维度的事件指令进行整合,生成融合事件指令;
11.根据融合事件指令,执行目标控制动作。
12.可选地,生成每个维度的交互指令的识别结果的步骤包括:
13.确定每个维度的交互指令对应的目标识别方式;
14.根据目标识别方式,分别获得每个维度的交互指令对应的识别结果。
15.可选地,根据每个维度的交互指令的识别结果,确定每个维度的事件指令的步骤包括:
16.确定每个维度的交互指令的识别结果对应的目标事件源;
17.以目标事件源为索引,遍历映射字典,确定与目标事件源匹配的事件指令。
18.可选地,映射字典是通过以下步骤获得的:
19.获取车辆的硬件支持能力,并根据车辆的硬件支持能力构建事件源与事件指令的映射关系;
20.将事件源与事件指令的映射关系储存在映射字典中。
21.可选地,根据融合事件指令,执行目标控制动作的步骤包括:
22.确定融合事件指令的目标控制程序;
23.确定目标控制程序中所执行的目标应用逻辑;
24.根据目标应用逻辑,对物理设备进行控制。
25.第二方面,本发明实施例提供了一种人机交互装置,装置包括:
26.获取模块,用于获取用户输入的不同维度的交互指令;
27.识别模块,用于生成每个维度的交互指令的识别结果;
28.匹配模块,用于根据每个维度的交互指令的识别结果,确定每个维度的事件指令;
29.融合模块,用于按照预设控制逻辑和优先级,对每个维度的事件指令进行整合,生成融合事件指令;
30.执行模块,用于根据融合事件指令,执行目标控制动作。
31.可选地,识别模块包括:
32.第一识别子模块,用于确定每个维度的交互指令对应的目标识别方式;
33.第二识别子模块,用于根据目标识别方式,分别获得每个维度的交互指令对应的识别结果。
34.可选地,匹配模块包括:
35.确定子模块,用于确定每个维度的交互指令的识别结果对应的目标事件源;
36.查找子模块,用于以目标事件源为索引,遍历映射字典,确定与目标事件源匹配的事件指令。
37.本发明实施例第三方面提出一种电子设备,电子设备包括:
38.至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,
39.存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本发明实施例第一方面提出方法步骤。
40.本发明实施例第四方面提出一种车辆,车辆包括处理器,处理器用于执行时实现如本发明实施例第一方面提出方法步骤。
41.本发明实施例包括以下优点:首先,获取用户输入的不同维度的交互指令并生成每个维度的交互指令的识别结果;然后,根据每个维度的交互指令的识别结果,确定每个维度的事件指令;最后,按照预设控制逻辑和优先级,对每个维度的事件指令进行整合,生成融合事件指令,根据融合事件指令,执行目标控制动作。在本发明中,用户可以采用多种方式进行输入,不会限制用户的输入方式,并且可以通过多种方式进行融合输出,给用户带来各种方面的交互体验,提高了车辆的情景感知等级和用户的人机交互体验。
附图说明
42.为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
43.图1是本发明实施例中一种人机交互方法的步骤流程图;
44.图2是本发明实施例中融合交互管理层的示意图;
45.图3是本发明实施例中融合显示管理层的示意图;
46.图4是本发明实施例中一种人机交互装置的模块示意图。
具体实施方式
47.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
48.人机交互的根本是实现用户的根本需求。hmi(人机交互界面)从文字界面交互,到图形界面交互、手势识别、语音交互、脑机接口。人机交互从原始的图形界面交互逐步向语音交互、手势识别、脑机接口等方向拓展。尽管这些交互方式的运用使人们的生活更加便捷,但上述的每一种交互方式都存在着不可忽视的缺点。主流的人机交互方式还是以图形界面交互为主,语音交互为辅。没有哪一种人机交互方式是完美的,也没有哪一种人机交互方式是无用的。
49.对于图形界面交互这种交互方式,其存在的缺点为:过度依赖人的视觉系统和设备的电子屏幕,交互方式单一,容易产生疲惫感。对视力、肢体有损伤的人来说操作困难。在ar或vr等沉浸式虚拟环境中应用性差。
50.对于语音交互这种交互方式,其存在的缺点为:采用线性的输入方式,因此无法持续输入和输出较多内容,并且信息识别易受环境影响,当用户处于比较嘈杂的环境时识别受阻,并且公开环境下语音交互具有心理负担。
51.对于手势交互这种交互方式,其存在的缺点为:人的双手在没有外物支撑的情况下,很难长时间停留在空中。并且人类在长期自然社交中产生的习惯,让大多数用户无法在室外、办公、多人同居的家庭环境等公共场合中大量使用手势交互,还有就是缺少触觉反馈体验。
52.对于脑机交互这种交互方式,其存在的缺点为:目前脑机接口设备的低普及率。其次是用户接受度未知。
53.同时,当前在人机交互过程中,主要存在两种交互界面,一种是gui (图形用户界面)形态呈现,另一种则是vui(语音用户界面)。这两种交互界面当前用户界面展现形式和特点如表1所示。
54.表1:gui和vui用户界面展现形式和特点
[0055][0056][0057]
由此可以看出,目前,各种交互方式都存在各自的缺点,并且现有的用户交互界面往往都支持单一维度的交互。因此,情景感知的等级较低,用户的使用体验也较差,车辆也
无法主动服务于人,无法达到mmc(人机相容, man-machine compatibility)的效果。
[0058]
基于此,提出了本技术的发明构思:通过多种交互方式相结合,形成多模态交互形态,通过情景感知,让“机”主动服务于人,达到人机相容。
[0059]
首先,本技术提出了一个应用于车机系统的用户交互界面,nui(naturaluser interface,自然用户界面),相比gui和vui,是一种更为自然的、融合多种交互设备的多感官体验的输出,更加直观,且无强依赖,趋向无屏化 (将“屏幕”融入环境)。
[0060]
对于nui来说,其输入的内容可以为:更为自然的、融合多种交互设备的多感官体验的输出,其输入的方式可以为更为自然的方式,如“手势”“语音”“视觉”“姿势”“感知”等。
[0061]
可以把用户基于nui与车辆进行交互的过程,分为两部分。第一部分为车辆识别用户的意图,本发明实施例提供了一种人机交互方法,参见图1,图1示出了本技术实施例一种人机交互方法的步骤流程图,方法包括:
[0062]
s101:获取用户输入的不同维度的交互指令。
[0063]
在本实施方式中,维度可以理解为一种输入方式,即通过语音交互服务进行输入的语音维度、通过按键交互服务进行输入的按键维度、通过触摸交互服务进行输入的触摸维度、以及通过体感交互服务进行输入的体感维度。上述维度的实现是依赖于车辆的物理设备层,即车辆的物理设备层所支持的物理设备的种类,决定了用户的输入维度数量。
[0064]
作为示例的,用户可以通过智能融合交互系统的设备物理层进行不同维度的交互指令的输入,如通过车辆的麦克风输入语音维度的交互指令,通过车辆的按键输入按键维度的交互指令,通过车辆的触摸设备输入触摸维度的交互指令,通过车载摄像头等体感设备输入体感维度的交互指令。用户在输入时,可以只输入一个维度的交互指令,也可以输入多个维度的交互指令。
[0065]
s102:生成每个维度的交互指令的识别结果。
[0066]
在本实施方式中,不同维度的交互指令包括语音维度的交互指令、按键维度的交互指令、触摸维度的交互指令以及体感维度的交互指令。而获得每个维度的交互指令的识别结果的具体步骤可以为:
[0067]
s102-1:确定每个维度的交互指令对应的目标识别方式。
[0068]
在本实施方式中,车辆的车机系统并不是人,因此为了使其能够理解用户输入的内容具体是在表达什么,需要将用户输入的不同维度的交互指令,转变成机器能够理解的语言,而这个过程是依赖于选择的目标识别方式来进行的。
[0069]
作为示例的,对于语音维度的交互指令,如图2所示的融合交互管理层的示意图,其包括:物理设备层,交互词法层,交互语法层,交互语义层以及应用接口层。将物理设备层语音维度得到的交互指令输入到交互词法层之后,确定其对应的目标识别方式为语音识别,对于按键维度的交互指令,将其输入到交互词法层之后,确定其对应的目标识别方式为按键识别,对于触摸维度的交互指令,将其输入到交互词法层之后,确定其对应的目标识别方式为触摸识别,对于体感维度的交互指令,将其输入到交互词法层之后,确定其对应的目标识别方式为体感识别。
[0070]
s102-2:根据目标识别方式,分别获得每个维度的交互指令对应的识别结果。
[0071]
在本实施方式中:在确定出每个维度的交互指令对应的目标识别方式之后,将其输入到交互语法层之后,可以获得每个维度的识别结果。对于语音维度的交互指令,其对应
的识别结果则为语音内容,对于按键维度的交互指令,其对应的识别结果则为按键内容,对于触摸维度的交互指令,其对应的识别结果则为触摸事件,对于语音维度的体感指令,其对应的识别结果则为体感手势。
[0072]
作为示例的,对于语音维度的交互指令,其识别得到的语音内容可以为:“打开空调”,对于按键维度的交互指令,其识别得到的按键内容可以为:“关闭空调”,对于触摸维度的交互指令,其识别得到的触摸事件可以为:“生日庆祝事件”,对于体感维度的交互指令,其识别得到的体感手势可以为:“打开车窗”。
[0073]
s103:根据每个维度的交互指令的识别结果,确定每个维度的事件指令。
[0074]
在本实施方式中,在车辆获取到每个维度的识别结果之后,即可理解为车辆获取到了用户的真实意图,即车辆理解了用户想要干什么,因此需要针对用户的真实意图做出相应的响应。其具体的步骤可以为:
[0075]
s103-1:确定每个维度的交互指令的识别结果对应的目标事件源。
[0076]
在本实施方式中,在车辆获取到每个维度的识别结果之后,将每个维度的识别结果输入到融合交互语义层中,融合交互语义层为一种集中式事件处理机制,允许不同的交互组件之间进行彼此通信而又不需要相互依赖。融合交互语义层采用事件总线模式,主要由三部分构成:事件、事件总线和事件监听器。事件即为交互语义层各交互组件向融合交互语义层发布的指令;事件总线是实现事件指令传播的“基础设施”,是整个融合交互语义层的事件“调度中心”;事件监听器用于监听各种交互指令事件的对象。
[0077]
融合交互语义层的集中式事件处理机制主要通过事件驱动的实现方式,事件指令发送者将事件发送到一个事件总线上,事件指令订阅者向事件总线订阅和接收事件,然后在处理接收到的事件。
[0078]
作为示例的,在本技术中,每个维度的识别结果即为交互语义层各交互组件向融合交互语义层发布的指令,事件指令发送者即为输入不同维度的交互指令的用户,事件指令订阅者即为车辆上的各种应用程序,根据用户的交互指令控制不同的应用程序进行工作。
[0079]
因此,而用户输入的交互指令是多种多类的,比如:同样都是语音维度的交互指令,其对应的识别结果可以为“打开空调”“请打开空调”“请让车内温度降低”,但是用户想让车辆做的事情为“启动空调”,因此“启动空调”可以理解为上述是语音维度的交互指令的识别结果对应的目标事件源。
[0080]
s103-2:以目标事件源为索引,遍历预设映射字典,确定与目标事件源匹配的事件指令。
[0081]
在本实施方式中,继续以上述实施例为例进行说明,若确定了语音维度的交互指令的识别结果对应的目标事件源为“启动空调”。则在映射字典中进行查找,映射字典用于储存目标事件源与事件指令的映射关系,而目标事件源与事件指令的映射关系是需要预先进行编辑,然后预存到映射字典中的。
[0082]
作为示例的,在确定目标事件源为“启动空调”之后,在映射字典中搜索,然后根据预存的映射关系,确定目标事件源为“启动空调”对应的事件指令为“启动空调控制器的电源,并向空调控制器发送将空调工作模式调为制冷模式的控制指令。”对于不同的交互指令的识别结果,若其对应的目标事件源相同,则其对应的事件指令也相同,若不同的交互指令
的识别结果对应的目标事件源有多个,则对应的事件指令也存在多个。
[0083]
s104:按照预设控制逻辑和优先级,对每个维度的事件指令进行整合,生成融合事件指令。
[0084]
在本实施方式中,在获得了每个维度的事件指令之后,由于每个维度的事件指令是相互独立的且零散的,因此需要对其进行整合,从而实现一个完整的控制逻辑。在进行整合时,可以按照调用应用程序的优先级进行调整。在进行整合时,还可以按照调用应用程序的控制逻辑进行调整。
[0085]
作为示例的,若语音维度的事件指令为“启动空调控制器的电源,并向空调控制器发送将空调工作模式调为制冷模式的控制指令。”因此其对应调用的目标程序则为空调控制程序,若手势维度的事件指令为“启动座椅控制器的电源,并向座椅控制器发送座椅交角度调整控制指令。”因此其对应调用的目标程序则为座椅控制程序,而座椅控制程序的优先级低于空调控制程序的优先级。因此在进行整合时,手势维度的事件指令在语音维度的事件指令之前执行。
[0086]
作为示例的,若语音维度的事件指令为“启动空调控制器的电源,并向空调控制器发送将空调工作模式调为制冷模式的控制指令。”因此其对应的控制逻辑是启动空调,若手势维度的事件指令为“向空调控制器发送将空调温度调为xx温度的控制指令。”因此其对应的控制逻辑是对温度的调整。而在对空调进行控制时,通常的控制逻辑为先启动空调,再调整温度,因此在进行整合时,手势维度的事件指令在语音维度的事件指令之后执行。
[0087]
因此,按照上述整合逻辑,将每个维度的事件指令进行整合,从而生成多个维度的融合事件指令。基于此,就完成了第一部分车辆识别用户的意图的任务。
[0088]
s105:根据融合事件指令,执行目标控制动作。
[0089]
在本实施方式中,在完成人机交互第一部分的内容之后,即在融合交互语义层生成融合事件指令之后,需要将融合事件指令发送给对应的控制程序,已达到目标控制结果,其具体的步骤可以为:
[0090]
s105-1:确定融合事件指令的目标控制程序;
[0091]
s105-2:确定目标控制程序中所执行的目标应用逻辑;
[0092]
s105-3:根据目标应用逻辑,对物理设备进行控制。
[0093]
在s105-1至s105-3的实施方式中,融合事件指令的目标控制程序即为各个维度的事件指令确定的目标控制程序。
[0094]
作为示例的,如图3所示的融合显示管理层的示意图,其包括:显示语义层、显示语法层和物理设备层。若融合事件指令a其对应的目标控制程序包括:香氛控制程序、座椅控制程序、氛围灯控制程序以及语音系统程序。在确定目标控制程序之后,将融合事件指令输入到融合显示语义层,即可获得具体的控制指令,例如显示指令、氛围灯显示指令等,然后将具体的控制指令输入到显示语法层,即可获得对于目标控制程序的具体控制逻辑,例如对于氛围灯控制程序,其目标应用逻辑则可以为:“氛围灯的灯光控制时序”,对于语音系统程序其目标应用逻辑则可以为:“采用xx的声音音效,播放祝xx生日快乐”。然后将在物理设备中,首先开启氛围灯的电源,然后按照目标应用逻辑对应的氛围灯控制时序对氛围灯进行控制,并同时通过车辆的音响设备播放:“祝xx生日快乐”的语音内容。
[0095]
在一种可行的实施方式中,映射字典是通过以下步骤获得的:
[0096]
获取车辆的硬件支持能力,并根据车辆的硬件支持能力构建事件源与事件指令的映射关系;
[0097]
将事件源与事件指令的映射关系储存在映射字典中。
[0098]
在本实施方式中,在构建映射字典之前,首先需要获取车辆的硬件支持能力,硬件支持能力是指车辆的硬件设备所支持的能力,作为示例的,若车辆支持智能香氛功能,则可以在事件源为“生日庆祝”时,添加“打开智能香氛”的事件指令。因此,车辆输出的事件指令的维度也取决于车辆的所包含硬件设备的数量和种类。而用户可以根据自身的需求来构建事件源与事件指令的映射关系。
[0099]
下面以一个完整的实施例对本技术的方案进行说明,用户想要庆祝结婚纪念日。首先,用户通过手势和按键进行输入,生成多个维度的交互指令,车辆对用户的按键输入和手势输进行识别,确定识别结果对应的目标事件源为“庆祝结婚纪念日”,然后查找映射字典,确定对应的事件指令为“首先打开氛围灯,然后打开香氛系统,最后播放用户预先录入的语音内容”。然后将时间指令下发给车辆的各个应用程序,然后各个应用程序执行上述的动作指令。从而通过多个维度的输出来对用户的输入进行响应,给用户带来全方位体验,提高了用户的使用体检,用户仅需简单的操作,就能实现复杂的反馈,提高了智能机器智能化水平。
[0100]
本发明实施例还提供了一种人机交互装置,参照图4,示出了本发明一种人机交互装置的功能模块图,该装置可以包括以下模块:
[0101]
获取模块401,用于获取用户输入的不同维度的交互指令;
[0102]
识别模块402,用于生成每个维度的交互指令的识别结果;
[0103]
匹配模块403,用于根据每个维度的交互指令的识别结果,确定每个维度的事件指令;
[0104]
融合模块404,用于按照预设控制逻辑和优先级,对每个维度的事件指令进行整合,生成融合事件指令;
[0105]
执行模块405,用于根据融合事件指令,执行目标控制动作。
[0106]
在一种可行的实施方式中,识别模块402包括:
[0107]
第一识别子模块,用于确定每个维度的交互指令对应的目标识别方式;
[0108]
第二识别子模块,用于根据目标识别方式,分别获得每个维度的交互指令对应的识别结果。
[0109]
在一种可行的实施方式中,匹配模块403包括:
[0110]
确定子模块,用于确定每个维度的交互指令的识别结果对应的目标事件源;
[0111]
查找子模块,用于以目标事件源为索引,遍历映射字典,确定与目标事件源匹配的事件指令。
[0112]
在一种可行的实施方式中,执行模块405包括:
[0113]
第一确定子模块,用于确定融合事件指令的目标控制程序;
[0114]
第二确定子模块,用于确定目标控制程序中所执行的目标应用逻辑;
[0115]
控制子模块,用于根据目标应用逻辑,对物理设备进行控制。
[0116]
在本发明提供的又一实施例中,还提供了一种车辆,车辆包括处理器,处理器用于执行时实现如本发明实施例第一方面提出方法。
[0117]
基于同一发明构思,本发明另一实施例提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信,
[0118]
存储器,用于存放计算机程序;
[0119]
处理器,用于执行存储器上所存放的程序时,实现本发明的人机交互方法。
[0120]
上述终端提到的通信总线可以是外设部件互联标准(peripheralcomponentinterconnect,简称pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,简称eisa)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于上述终端与其他设备之间的通信。存储器可以包括随机存取存储器(randomaccessmemory,简称ram),也可以包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储系统。
[0121]
上述的处理器可以是通用处理器,包括中央处理器(centralprocessingunit,简称cpu)、网络处理器(networkprocessor,简称np)等;还可以是数字信号处理器(digitalsignalprocessing,简称dsp)、专用集成电路(applicationspecificintegratedcircuit,简称asic)、现场可编程门阵列(field-programmablegatearray,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
[0122]
此外,为实现上述目的,本技术的实施例还提出了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时实现本技术实施例的人机交互方法。
[0123]
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、系统、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用车辆(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0124]
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的系统。
[0125]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令系统的制造品,该指令系统实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0126]
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0127]
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将
一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。“和/或”表示可以选择两者之中的任意一个,也可以两者都选择。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性地包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
[0128]
以上对本发明所提供的一种人机交互方法、装置、电子设备及车辆,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1