一种乘客愉悦度评估的方法、系统及电子设备与流程

文档序号:32070423发布日期:2022-11-05 02:10阅读:51来源:国知局
一种乘客愉悦度评估的方法、系统及电子设备与流程

1.本技术涉及自动驾驶领域,尤其涉及一种乘客愉悦度评估的方法、系统及电子设备。


背景技术:

2.随着时代的进步,公众越来越频繁的使用汽车出行。但是人工驾驶汽车容易导致交通事故与交通拥堵,对公众以及社会带来了巨大的安全损失与经济损失,且消耗了公众大量时间。而自动驾驶能够提升驾驶安全,提高整个交通系统的效率,为人们节省时间。对此,一种安全舒适、可完全替代人类驾驶员的自动驾驶技术在近年来成为了迫切需求。
3.传统的自动驾驶算法依赖于人为设定的规则提取特征,但难以解决复杂的实际问题。而深度学习算法具有主动提取特征的能力,能够更好的利用输入的信息提取其中特征,有效解决声音、情绪、心率变化这种难以定义且复杂的实际问题,因此在工程领域中得到广泛应用,推动汽车朝着更加智能的方向进化。
4.然而,基于深度学习算法在现自动驾驶时,通常是以安全驾驶为主要任务,对于乘客的乘坐感受没有关注,忽视了乘客愉悦度,导致车辆不能获取乘客状态,使得车辆无法通过调整自身状态来改善乘客的不适状态,进而导致乘客的乘坐体验不佳。


技术实现要素:

5.本技术提供了一种乘客愉悦度评估的方法、系统及电子设备,用以解决在自动驾驶领域中以安全驾驶为主要任务而忽略了乘客的乘坐体验的问题。具体实现方案如下:
6.第一方面,本技术提供了一种乘客愉悦度评估的方法,所述方法包括:
7.获取车辆数据以及获取乘客数据,其中,车辆数据至少包含一类车辆数据,乘客数据至少包含一类乘客数据;
8.将车辆数据输入第一网络,输出车辆特征图;
9.将乘客数据输入第二网络,输出乘客特征图;
10.将车辆特征图与乘客特征图传入第一融合层,输出乘客愉悦度。
11.通过引入深度学习算法分别提取车辆数据与乘客数据的特征信息,将输出的车辆特征图与乘客特征图联合建模,实现了对自动驾驶舒适度的量化评价。通过该方法在保证安全驾驶的情况下关注了乘客的乘坐感受,评估了乘客愉悦度,使得车辆获取了乘客状态,并调整自身状态来改善了乘客的不适状态,进而提高了乘客的乘坐体验。
12.在一种可能的设计中,获取车辆数据,包括:
13.获取基于惯性测量单元提供的车辆加速度数据;
14.获取基于座舱麦克风提供的车辆噪声数据;
15.将车辆加速度数据以及车辆噪声数据作为车辆数据;
16.获取乘客数据,包括:
17.获取基于座舱麦克风提供的乘客语音信息数据;
18.获取基于座舱摄像头提供的乘客面部图像数据;
19.获取基于座舱心率计提供的乘客心率数据;
20.将乘客语音信息数据、乘客面部图像数据以及乘客心率数据作为乘客数据。
21.在一种可能的设计中,将车辆数据输入第一网络,输出车辆特征图,包括:
22.将车辆加速数据传入加速度处理层,输出加速度特征图;
23.将车辆噪声数据传入噪声处理层,输出噪声特征图;
24.输出包含加速度特征图以及噪声特征图的车辆特征图。
25.在车辆自动驾驶过程中,产生的震动、发动机轰鸣、车体的共振等噪声以及频繁变动的加速度会对乘客愉悦度造成影响。通过上述的方式准确的提取加速度累积值的特征信息以及车辆噪声的特征信息,输出加速度特征图与噪声特征图,从而根据加速度特征图与噪声特征图提高了评估乘客愉悦度的准确率。
26.在一种可能的设计中,将乘客数据输入第二网络,输出乘客特征图,包括:
27.将乘客语音信息数据传入语音处理层,输出关键词特征图;
28.将乘客面部图像数据传入面部处理层,输出表情特征图;
29.将乘客心率数据传入心率处理层,输出心率特征图;
30.将关键词特征图、表情特征图以及心率特征图传入第二融合层,输出乘客特征图。
31.通过上述的方式准确提取了乘客语音信息的特征信息、乘客面部表情的特征信息以及乘客心率的特征信息,输出关键词特征图、表情特征图以及心率特征图,准确的反映了乘客在车辆自动驾驶过程中的情绪变化,从而根据关键词特征图、表情特征图以及心率特征图提高了评估乘客愉悦度的准确率。
32.第二方面,本技术还提供了一种乘客愉悦度评估系统,所述系统包括:
33.获取模块,用于获取车辆数据以及获取乘客数据,其中,车辆数据至少包含一类车辆数据,乘客数据至少包含一类乘客数据;
34.第一特征模块,用于将车辆数据输入第一网络,输出车辆特征图;
35.第二特征模块,用于将乘客数据输入第二网络,输出乘客特征图;
36.处理模块,用于将车辆特征图与乘客特征图传入第一融合层,输出乘客愉悦度。
37.在一种可能的设计中,所述获取模块,具体用于获取基于惯性测量单元提供的车辆加速度数据;
38.获取基于座舱麦克风提供的车辆噪声数据;
39.将车辆加速度数据以及车辆噪声数据作为所述车辆数据;
40.获取基于座舱麦克风提供的乘客语音信息数据;
41.获取基于座舱摄像头提供的乘客面部图像数据;
42.获取基于座舱心率计提供的乘客心率数据;
43.将乘客语音信息数据、乘客面部图像数据以及乘客心率数据作为乘客数据。
44.在一种可能的设计中,所述第一特征模块,具体用于将车辆加速数据传入加速度处理层,输出加速度特征图;
45.将车辆噪声数据传入噪声处理层,输出噪声特征图;
46.输出包含加速度特征图以及噪声特征图的车辆特征图。
47.在一种可能的设计中,所述第二特征模块,具体用于将乘客语音信息数据传入语
音处理层,输出关键词特征图;
48.将乘客面部图像数据传入面部处理层,输出表情特征图;
49.将乘客心率数据传入心率处理层,输出心率特征图;
50.将关键词特征图、表情特征图以及心率特征图传入第二融合层,输出乘客特征图。
51.第三方面,本技术提供了一种电子设备,包括:
52.存储器,用于存放计算机程序;
53.处理器,用于执行存储器上所存放的计算机程序时,实现上述的一种乘客愉悦度评估方法步骤。
54.第四方面,本技术提供了一种计算机可读存储介质,计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述的一种乘客愉悦度评估方法步骤。
55.上述第二方面至第四方面中的各个方面以及各个方面可能达到的技术效果请参照上述针对第一方面或第一方面中的各种可能方案可以达到的技术效果说明,这里不再重复赘述。
附图说明
56.图1为本技术提供的一种乘客愉悦度评估方法的流程图;
57.图2为模拟器乘客愉悦度评估网络的示意图;
58.图3为本技术提供的一种评估乘客愉悦度的处理过程示意图;
59.图4为本技术提供的一种乘客愉悦度评估系统的结构示意图;
60.图5为本技术提供的一种电子设备示意图。
具体实施方式
61.为了使本技术的目的、技术方案和优点更加清楚,下面将结合附图对本技术作进一步地详细描述。方法实施例中的具体操作方法也可以应用于装置实施例或系统实施例中。需要说明的是,在本技术的描述中“多个”理解为“至少两个”。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。a与b连接,可以表示:a与b直接连接和a与b通过c连接这两种情况。另外,在本技术的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。
62.下面结合附图,对本技术实施例进行详细描述。
63.当前,在自动驾驶中,通常是以安全驾驶为主要任务,通过深度学习提取输出数据的特征信息,让车独立做出正确决定,安全地行进到目的地。但是,该类方法通常不关注乘客的乘坐感受,忽视了乘客愉悦度,导致车辆不能获取乘客状态,使得车辆无法通过调整自身状态来改善乘客的不适状态,进而导致乘客的乘坐体验较差。
64.因此,本技术实施例提供了一种乘客愉悦度评估的方法,通过引入深度学习算法分别提取车辆数据与乘客数据的特征信息,将提取后的各类特征信息降维到同一维度后联合建模,实现了对自动驾驶舒适度的量化评价。通过该方法可以在保证安全驾驶的情况下关注乘客的乘坐感受,评估了乘客愉悦度,使得车辆能够获取乘客状态,并调整自身状态来改善乘客的不适状态,进而提高了乘客的乘坐体验。
65.参照图1所示为本技术实施例提供的一种乘客愉悦度评估的方法流程图,该方法包括:
66.s1,获取车辆数据以及获取乘客数据;
67.具体来讲,在实际驾驶场景中,乘客的愉悦度受到车内、车外以及乘客自身的身体情况影响,因此在本技术实施例中通过获取车辆数据以及获取乘客数据对乘客愉悦度进行准确的评估。
68.在本技术实施例中,车辆数据可以包括车辆加速度数据以及车辆噪声数据,具体来讲,在车辆中配置了各种类型的传感器,比如惯性测量单元(inertial motion unit,imu)以及座舱麦克风,通过该imu可以检测到车辆加速度,通过座舱麦克风可以采集到车辆噪声。
69.因此,获取基于imu提供的每一时刻的车辆加速度数据以及获取基于座舱麦克风提供的每一时刻的车辆噪声数据。
70.将上述车辆加速度数据以及上述车辆噪声数据作为车辆数据。这里需要说明的是,车辆数据至少包含一类车辆数据。
71.在本技术实施例中,乘客数据可以包括乘客语音信息数据、乘客面部图像数据以及乘客心率数据,具体来讲,在车辆中配置了各种类型的传感器,比如座舱麦克风、座舱摄像头以及座舱心率计,通过该座舱麦克风可以检测到乘客语音信息,通过座舱摄像头可以检测到乘客面部图像,通过座舱心率计可以检测到乘客心率。
72.因此,获取基于座舱麦克风提供的每一时刻的乘客语音信息数据,获取基于座舱摄像头提供的每一时刻的乘客面部图像数据,获取基于座舱心率计提供的每一时刻的乘客心率数据。
73.将上述乘客语音信息数据、上述乘客面部图像数据以及上述乘客心率数据作为乘客数据。这里需要说明的是,乘客数据至少包含一类乘客数据。
74.s2,将车辆数据输入第一网络,输出车辆特征图;
75.具体来讲,首先将步骤s1中获取的车辆加速数据传入加速度处理层,输出加速度特征图;
76.同时将步骤s1中获取的车辆噪声数据传入噪声处理层,输出噪声特征图;
77.最后输出包含上述加速度特征图以及上述噪声特征图的车辆特征图。
78.在本技术实施例中,加速度处理层具体为:
79.首先将上述车辆加速度数据在笛卡尔坐标系中分解为三个向量,分别对应了车辆在纵向、横向和垂直方向维度的加速度;然后通过上述应了车辆在纵向、横向和垂直方向维度的加速度;然后通过上述三个向量计算加速度变化的加速度累积值;最后通过一维卷积神经网络提取上述加速度累积值的特征信息,输出加速度特征图。
80.这里需要说明的是,在本技术实施例中,加速度累积值的具体计算公式如下:
[0081][0082]
[0083][0084][0085]
其中,为t时间段的加速度变化的加速度累积值,分别为t时间段的车辆在纵向、横向和垂直方向维度的加速度变化的累积值,的车辆在纵向、横向和垂直方向维度的加速度变化的累积值,分别为t+1时间段的车辆在纵向、横向和垂直方向维度的加速度,1时间段的车辆在纵向、横向和垂直方向维度的加速度,分别为t时间段的车辆在纵向、横向和垂直方向维度的加速度。
[0086]
如果加速度变动频繁,必然会对乘客愉悦度造成影响。通过上述的方式准确的提取加速度累积值的特征信息,输出加速度特征图,从而可以根据加速度特征图来提高评估乘客愉悦度的准确率。
[0087]
在本技术实施例中,噪声处理层具体为:
[0088]
首先对上述车辆噪声数据进行滤波处理,保留预设范围内的低频噪声数据;然后通过一维卷积神经网络提取该低频噪声数据的特征信息,最后输出噪声特征图。
[0089]
这里需要说明的是,车辆噪声数据的滤波处理方式可以是基于高斯滤波的滤波处理方式,也可以是按照均值滤波的滤波处理方式,在本技术实施例中并不限定具体的滤波处理方式。
[0090]
在车辆自动驾驶过程中,产生的震动、发动机轰鸣、车体的共振等噪声会直接影响乘客的驾乘体验,进而带来负面影响。通过上述的方式准确的提取噪声的特征信息,输出噪声特征图,从而可以根据噪声特征图来提高评估乘客愉悦度的准确率。
[0091]
s3,将乘客数据输入第二网络,输出乘客特征图;
[0092]
具体来讲,首先将步骤s1中获取的乘客语音信息数据传入语音处理层,输出关键词特征图;
[0093]
同时将步骤s1中获取的乘客面部图像数据传入面部处理层,输出表情特征图;
[0094]
同时将步骤s1中获取的乘客心率数据传入心率处理层,输出心率特征图;
[0095]
最后将上述关键词特征图、上述表情特征图以及上述心率特征图传入第二融合层,输出乘客特征图。
[0096]
这里需要说明的是,在本技术实施例中第二融合层为上述不同类型的数据按1:1:1的比例相加。
[0097]
在本技术实施例中,语音处理层具体为:
[0098]
首先通过transformer算法将上述乘客语音信息数据转化为人类语言的文本信息;然后确定该文本信息与关键词库中含有的关键词一致,输出乘客关键词;最后将上述乘客关键词编码为向量,输出关键词特征图。
[0099]
这里需要说明的是,乘客关键词的编码方式可以是按照不同的编码方式进行编码,在本技术实施例中并不限定具体的编码方式。
[0100]
通过上述的方式准确提取了乘客语音信息的特征信息,输出关键词特征图,准确的反映了乘客在车辆自动驾驶过程中的情绪变化,从而可以根据关键词特征图来提高评估
乘客愉悦度的准确率。
[0101]
在本技术实施例中,面部处理层具体为:
[0102]
首先通过二维卷积神经网络提取上述乘客面部图像数据的特征信息,输出表情特征信息;然后对该表情特征信息进行分类,确定乘客表情,最后输出表情特征图。上述该表情特征信息进行分类的乘客表情分类设置如下表1所示:
[0103]
表1
[0104][0105]
这里需要说明的是,本技术实施例所使用的如表1所示的表情分类设置中,“厌恶”对应标签“0”,表示当面部处理层输出“0”时乘客的表情为“厌恶”;“恐惧”对应标签“1”,表示当面部处理层输出“1”时乘客的表情为“恐惧”;“惊讶”对应标签“2”,表示当面部处理层输出“2”时乘客的表情为“惊讶”;“平静”对应标签“3”,表示当面部处理层输出“3”时乘客的表情为“平静”;“高兴”对应标签“4”,表示当面部处理层输出“4”时乘客的表情为“高兴”。
[0106]
乘客面部表情可以直接反映乘客在车辆自动驾驶过程中的情绪变化,通过上述的方式准确提取乘客面部表情的特征信息,输出表情特征图,从而可以根据表情特征图来提高评估乘客愉悦度的准确率。
[0107]
在本技术实施例中,心率处理层具体为:
[0108]
首先通过上述乘客心率数据计算心率累积值;然后通过一维卷积神经网络提取该心率累积值的特征信息,最后输出心率特征图。
[0109]
这里需要说明的是,在本技术实施例中,心率累积值的具体计算公式如下:
[0110][0111]
其中,δp为心率累积值,t为时间段,为t+1时间段的心率值,为t时间段的心率值。
[0112]
乘客心率可以准确的反映乘客在车辆自动驾驶过程中的情绪波动,通过上述的方式准确提取乘客心率的特征信息,输出心率特征图,从而可以根据心率特征图来提高评估乘客愉悦度的准确率。
[0113]
s4,将车辆特征图与乘客特征图传入第一融合层,输出乘客愉悦度;
[0114]
具体来讲,将步骤s2中获取的包含加速度特征图与噪声特征图的车辆特征图以及步骤s3中获取的乘客特征图传入第一融合层,也就是说,将上述加速度特征图、上述噪声特征图以及上述乘客特征图按1:1:1的比例相加;最后输出乘客愉悦度。
[0115]
通过上述方式可以评估一段时间t的乘客愉悦度,可知在t时间内,数据采用的频率与舒适度的细腻程度成正比。
[0116]
进一步,针对一次完整的自动驾驶车辆的乘客愉悦度评测,本技术实施例提供了一种平均乘客愉悦度与乘客愉悦度方差来反映在整个区间里自动驾驶车辆或算法的舒适度。
[0117]
在本技术实施例中,平均乘客愉悦度的具体计算公式如下:
[0118][0119]
其中,f
avg
为0-n个这样的t时间段内的平均乘客愉悦度,fn为t时间段内的乘客愉悦度。
[0120]
在本技术实施例中,乘客愉悦度方差的具体计算公式如下:
[0121][0122]
其中,为0-n个这样的t时间段内的乘客愉悦度方差。
[0123]
通过平均乘客愉悦度在乘客愉悦度等级表中的位置可以判定乘客的乘坐体验;而乘客愉悦度方差可以反映乘客愉悦度的变化情况,该乘客愉悦度方差越小说明乘客愉悦度的变化越小,进而反映了在0-n时间段内乘客愉悦度的差异较小,乘客愉悦度相对稳定。该乘客愉悦度等级如下表2所示:
[0124]
表2
[0125][0126][0127]
这里需要说明的是,在[0.0,0.6)范围内的乘客愉悦度表示该乘客的乘坐体验为恶劣,在[0.6,0.8)范围内的乘客愉悦度表示该乘客的乘坐体验为中等,在[0.8,0.9)范围内的乘客愉悦度表示该乘客的乘坐体验为舒适,在[0.9,1.0]范围内的乘客愉悦度表示该乘客的乘坐体验为优异。
[0128]
本技术所提出的乘客愉悦度的评估方法,通过引入深度学习算法将车辆数据与乘客数据联合建模,实现了对自动驾驶舒适度的量化评价。通过该方法可以在保证安全驾驶的情况下,且在没有额外添加设备的条件下,关注了乘客的乘坐感受,评估了乘客愉悦度,使得车辆能够获取乘客状态,并调整自身状态来改善乘客的不适状态,进而提高了乘客的乘坐体验。
[0129]
此外,本技术所提出的方法同样可被用各种类型的自动驾驶模拟器中,基于模拟器提供的车辆加速度值,可以定量的评估出用于验证的自动驾驶算法的愉悦度。比如说,如图2所示的算法结构,采用车辆加速度数据与车辆噪声数据可以更快地评估乘客愉悦度,节省了资源。
[0130]
下面结合具体的应用过程对本技术技术方案做进一步的说明。
[0131]
如图3所示为评估乘客愉悦度的处理过程示意图,首先获取车辆加速度数据、车辆噪声数据、乘客面部表情数据、乘客心率数据以及乘客语音信息数据;
[0132]
将乘客面部图像数据经处理后传入卷积神经网络(convolutional neural networks,cnn),输出乘客表情;
[0133]
将乘客语音信息数据经处理后传入语音识别网络transformer,输出乘客关键词;
[0134]
将乘客心率数据传入cnn,输出心率特征;
[0135]
将乘客表情、乘客关键词以及心率特征降到相同维度后相加,输出乘客特征图;
[0136]
将车辆加速度数据传入cnn,输出加速度特征图;
[0137]
将车辆噪声数据传入cnn,输出噪声特征图;
[0138]
将乘客特征图、加速度特征图以及噪声特征图降到相同维度后相加,输出愉悦度。
[0139]
通过上述评估乘客愉悦度的处理过程,引入了深度学习算法分别提取车辆数据与乘客数据的特征信息,并将提取后的各类特征信息降维到同一维度后联合建模,实现了对自动驾驶舒适度的量化评价。通过该方法可以在保证安全驾驶的情况下关注乘客的乘坐感受,评估了乘客愉悦度,使得车辆能够获取乘客状态,并调整自身状态来改善乘客的不适状态,进而提高了乘客的乘坐体验。
[0140]
基于同一发明构思,本技术实施例中还提供了一种乘客愉悦度评估系统,如图4所示为本技术提供的一种乘客愉悦度评估系统的结构示意图,该系统包括:
[0141]
获取模块401,用于获取车辆数据以及获取乘客数据,其中,车辆数据至少包含一类车辆数据,乘客数据至少包含一类乘客数据;
[0142]
第一特征模块402,用于将车辆数据输入第一网络,输出车辆特征图;
[0143]
第二特征模块403,用于将乘客数据输入第二网络,输出乘客特征图;
[0144]
处理模块404,用于将车辆特征图与乘客特征图传入第一融合层,输出乘客愉悦度。
[0145]
在一种可能的设计中,获取模块401,具体用于获取基于惯性测量单元提供的车辆加速度数据;
[0146]
获取基于座舱麦克风提供的车辆噪声数据;
[0147]
将车辆加速度数据以及车辆噪声数据作为车辆数据;
[0148]
获取基于座舱麦克风提供的乘客语音信息数据;
[0149]
获取基于座舱摄像头提供的乘客面部图像数据;
[0150]
获取基于座舱心率计提供的乘客心率数据;
[0151]
将乘客语音信息数据、乘客面部图像数据以及乘客心率数据作为乘客数据。
[0152]
在一种可能的设计中,第一特征模块402,具体用于将车辆加速数据传入加速度处理层,输出加速度特征图;
[0153]
将车辆噪声数据传入噪声处理层,输出噪声特征图;
[0154]
输出包含加速度特征图以及噪声特征图的车辆特征图。
[0155]
在一种可能的设计中,第二特征模块403,具体用于将乘客语音信息数据传入语音处理层,输出关键词特征图;
[0156]
将乘客面部图像数据传入面部处理层,输出表情特征图;
[0157]
将乘客心率数据传入心率处理层,输出心率特征图;
[0158]
将关键词特征图、表情特征图以及心率特征图传入第二融合层,输出乘客特征图。
[0159]
基于同一发明构思,本技术实施例中还提供了一种电子设备,所述电子设备可以实现前述乘客愉悦度评估系统的功能,参考图5,所述电子设备包括:
[0160]
至少一个处理器501,以及与至少一个处理器501连接的存储器502,本技术实施例中不限定处理器501与存储器502之间的具体连接介质,图5中是以处理器501和存储器502之间通过总线500连接为例。总线500在图5中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。总线500可以分为地址总线、数据总线、控制总线等,为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。或者,处理器501也可以称为控制器,对于名称不做限制。
[0161]
在本技术实施例中,存储器502存储有可被至少一个处理器501执行的指令,至少一个处理器501通过执行存储器502存储的指令,可以执行前文论述的乘客愉悦度评估方法。处理器501可以实现图5所示的系统中各个模块的功能。
[0162]
其中,处理器501是该装置的控制中心,可以利用各种接口和线路连接整个该控制设备的各个部分,通过运行或执行存储在存储器502内的指令以及调用存储在存储器502内的数据,该装置的各种功能和处理数据,从而对该装置进行整体监控。
[0163]
在一种可能的设计中,处理器501可包括一个或多个处理单元,处理器501可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器501中。在一些实施例中,处理器501和存储器502可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
[0164]
处理器501可以是通用处理器,例如中央处理器(cpu)、数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本技术实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本技术实施例所公开的乘客愉悦度评估方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
[0165]
存储器502作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器502可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(random access memory,ram)、静态随机访问存储器(static random access memory,sram)、可编程只读存储器(programmable read only memory,prom)、只读存储器(read only memory,rom)、带电可擦除可编程只读存储器(electrically erasable programmable read-only memory,eeprom)、磁性存储器、磁盘、光盘等等。存储器502是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本技术实施例中的存储器502还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
[0166]
通过对处理器501进行设计编程,可以将前述实施例中介绍的乘客愉悦度评估方法所对应的代码固化到芯片内,从而使芯片在运行时能够执行图4所示的实施例的乘客愉悦度评估方法的步骤。如何对处理器501进行设计编程为本领域技术人员所公知的技术,这
里不再赘述。
[0167]
基于同一发明构思,本技术实施例还提供一种存储介质,该存储介质存储有计算机指令,当该计算机指令在计算机上运行时,使得计算机执行前文论述的乘客愉悦度评估方法。
[0168]
在一些可能的实施方式中,本技术提供的乘客愉悦度评估方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在装置上运行时,程序代码用于使该控制设备执行本说明书上述描述的根据本技术各种示例性实施方式的乘客愉悦度评估方法中的步骤。
[0169]
本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0170]
本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0171]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0172]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0173]
显然,本领域的技术人员可以对本技术进行各种改动和变型而不脱离本技术的精神和范围。这样,倘若本技术的这些修改和变型属于本技术权利要求及其等同技术的范围之内,则本技术也意图包含这些改动和变型在内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1