智能车内座舱的制作方法

文档序号:17374518发布日期:2019-04-12 23:09阅读:172来源:国知局
智能车内座舱的制作方法

本发明涉及汽车技术领域,特别涉及一种智能车内座舱。



背景技术:

车辆是人们出行最重要的出行工具之一,随之智能技术的逐渐发展,人们对于乘车时获取到有效信息的需求日益提升。

在实现过程中,发明人发现传统技术中至少存在如下问题:

传统技术中的车内座舱大部分未能根据车内人员的情况提供对应的场景模式和服务资源,同时资源整合有限,一定程度上未能满足用户的出行需求和行驶过程中所需的辅助。由此,传统技术中的车内座舱智能化程度不高,缺少相应的辅助功能。



技术实现要素:

本发明的目的在于针对传统技术中的不足,提供一种智能车内座舱。

根据本发明的实施方式,本发明提供了一种智能车内座舱,包括主控制器、连接主控制器的驾驶员监测系统以及无线通讯模块;驾驶员监测系统包括第一摄像头;

驾驶员监测系统用于通过第一摄像头获取驾驶员的人脸图像,并对驾驶员的人脸图像进行人脸表情识别,根据识别结果确定驾驶员的人脸图像对应的情绪状态信息;并将情绪状态信息发送给主控制器;

无线通讯模块用于将通过云平台服务器获取到的环境数据发送给主控制器;环境数据包括天气数据信息以及道路数据信息;

主控制器用于根据情绪状态信息以及环境数据输出相应的提示信息;提示信息包括开关车窗的提示信息、开关音乐的提示信息以及周边地点提示信息中的任一种或任意种组合。

在其中一个实施例中,主控制器用于根据情绪状态信息以及环境数据输出相应的提示信息,包括:

主控制器在情绪状态信息为悲伤,且天气数据信息表示天气状况良好,和\或道路数据信息表示路况良好时,输出第一提示信息;

主控制器在天气数据信息表示天气状况不佳,且情绪状态信息为厌恶时,输出第二提示信息;

主控制器在情绪状态信息为愉悦,且道路数据信息表示路况良好时,输出第三提示信息。

在其中一个实施例中,驾驶员监测系统还用于通过第一摄像头获取驾驶员的面部表情以及眼睛的开合频率;并在预设间隔时间内检测到驾驶员的面部表情中打哈欠的次数大于或等于预设次数,且眼睛的开合频率大于或等于预设频率时,确定驾驶员为疲劳驾驶,并输出预警信息。

在其中一个实施例中,还包括连接主控制器的信息输入模块;

信息输入模块用于获取驾驶员的出行时间以及出行目的地;

主控制器还用于将出行时间以及出行目的地通过无线通讯模块传输至云平台服务器,并接收云平台服务器根据出行时间、出行目的地以及环境数据返回的最佳行驶路线。

在其中一个实施例中,信息输入模块为语音输入模块以及触摸按键模块中的任一种或组合。

在其中一个实施例中,信息输入模块还用于获取驾驶员信息以及对车辆设备的控制信息,并将驾驶员信息以及车辆设备的控制信息发送给主控制器;

主控制器还用于将驾驶员信息以及车辆设备的控制信息关联地存储;驾驶员信息包括驾龄信息、账号信息以及年龄信息。

在其中一个实施例中,还包括连接主控制器的第二摄像头;

第二摄像头用于获取乘客的人脸图像,并将乘客的人脸图像传输给主控制器;

主控制器还用于在乘客的人脸图像与预存的人脸图像不相符时,输出迎宾场景模式。

在其中一个实施例中,主控制器还用于获取车辆故障代码信息,并通过无线通讯模块将故障代码信息传输至云平台服务器。

在其中一个实施例中,还包括设于车内的车载ar导航装置。

另一方面,本发明还提供了一种汽车,包括智能车内座舱。

上述技术方案中的一个技术方案具有如下优点和有益效果:

本发明的智能车内座舱,包括主控制器、连接主控制器的驾驶员监测系统以及无线通讯模块,通过驾驶员监测系统将驾驶员的人脸图像进行人脸表情识别,以使主控制器根据识别结果以及无线通讯模块获取到的环境数据信息,输出对应的提示信息。本发明各实施例的智能车内座舱,能够基于对驾驶员的表情管理,依照驾驶员的情绪和环境数据,为驾驶员提供具有针对性的信息,以控制相应的车辆设备运行或提供相应的服务信息,对驾驶员的行驶进行辅助,以满足行驶需求。本发明可提升车内座舱的人机交互能力,更加人性化和智能化。

附图说明

图1为本发明一个实施例提供的智能车内座舱的结构示意图;

图2为本发明一个实施例提供的智能车内座舱的具体结构示意图;

图3为本发明一个实施例提供的智能车内座舱的应用场景图。

具体实施方式

为使本发明的目的、技术方案及优点更加清楚明白,以下参照附图结合实施例,对本发明进一步详细说明。

在下文中,将更全面地描述本发明的各种实施例。本发明可具有各种实施例,并且可在其中做出调整和改变。然而,应理解:不存在将本发明保护范围限于在此公开的特定实施例的意图,而是应将本发明理解为涵盖落入本发明的各种实施例的精神和范围内的所有调整、等同物和/或可选方案。

在下文中,可在本发明的各种实施例中使用的术语“包括”或“可包括”指示所公开的功能、操作或元件的存在,并且不限制一个或更多个功能、操作或元件的增加。此外,如在本发明的各种实施例中所使用,术语“包括”、“具有”及其同源词仅意在表示特定特征、数字、步骤、操作、元件、组件或前述项的组合,并且不应被理解为首先排除一个或更多个其它特征、数字、步骤、操作、元件、组件或前述项的组合的存在或增加一个或更多个特征、数字、步骤、操作、元件、组件或前述项的组合的可能性。

在本发明的各种实施例中,表述“各或/和b中的至少一个”包括同时列出的文字的任何组合或所有组合。例如,表述“出或b出或“出或/和b中的至少一个”可包括a、可包括b或可包括a和b二者。

在本发明的各种实施例中使用的表述(诸如“第一”、“第二”等)可修饰在各种实施例中的各种组成元件,不过可不限制相应组成元件。例如,以上表述并不限制元件的顺序和/或重要性。以上表述仅用于将一个元件与其它元件区别开的目的。例如,第一用户装置和第二用户装置指示不同用户装置,尽管二者都是用户装置。例如,在不脱离本发明的各种实施例的范围的情况下,第一元件可被称为第二元件,同样地,第二元件也可被称为第一元件。

应注意到:如果描述将一个组成元件“连接”到另一组成元件,则可将第一组成元件直接连接到第二组成元件,并且可在第一组成元件和第二组成元件之间“连接”第三组成元件。相反地,当将一个组成元件“直接连接”到另一组成元件时,可理解为在第一组成元件和第二组成元件之间不存在第三组成元件。

在本发明的各种实施例中使用的术语仅用于描述特定实施例的目的并且并非意在限制本发明的各种实施例。除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本发明的各种实施例所属领域普通技术人员通常理解的含义相同的含义。术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本发明的各种实施例中被清楚地限定。

参见图1,在一个实施例中,本发明提供了一种智能车内座舱,包括主控制器110、连接主控制器110的驾驶员监测系统120以及无线通讯模块130;所述驾驶员监测系统120包括第一摄像头125;

驾驶员监测系统120用于通过第一摄像头125获取驾驶员的人脸图像,并对驾驶员的人脸图像进行人脸表情识别,根据识别结果确定驾驶员的人脸图像对应的情绪状态信息;并将情绪状态信息发送给主控制器110;

无线通讯模块130用于将通过云平台服务器获取到的环境数据发送给主控制器110;环境数据包括天气数据信息以及道路数据信息;

主控制器110用于根据情绪状态信息以及环境数据输出相应的提示信息;提示信息包括开关车窗的提示信息、开关音乐的提示信息以及周边地点提示信息中的任一种或任意种组合。

例如,人脸图像包括静态图和动态图中的任一种。天气数据信息包括温度和空气质量,道路数据信息包括路况信息和周边地点信息。人脸识别的步骤包括对人脸图像进行统一图像的大小和灰度等归一化预处理,并对预处理后的人脸图像进行特征提取。其中,特征提取可以但不局限于为提取几何特征、统计特征、频率域特征或运动特征等。进一步地,可按照预先设定的分类方法,对特征提取结果进行分类,每个分类结果都可以对应一种情绪状态信息,这样就可以达到确定人脸图像对应的情绪状态信息的目的。可将人类情绪分为6种基本情绪,包括高兴、悲伤、惊讶、恐惧、厌恶、愤怒,每种基本情绪对应一个人脸表情,并依据对应的人脸表情特征训练出对应的模型。驾驶员监测系统预先输入每种人脸表情对应的表情模型,由此,可通过人脸表情识别得到情绪状态信息。进一步地,根据情绪状态信息以环境数据,可输出相应的用于调节情绪的提示信息,如天气状况较好时是否开启车窗,路况良好时是否选择去往适合娱乐的地点场所等。进一步地,主控制器可通过预先嵌入的ai(artificialintelligence)人工智能系统,用于根据情绪状态信息以及结合环境数据,主动推送输出相应的提示信息。

本发明实施例的智能车内座舱,包括主控制器、连接主控制器的驾驶员监测系统以及无线通讯模块,通过驾驶员监测系统将驾驶员的人脸图像进行人脸表情识别,以使主控制器根据识别结果以及无线通讯模块获取到的环境数据信息,输出对应的提示信息。本发明实施例的智能车内座舱,能够基于对驾驶员的表情管理,依照驾驶员的情绪和环境数据,为驾驶员提供具有针对性的信息,以控制相应的车辆设备运行或提供相应的服务信息,对驾驶员的行驶进行辅助,以满足行驶需求。本发明可提升车内座舱的人机交互能力,更加人性化和智能化。

在一个具体的实施例中,主控制器用于根据情绪状态信息以及环境数据输出相应的提示信息,包括:

主控制器在情绪状态信息为悲伤,且天气数据信息表示天气状况良好,和\或道路数据信息表示路况良好时,输出第一提示信息;

主控制器在天气数据信息表示天气状况不佳,且情绪状态信息为厌恶时,输出第二提示信息;

主控制器在情绪状态信息为愉悦,且道路数据信息表示路况良好时,输出第三提示信息。

例如,第一提示信息包括开启车窗的提示信息、第一类地点提示信息以及类播放第一类音乐的提示信息等。主控制器在情绪状态信息表示悲伤时,并且天气数据信息表示天气状况良好,如天气晴朗、空气质量良好和温度适宜,可输出开启车窗的提示信息以使驾驶员呼吸新鲜空气放松心情,和\或者根据道路数据信息表示路况良好,可输出第一类地点提示信息如周边公园等适合放松身心的地点的提示信息,和\或输出播放第一类音乐的提示信息。

进一步地,第二提示信息包括闭合车窗提示信息以及资讯推送提示信息等。主控制器在天气数据信息表示天气状况不佳,如为雷雨天气,风力等级较大,并在情绪状态信息表示为厌恶时,可输出闭合车窗的提示信息。或资讯推送提示信息,以平复驾驶员情绪。

进一步地,第三提示信息包括播放第二类音乐提示信息以及第二类地点提示信息等。主控制器在情绪状态信息为高兴时,可根据当前的道路数据信息,向驾驶员推送第二类地点提示信息如娱乐场所地点信息,或输出播放第二类音乐提示信息等。

具体地,第一类地点可包括适合放松身心的地点,第一类音乐可包括舒缓的音乐,第二类地点可包括热闹的娱乐场所地点,第二类音乐可包括热闹的音乐。较优地,第一类地点、第二类地点、第一类音乐以及第二类音乐可基于主控制器嵌入的ai人工智能系统通过云平台服务器获取得到。

本发明实施例的智能车内座舱,可充分利用大数据资源,实现人工智能对驾驶员的情绪进行管理,可起到辅助驾驶的作用,同时针对性地提供相关服务提示,使得车内座舱的功能丰富化,能够满足多种用户的使用需求,智能化程度高。

参见图1,在一个具体的实施例中,驾驶员监测系统120还用于通过第一摄像头125获取驾驶员的面部表情以及眼睛的开合频率;并在预设间隔时间内检测到驾驶员的面部表情中打哈欠的次数大于或等于预设次数,且眼睛的开合频率大于或等于预设频率时,确定驾驶员为疲劳驾驶,并输出预警信息。

例如,人在疲劳时会有比较典型的面部表情和动作特征,如次数较多的打哈欠和频率较高的眨眼睛。进而可预先依据疲劳时的面部表情和动作特征建立对应的疲劳状态判别模型。因此,在获取到驾驶员的面部表情时可进行面部识别以及眼睛的定位,在预设间隔时间内识别到驾驶员打哈欠的次数大于或等于预设次数,且眼睛的开合频率大于胡等于预设频率时,则确定为疲劳驾驶。

本发明实施例的智能车内座舱,能够通过驾驶员的面部表情特征和动作对驾驶员的疲劳驾驶进行检测分析,准确率较高,并可在确定为疲劳驾驶时发出预警信息提醒驾驶员,以防止疲劳驾驶引起的事故。

参见图2,在一个具体的实施例中,还包括连接主控制器210的信息输入模块220;

信息输入模块220用于获取驾驶员的出行时间以及出行目的地;

主控制器210还用于将出行时间以及出行目的地通过无线通讯模块传输至云平台服务器,并接收云平台服务器根据出行时间、出行目的地以及环境数据返回的最佳行驶路线。

例如,环境数据中道路数据信息包括的线路、每条路线的拥堵情况以及线路路程,进而云平台服务器可根据出行时间以及出行目的地计算得到最佳行驶路线。其中,最佳行驶路线为各行驶路线中耗时最短以及拥堵程度最轻的路线。由此,主控制器可通过无线通讯模块获取到云平台服务器发送的最佳行驶路线。

本发明实施例的智能车内座舱,通过云智能分析能够根据道路数据信息提供精准的导航路线,以及提高导航效率,从而避免因路况不佳或拥堵而导致的行程延误,本发明实施例智能化程度高,能够满足用户的驾驶需求。

参见图2,在一个具体的实施例中,信息输入模块220为语音输入模块以及触摸按键模块中的任一种或组合。

本发明实施例的智能车内座舱,能够兼容语音识别和手动输入等的信息输入方式,提高了智能化程度和人机交互的能力。

在一个具体的实施例中,信息输入模块还用于获取驾驶员信息以及对车辆设备的控制信息,并将驾驶员信息以及对车辆设备的控制信息发送给主控制器;

主控制器还用于将驾驶员信息以及车辆设备的控制信息关联地存储;驾驶员信息包括驾龄信息、账号信息以及年龄信息。

例如,车辆设备的控制信息包括车窗的开合度、空调的设定温度以及车载音响的预设音量等中的任一种或任意种组合。驾驶员信息用于建立对应的用户账号。进一步地,可通过信息输入模块将设置的车辆设备的控制信息发送给主控制器,以使主控制器将驾驶员信息与车辆设备的控制信息关联地存储,从而建立用户账号与车辆设备的控制信息的对应关系。进而,在通过信息输入模块输入驾驶员信息时,可根据该驾驶员信息调取对应的车辆设备的控制信息,并根据该车辆设备的控制信息对车辆设备进行控制。进一步地,主控制器还可根据驾驶员信息中显示的驾龄信息、年龄信息以及获取到的环境数据,输出驾驶指示信息。驾驶指示信息包括如音量调节提示、路标提示以及雨天时的车速提示等。

本发明实施例的智能车内座舱,可将车辆设备的控制信息与驾驶员信息关联地存储,进而在驾驶时能够根据驾驶员信息调取对应的车辆设备的控制信息,同时,还可依据驾驶员信息提供对应的驾驶提示。本发明实施例能够对用户进行分析,实现个性化的服务。

参加图2,在一个具体的实施例中,还包括连接主控制器210的第二摄像头240;

第二摄像头240用于获取乘客的人脸图像,并将乘客的人脸图像传输给主控制器210;

主控制器210还用于在乘客的人脸图像与预存的人脸图像不相符时,输出迎宾场景模式。

例如,迎宾场景模式包括驱动播放器输出“欢迎乘坐”的语音,以及自定义预设的语音提示,如设置在检测到乘客的人脸图像与预存的人脸图像不相符时,播放自定义的欢迎语音以及扣上安全带等提示语音。

本发明实施例的智能车内座舱,提高了智能化程度和人机交互的能力。

在一个具体的实施例中,主控制器还用于获取车辆故障代码信息,并通过无线通讯模块将故障代码信息传输至云平台服务器。

本发明实施例的智能车内座舱,可将车辆故障代码信息通过无线通讯平台发送到云平台服务器,可实现远程故障分析和检修,同时实现远程系统更新,及时为车辆提供维修信息以提高维修效率。

在一个具体的实施例中,还包括设于车内的车载ar导航装置。

本发明实施例的智能车内座舱,可实时捕捉真实道路场景,并结合车辆的当前定位、地图导航信息以及场景识别进行融合计算,生成虚拟的导航指引模型并叠加到真实道路上,从而创建出更加贴近驾驶员真实视野的导航画面。

在一个具体的实施例中,还包括设于车身外部且连接主控制器210的雷达250。

本发明实施例的智能车内座舱,通过雷达能够实现预测障碍区、预测碰撞以及自适应巡航控制。本发明实施例可提高车辆的安全性能。

在一个具体的实施例中,主控制器还用于通过无线通讯模块连接智能终端。

本发明实施例的智能车内座舱,可连接智能终端,便于实现操作和使用。

为进一步说明本发明实施例的智能车内座舱,以图3为例进行说明,其中图3中的①为硬件布局,②为相关功能实现。

本发明的智能车内座舱,包括①中的主控制器310,以及连接主控制器310的驾驶员监测系统320、无线通讯模块330、触摸按键340、语音输入模块350、第二摄像头360以及雷达370。

进一步地,主控制器可通过触摸按键或者语音输入模块获取驾驶员信息、出行时间或出行目的地,无线通讯模块可通过云平台服务器将获取到的环境数据发送给主控制器。由此主控制器可结合环境数据,根据驾驶员信息、出行时间以及出行目的地,提供②中的相关提示或服务,如油量规划即提醒驾驶员剩余油量,以及可行驶路程;堵车处理即提供拥挤程度轻的路线信息等。进一步地,驾驶员监测系统可识别驾驶员的人脸图像的表情识别,以使主控制器根据表情识别结果提供②中的相关提示或服务,如情绪处理即悲伤时根据天气情况提供周边适宜休闲放松的地点或播放舒缓的音乐,或者在雷雨天气检测到厌恶时提示闭合车窗等。进一步地,在检测到驾驶员疲劳驾驶时,实现②中的疲劳处理即输出预警提示信息提示驾驶员。进一步地,可通过摄像头获取乘客的人脸图像,实现智能迎宾。较优地,本发明实施例的智能车内座舱,将车辆设备的控制信息与驾驶员信息关联地存储,以提供车主个性化服务。

本发明实施例的智能车内座舱,能够基于对驾驶员的表情管理,依照驾驶员的情绪和环境数据,为驾驶员提供具有针对性的信息,以控制相应的车辆设备运行或提供相应的服务信息,对驾驶员的行驶进行辅助,以满足行驶需求。本发明可提升车内座舱的人机交互能力,能够通过云平台大数据提供个性化服务,智能化程度高。

在一个实施例中,本发明还提供一种汽车,包括以上所述的智能车内座舱。

需要说明的是,本实施例汽车中的智能车内座舱的具体实现与上述所述的智能车内座舱相同,在此不再赘述。

本发明实施例的汽车,包括智能车内座舱,能够基于对驾驶员的表情管理,依照驾驶员的情绪和环境数据,为驾驶员提供具有针对性的信息,以控制相应的车辆设备运行或提供相应的服务信息,对驾驶员的行驶进行辅助,以满足行驶需求。本发明实施例的汽车进一步提升的人性化和智能化程度。

本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本发明所必须的。

本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。

上述本发明序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1