一种交通事故监控方法及系统与流程

文档序号:12473739阅读:203来源:国知局
一种交通事故监控方法及系统与流程

本发明涉及交通监控技术领域,特别涉及一种交通事故监控方法及系统。



背景技术:

目前,随着经济的快速发展,城市的汽车保有量不断增加,导致现在许多城市的日常交通变得越来越拥堵,并且交通事故不断频发,给人们的生命财产安全造成了极度恶劣的影响。

为了尽可能地减少交通事故数量以及降低交通事故所引发的生命财产损失,有必要对道路上可能出现的交通事故进行实时监控。而如何实现对交通事故的有效监控是目前还有待解决的问题。



技术实现要素:

有鉴于此,本发明的目的在于提供一种交通事故监控方法及系统,实现了对交通事故的有效监控。其具体方案如下:

一种交通事故监控方法,包括:

获取路况视频;

提取所述路况视频的特征信息;其中,所述路况视频的特征信息包括所述路况视频的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征;

将根据所述路况视频的特征信息生成的特征向量输入预先创建的交通事故预估模型,得到由所述交通事故预估模型输出的交通事故发生概率;其中,所述交通事故预估模型为基于机器学习算法得到的模型;

若所述交通事故发生概率大于预设概率阈值,则触发相应的事故响应机制。

优选的,提取所述路况视频的视觉词典的过程,包括:

利用预设的图像特征点提取算法,提取所述路况视频中车辆所在区域上的特征点,得到相应的车辆视觉词汇集合;

将所述车辆视觉词汇集合中的每一个词汇分别映射至预先创建的视觉词典模型中相对应的聚类中心,得到所述路况视频的视觉词典。

优选的,所述视觉词典模型的创建过程,包括:

获取视频图像样本集;其中,所述视频图像样本集包括分别在不同的拍摄参数和不同的拍摄环境下,对不同类型的车辆进行视频图像采集后得到的视频图像;拍摄参数包括拍摄视角和拍摄时间段,拍摄环境包括雾天环境、雨雪环境、晴天环境和沙尘环境;

利用所述图像特征点提取算法,对所述视频图像样本集中的每一视频图像样本进行特征点提取处理,相应地得到每一视频图像样本所对应的车辆视觉词汇集合;

利用K-means聚类算法,依次对每一视频图像样本所对应的车辆视觉词汇集合进行聚类处理,得到所述视觉词典模型。

优选的,所述路况视频的车流特征包括车流量、车流速度、车流占有率、换道频率、加速度变化率和最大角速度;

所述路况视频的司机状态特征包括司机疲劳度;

所述路况视频的道路特征包括交通灯设置状况、道路坡度、道路弯曲度和道路摩擦因子;

所述路况视频的环境特征包括路面异物状况和天气状况;

所述路况视频的时间特征包括视频拍摄日期和视频拍摄时刻。

优选的,所述触发相应的事故响应机制的过程,包括:

产生第一控制指令;

将所述第一控制指令以及事故路段的位置信息发送至预先绑定的无人机,以利用所述第一控制指令,控制所述无人机开启自身携带的画面采集装置以及飞行至所述事故路段的上空区域;

获取所述无人机发送的由所述画面采集装置采集到的事故路段实时画面。

优选的,所述触发相应的事故响应机制的过程,包括:

产生第二控制指令;

将所述第二控制指令发送至预先在事故路段上设置的报警装置,以利用所述第二控制指令,控制所述报警装置发出相应的警报信息。

优选的,所述交通事故预估模型的创建过程,包括:

获取训练集;其中,所述训练集包括正样本训练集和负样本训练集;所述正样本训练集包括N个正样本视频,所述负样本训练集包括M个负样本视频,N和M均为正整数;正样本视频为包含交通事故画面的视频,负样本视频为不包含交通事故画面的视频;

分别提取所述训练集中每一个视频的特征信息,并分别根据每一个视频的特征信息生成相应的特征向量,得到相应的特征向量集;

利用所述机器学习算法,对所述特征向量集中的每个特征向量进行学习训练,得到所述交通事故预估模型。

本发明还公开了一种交通事故监控系统,包括:

视频获取装置,用于获取路况视频;

特征信息提取模块,用于提取所述路况视频的特征信息;其中,所述路况视频的特征信息包括所述路况视频的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征;

特征向量生成模块,用于根据所述路况视频的特征信息,生成相应的特征向量;

模型创建模块,用于预先基于机器学习算法创建交通事故预估模型;

事故预估模块,用于将所述特征向量生成模块生成的特征向量输入所述交通事故预估模型,得到由所述交通事故预估模型输出的交通事故发生概率;其中,所述交通事故预估模型为基于机器学习算法得到的模型;

事故响应模块,用于当所述交通事故发生概率大于预设概率阈值,则触发相应的事故响应机制。

优选的,所述事故响应模块,包括:

第一指令生成单元,用于产生第一控制指令;

控制信息发送单元,用于将所述第一控制指令以及事故路段的位置信息发送至预先绑定的无人机,以利用所述第一控制指令,控制所述无人机开启自身携带的画面采集装置以及飞行至所述事故路段的上空区域;

画面信息获取单元,用于获取所述无人机发送的由所述画面采集装置采集到的事故路段实时画面。

优选的,所述模型创建模块,包括:

训练集获取子模块,用于获取训练集;其中,所述训练集包括正样本训练集和负样本训练集;所述正样本训练集包括N个正样本视频,所述负样本训练集包括M个负样本视频,N和M均为正整数;正样本视频为包含交通事故画面的视频,负样本视频为不包含交通事故画面的视频;

视频处理子模块,用于分别提取所述训练集中每一个视频的特征信息,并分别根据每一个视频的特征信息生成相应的特征向量,得到相应的特征向量集;

训练子模块,用于利用所述机器学习算法,对所述特征向量集中的每个特征向量进行学习训练,得到所述交通事故预估模型。

本发明中,交通事故监控方法,包括:获取路况视频;提取路况视频的特征信息;其中,路况视频的特征信息包括路况视频的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征;将根据路况视频的特征信息生成的特征向量输入预先创建的交通事故预估模型,得到由交通事故预估模型输出的交通事故发生概率;其中,交通事故预估模型为基于机器学习算法得到的模型;若交通事故发生概率大于预设概率阈值,则触发相应的事故响应机制。

可见,本发明预先基于机器学习算法创建了交通事故预估模型,在获取到路况视频后,将会对路况视频中的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征,然后将根据这些特征信息生成的特征向量输入至上述交通事故预估模型,从而得到相应的交通事故发生概率,基于该交通事故发生概率,可确定出是否需要启动相应的事故响应机制。由于路况视频中的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征能够客观、全面地反映出当前路况交通的状况,可使得最终通过上述交通事故预估模型所得到的交通事故发生概率能够比较准确地反映出当前路况下发生交通事故的可能性。由此可见,本发明实现了对交通事故的有效监控。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1为本发明实施例公开的一种交通事故监控方法流程图;

图2为本发明实施例公开的视觉词典模型创建方法流程图;

图3为本发明实施例公开的交通事故预估模型创建方法流程图;

图4为本发明实施例公开的一种交通事故监控系统结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明实施例公开了一种交通事故监控方法,参见图1所示,该方法包括:

步骤S11:获取路况视频。

具体的,本实施例可以利用安装在道路旁的摄像机来对当前道路上的路况进行实时的视频画面采集,得到上述路况视频。

步骤S12:提取路况视频的特征信息;其中,路况视频的特征信息包括路况视频的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征。

可以理解的是,在提取上述路况视频的特征信息之前,还可以对上述路况视频进行预处理,该预处理过程包括但不限于视频画面缩放处理、视频画面降噪处理和视频画质增强处理。

另外,需要说明的是,本实施例中,上述视觉词典中的视觉词汇具体为路况视频中车辆所在区域上的车辆特征点信息。

步骤S13:将根据路况视频的特征信息生成的特征向量输入预先创建的交通事故预估模型,得到由交通事故预估模型输出的交通事故发生概率;其中,交通事故预估模型为基于机器学习算法得到的模型。

也即,本实施例需要利用上述步骤S12中提取到的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征,来生成相对应的特征向量,然后将该特征向量输入至预先基于机器学习算法得到的交通事故预估模型。

本实施例中,上述步骤S13中的机器学习算法优先采用SVM算法(SVM,即Support Vector Machine)。

步骤S14:若交通事故发生概率大于预设概率阈值,则触发相应的事故响应机制。

本实施例中,上述预设概率阈值具体可以为第一概率阈值,当上述步骤S13中所得到的交通事故发生概率大于上述第一概率阈值,则意味着当前道路上的交通状况比较恶劣,如果不进行交通干预,很可能会出现交通事故,此时可以触发事故预警响应机制。

当然,上述预设概率阈值具体可以为第二概率阈值,当上述步骤S13中所得到的交通事故发生概率大于上述第二概率阈值,则可以认定当前道路上已经出现了交通事故,此时可以触发事故后处理响应机制。

可以理解的是,上述第二概率阈值大于上述第一概率阈值,这两个概率阈值具体可以根据实际情况需要来进行设定,在此不对其进行具体限定。

可见,本发明实施例预先基于机器学习算法创建了交通事故预估模型,在获取到路况视频后,将会对路况视频中的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征,然后将根据这些特征信息生成的特征向量输入至上述交通事故预估模型,从而得到相应的交通事故发生概率,基于该交通事故发生概率,可确定出是否需要启动相应的事故响应机制。由于路况视频中的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征能够客观、全面地反映出当前路况交通的状况,可使得最终通过上述交通事故预估模型所得到的交通事故发生概率能够比较准确地反映出当前路况下发生交通事故的可能性。由此可见,本发明实施例实现了对交通事故的有效监控。

本发明实施例公开了一种具体的交通事故监控方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:

上一实施例步骤S12中,需要对路况视频中的特征信息进行提取。具体的,本实施例中,上述提取路况视频的视觉词典的过程,具体包括下面步骤S121和S122:

步骤S121:利用预设的图像特征点提取算法,提取路况视频中车辆所在区域上的特征点,得到相应的车辆视觉词汇集合。

可以理解的是,上述路况视频中车辆所在区域上的特征点构成了该路况视频的视觉词汇,该路况视频中车辆所在区域上的所有特征点构成了上述路况视频对应的车辆视觉词汇集合。

步骤S122:将车辆视觉词汇集合中的每一个词汇分别映射至预先创建的视觉词典模型中相对应的聚类中心,得到路况视频的视觉词典。

也即,根据上述视觉词典模型中相对应的聚类中心,对上述车辆视觉词汇集合中的每个词汇进行分类处理,然后统计每类词汇中的词汇频率,从而得到与上述路况视频对应的视觉词典。可以理解的是,上述视觉词典反映了路况视频中车辆的特征信息。

另外,参见图2所示,上述视觉词典模型的创建过程,具体包括:

步骤S21:获取视频图像样本集;其中,视频图像样本集包括分别在不同的拍摄参数和不同的拍摄环境下,对不同类型的车辆进行视频图像采集后得到的视频图像;拍摄参数包括拍摄视角和拍摄时间段,拍摄环境包括雾天环境、雨雪环境、晴天环境和沙尘环境;

步骤S22:利用图像特征点提取算法,对视频图像样本集中的每一视频图像样本进行特征点提取处理,相应地得到每一视频图像样本所对应的车辆视觉词汇集合;

步骤S23:利用K-means聚类算法,依次对每一视频图像样本所对应的车辆视觉词汇集合进行聚类处理,得到视觉词典模型。

本实施例中,上述图像特征点提取算法具体可以为SIFT算法(SIFT,即Scale-Invariant Feature Transform,尺度不变特征变换)或SURF算法(SURF,即Speeded Up Robust Features,加速稳健特征)。

上一实施例步骤S12中,所提取的路况视频的特征信息包括路况视频的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征。

具体的,上述路况视频的车流特征包括车流量、车流速度、车流占有率、换道频率、加速度变化率和最大角速度。

其中,上述车流量是指在某一特定时间段内通过某个检测断面的行驶车辆数;上述车流速度是指路况视频中各辆车速度的算术平均值;上述加速度变化率是指在在某一特定时间段内车辆加速度的方差值;上述最大角速度是指在某一特定时间段内通过道路的最大角速度;上述车流占有率是指车辆占有长度总和与路面长度的比值,考虑到无法在路段上采用直接的方法来测量车辆长度的总和,本发明实施例具体可以利用时间量来间接计算上述车流占有率,具体的计算公式为:

式中,Foccupy表示车流占有率,Toccupy表示道路被车辆占有的时间,Tall表示总观测时间。

另外,上述换道频率是指在某一特定时间段内车辆的平均换道次数,相应的计算公式为:

式中,Fchannel表示换道频率,nchannel表示换道总次数,Fnum表示路况视频中的车辆总数。

本实施例中,上述路况视频的司机状态特征包括司机疲劳度。具体的,可以采用司机的眨眼频次作为衡量司机疲劳度的参数。

本实施例中,上述路况视频的道路特征包括交通灯设置状况、道路坡度、道路弯曲度和道路摩擦因子。具体的,本实施例可以通过判断是否有交通灯来衡量道路的交通灯设置状况;上述道路坡度可以通过利用道路的高度除以道路的水平距离来得到;上述道路弯曲度具体表示为在道路方向上每米长度所对应的弯曲弦高;上述道路摩擦因子具体为轮胎与路面间的摩擦系数。

本实施例中,上述路况视频的环境特征包括路面异物状况和天气状况。其中,上述路面异物状况具体可以表示为道路的垃圾占有长度与道路总长度的比值;上述天气状况包括雾天、雨雪天气、晴天和沙尘天气等。

本实施例中,上述路况视频的时间特征包括视频拍摄日期和视频拍摄时刻。

上一实施例步骤S14中,在交通事故发生概率大于预设概率阈值的情况下,会触发相应的事故响应机制。具体的,本实施例中,上述触发相应的事故响应机制的过程,包括下面步骤S141至S143:

步骤S141:产生第一控制指令;

步骤S142:将第一控制指令以及事故路段的位置信息发送至预先绑定的无人机,以利用第一控制指令,控制无人机开启自身携带的画面采集装置以及飞行至事故路段的上空区域;

步骤S143:获取无人机发送的由画面采集装置采集到的事故路段实时画面。

可以理解的是,上述步骤S141至S143中所对应的事故响应机制具体可以是判定道路已经出现交通事故的情况之后展开的,当然,也可以是在判定出将会出现交通事故之后展开。

需要进一步指出的是,在判定道路已经出现交通事故的情况之后,可以利用上述人工识别方法或深度学习算法,对上述无人机发送的事故路段实时画面进行分析,得到当前道路上的交通事故等级。

本实施例中,交通事故等级可以划分为:一般事故,意味着车辆有轻微的损伤;较大事故,意味着车辆变形较严重,车辆内的人员均可以正常行动;重大事故,意味着车辆内的人员负伤,并且出血严重;特别重大事故,意味着车辆内的人员被困与车内。

进一步的,上述触发相应的事故响应机制的过程,还可以括:产生第二控制指令,然后将第二控制指令发送至预先在事故路段上设置的报警装置,以利用第二控制指令,控制报警装置发出相应的警报信息。

需要说明的是,上述报警装置可以预先设置于交通信号杆上,也可以设置在事故路段的两旁,例如设置在道路两旁路灯灯杆上。上述报警装置的数量可以是一个,也可以是一个以上。上述报警装置的类型具体可以是声光报警器,当然,也可以采用语音报警器。

上一实施例步骤S13中,需要利用预先创建的交通事故预估模型来确定当前的交通事故发生概率。参见图3所示,上述交通事故预估模型的创建过程,具体可以包括:

步骤S131:获取训练集;其中,训练集包括正样本训练集和负样本训练集;正样本训练集包括N个正样本视频,负样本训练集包括M个负样本视频,N和M均为正整数;正样本视频为包含交通事故画面的视频,负样本视频为不包含交通事故画面的视频。

需要说明的是,为了出现数据倾斜的现象,本实施例中可以尽量保证上述正样本训练集和负样本训练集中的样本数量相同或大致相同,也即,尽量保证上述N值和M值相同或相近。

步骤S132:分别提取训练集中每一个视频的特征信息,并分别根据每一个视频的特征信息生成相应的特征向量,得到相应的特征向量集。

其中,上述步骤S132在提取训练集中每个视频的特征信息的具体过程与上一实施例步骤S12中的提取路况视频的特征信息的具体过程相似,在此不再进行赘述。

步骤S133:利用机器学习算法,对特征向量集中的每个特征向量进行学习训练,得到交通事故预估模型。

其中,上述机器学习算法具体可以为SVM算法。

相应的,本发明实施例还公开了一种交通事故监控系统,参见图4所示,该系统包括:

视频获取装置11,用于获取路况视频;

特征信息提取模块12,用于提取路况视频的特征信息;其中,路况视频的特征信息包括路况视频的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征;

特征向量生成模块13,用于根据路况视频的特征信息,生成相应的特征向量;

模型创建模块14,用于预先基于机器学习算法创建交通事故预估模型;

事故预估模块15,用于将特征向量生成模块13生成的特征向量输入交通事故预估模型,得到由交通事故预估模型输出的交通事故发生概率;其中,交通事故预估模型为基于机器学习算法得到的模型;

事故响应模块16,用于当交通事故发生概率大于预设概率阈值,则触发相应的事故响应机制。

可见,本发明实施例预先基于机器学习算法创建了交通事故预估模型,在获取到路况视频后,将会对路况视频中的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征,然后将根据这些特征信息生成的特征向量输入至上述交通事故预估模型,从而得到相应的交通事故发生概率,基于该交通事故发生概率,可确定出是否需要启动相应的事故响应机制。由于路况视频中的视觉词典、车流特征、司机状态特征、道路特征、环境特征和时间特征能够客观、全面地反映出当前路况交通的状况,可使得最终通过上述交通事故预估模型所得到的交通事故发生概率能够比较准确地反映出当前路况下发生交通事故的可能性。由此可见,本发明实施例实现了对交通事故的有效监控。

本实施例中,上述特征信息提取模块具体可以包括视觉词汇提取子模块、词典模型创建子模块和视觉词典生成子模块;其中,

视觉词汇提取子模块,用于利用预设的图像特征点提取算法,提取路况视频中车辆所在区域上的特征点,得到相应的车辆视觉词汇集合;

词典模型创建子模块,用于预先创建视觉词典模型;

视觉词典生成子模块,用于将车辆视觉词汇集合中的每一个词汇分别映射至上述视觉词典模型中相对应的聚类中心,得到路况视频的视觉词典。

本实施例中,上述词典模型创建子模块具体包括样本集获取单元、特征点提取单元和词汇聚类单元;其中,

样本集获取单元,用于获取视频图像样本集;其中,视频图像样本集包括分别在不同的拍摄参数和不同的拍摄环境下,对不同类型的车辆进行视频图像采集后得到的视频图像;拍摄参数包括拍摄视角和拍摄时间段,拍摄环境包括雾天环境、雨雪环境、晴天环境和沙尘环境;

特征点提取单元,用于利用图像特征点提取算法,对视频图像样本集中的每一视频图像样本进行特征点提取处理,相应地得到每一视频图像样本所对应的车辆视觉词汇集合;

词汇聚类单元,用于利用K-means聚类算法,依次对每一视频图像样本所对应的车辆视觉词汇集合进行聚类处理,得到视觉词典模型。

本实施例中,上述图像特征点提取算法具体可以为SIFT算法或SURF算法。

进一步的,上述事故响应模块具体可以包括第一指令生成单元、控制信息发送单元和画面信息获取单元;其中,

第一指令生成单元,用于产生第一控制指令;

控制信息发送单元,用于将第一控制指令以及事故路段的位置信息发送至预先绑定的无人机,以利用第一控制指令,控制无人机开启自身携带的画面采集装置以及飞行至事故路段的上空区域;

画面信息获取单元,用于获取无人机发送的由画面采集装置采集到的事故路段实时画面。

可以理解的是,上述由第一指令生成单元、控制信息发送单元和画面信息获取单元所触发的事故响应机制具体可以是判定道路已经出现交通事故的情况之后展开的,当然,也可以是在判定出将会出现交通事故之后展开。

需要进一步指出的是,在判定道路已经出现交通事故的情况之后,还可以包括事故等级获取模块,用于通过上述人工识别方法或深度学习算法,对上述无人机发送的事故路段实时画面进行分析,得到当前道路上的交通事故等级。

本实施例中,交通事故等级可以划分为:一般事故,意味着车辆有轻微的损伤;较大事故,意味着车辆变形较严重,车辆内的人员均可以正常行动;重大事故,意味着车辆内的人员负伤,并且出血严重;特别重大事故,意味着车辆内的人员被困与车内。

当然,上述事故响应模块具体也可以包括第二指令生成单元,用于产生第二控制指令,然后将第二控制指令发送至预先在事故路段上设置的报警装置,以利用第二控制指令,控制报警装置发出相应的警报信息。

需要说明的是,上述报警装置可以预先设置于交通信号杆上,也可以设置在事故路段的两旁,例如设置在道路两旁路灯灯杆上。上述报警装置的数量可以是一个,也可以是一个以上。上述报警装置的类型具体可以是声光报警器,当然,也可以采用语音报警器。

另外,本实施例中,上述模型创建模块,具体包括训练集获取子模块、视频处理子模块和训练子模块;其中,

训练集获取子模块,用于获取训练集;其中,训练集包括正样本训练集和负样本训练集;正样本训练集包括N个正样本视频,负样本训练集包括M个负样本视频,N和M均为正整数;正样本视频为包含交通事故画面的视频,负样本视频为不包含交通事故画面的视频;

视频处理子模块,用于分别提取训练集中每一个视频的特征信息,并分别根据每一个视频的特征信息生成相应的特征向量,得到相应的特征向量集;

训练子模块,用于利用机器学习算法,对特征向量集中的每个特征向量进行学习训练,得到交通事故预估模型。

需要说明的是,为了出现数据倾斜的现象,本实施例中可以尽量保证上述正样本训练集和负样本训练集中的样本数量相同或大致相同,也即,尽量保证上述N值和M值相同或相近。

其中,上述机器学习算法具体可以为SVM算法。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上对本发明所提供的一种交通事故监控方法及系统进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1