一种人脸识别方法、装置、设备及介质与流程

文档序号:19420372发布日期:2019-12-14 01:21阅读:137来源:国知局
一种人脸识别方法、装置、设备及介质与流程
本申请涉及人脸识别
技术领域
,特别涉及一种人脸识别方法、装置、设备及介质。
背景技术
:随着图像处理与模式识别技术的快速进步及人脸识别的便捷性,基于视频图像处理的人脸识别系统得到广泛的运用,例如考勤,出入口控制,安全监控等领域都已经出现了人脸识别系统。在现有技术中,人脸识别效果往往受到光线、化妆、戴眼镜等因素的影响,尤其是戴大黑边框眼镜,严重影响了人脸识别的效果和人脸识别设备的体验感。技术实现要素:有鉴于此,本申请的目的在于提供一种人脸识别方法、装置、设备及介质,能够减少戴眼镜眼镜对人脸识别的影响,从而提升戴眼镜人脸识别的准确率。其具体方案如下:第一方面,本申请公开了一种人脸识别方法,包括:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。可选的,所述对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,包括:获取所述训练样本中眼睛和鼻尖的位置信息;利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。可选的,所述对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,包括:获取所述训练样本中眼镜下边框的位置信息;利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。可选的,所述获取训练样本,包括:获取初始训练样本;对所述初始训练样本中的人脸区域进行提取;将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。第二方面,本申请公开了一种人脸识别装置,包括:样本获取模块,用于获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;区域划分模块,用于对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;模型训练模块,用于将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;图像识别模块,用于当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。第三方面,本申请公开了一种电子设备,包括处理器和存储器;其中,所述存储器,用于保存计算机程序;所述处理器,用于执行所述计算机程序以实现前述的人脸识别方法。第四方面,本申请公开了一种人脸识别设备,包括前述的电子设备。第五方面,本申请公开了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现前述的人脸识别方法。可见,本申请先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。附图说明为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。图1为本申请公开的一种人脸识别方法流程图;图2为本申请公开的一种具体的人脸识别方法流程图;图3为本申请公开的一种具体的人脸图像区域划分图;图4为本申请公开的一种卷积神经网络模型训练方法流程图图5为本申请公开的一种具体的人脸识别方法流程图;图6为本申请公开的一种人脸识别装置结构示意图;图7为本申请公开的一种电子设备结构图;图8为本申请公开的一种人脸识别设备结构图。具体实施方式下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。在现有技术中,人脸识别效果往往受到光线、化妆、戴眼镜等因素的影响,尤其是戴大黑边框眼镜,严重影响了人脸识别的效果和人脸识别设备的体验感。为此,本申请提供了一种人脸识别方案,能够减少戴眼镜对人脸识别的影响,从而提升戴眼镜人脸识别的准确率。参见图1所示,本申请实施例公开了一种人脸识别方法,其特征在于,包括:步骤s11:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像。在具体的实施方式中,本实施例可以先获取初始训练样本,然后对所述初始训练样本中的人脸区域进行提取,并将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。比如,先获取vgg-face2中的全部图像作为初始训练样本,然后利用mtcnn(即multi-taskconvolutionalneuralnetwork,多任务卷积神经网络)人脸检测和对齐算法将获取到的9131个人约320万个初始训练样本进行检测和对齐处理,得到优化后的训练样本,本实施例可以将所有训练样本处理成预设尺寸,比如128*128。步骤s12:对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像。在具体的实施方式中,可以对所述训练样本进行区域划分,得到尺寸相同的第一区域图像和第二区域图像,具体的,可以将所述训练样本划分为大小均为64*128的所述第一区域图像和所述第二区域图像。例如,参见图2所示,图2为本申请实施例公开的一种具体的人脸图像区域划分图。步骤s13:将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度。例如,本实施例可以采用开源的resnet20为待训练的卷积神经网络模型,将所述第一区域图像和所述第二区域图像输入至resnet20,然后分别进行卷积和prelu等操作,分别得到两部分特征,本实施例中将最终融合后的特征维度设置成512维,然后将所述第一区域图像和所述第二区域图像的特征分别设置成112维和400维,最后将这两部分特征进行融合得到新的512维特征,最后将得到的512维特征送入开源的amsoftmaxloss损失函数中继续进行训练,得到训练后模型。具体过程参见图3,图3为本申请公开的一种卷积神经网络模型训练方法流程图。步骤s14:当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。本实施例可以利用摄像头获取待识别人脸图像,然后将获取到的待识别人脸图像输入至所述训练后模型,利用所述训练后模型输出对应的识别结果。另外,本实施例以相同的人脸识别数据集分别采用现有技术的人脸识别方法和本实施例公开的人脸识别方法进行识别测试,其中,所述人脸识别数据集包括戴眼镜人脸识别数据集和标准人脸识别数据集,并且,所述标准人脸识别数据集为包括戴眼镜人脸图像和不戴眼镜人脸图像的数据集。具体结果如表1所示,可以发现,采用本申请实施例中的人脸识别方法,在标准人脸识别数据集上和戴眼镜人脸识别数据集上识别率均得到了一定提升,尤其在戴眼镜人脸识别数据集上识别率大约提升了3%,表明该人脸识别方法对于提升戴眼镜人脸识别率的有效。表1识别率标准人脸识别数据集戴眼镜人脸识别数据集现有人脸识别方法96.75%83.49%本申请中的人脸方法97.26%86%可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。参见图4所示,本申请实施例公开了一种具体的人脸识别方法,包括:步骤s21:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像。其中,关于上述步骤s21的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。步骤s22:获取所述训练样本中眼睛和鼻尖的位置信息。步骤s23:利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线。步骤s24:利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。在具体的实施方式中,本实施例可以利用mtcnn检测算法获取训练样本中眼睛和鼻尖三个点的位置信息,利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线。比如,利用眼睛两点的位置信息确定出第一参考线段,其中,所述第一参考线段包括眼睛两点,然后确定鼻尖位置与第一参考线段之间的一条与第一参考线段平行的线段为第一分界线,并且,本实施例可以调整所述第一界分界线与鼻尖位置和第一参考线段之间的距离,具体可以结合眼镜大小调整前述距离。然后利用第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像。步骤s25:将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度。步骤s26:当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。其中,关于上述步骤s25和s26的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。参见图5所示,本申请实施例公开了一种具体的人脸识别方法,包括:步骤s31:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像。其中,关于上述步骤s31的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。步骤s32:获取所述训练样本中眼镜下边框的位置信息。步骤s33:利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线。步骤s34:利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。在具体的实施方式中,本实施例中的训练样本可以为戴眼镜人脸图像。本实施例可以利用图像检测算法获取训练样本中眼镜下边框两点的位置信息,然后利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线。比如,可以确定出包括眼镜下边框两点的线段为第二分界线,也可以先确定出包括眼镜下边框两点的线段为第二参考线段,然后确定出与所述第二参考线段平行的在所述第二参考线段与预先检测的鼻子位置之间的一条线段为第二分界线,然后利用第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像,其中,所述第一区域图像为包括人眼区域的图像,即所述第一区域图像为包括戴眼镜区域的图像,所述第二区域图像为不包括人眼区域的图像。步骤s35:将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度。步骤s36:当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。其中,关于上述步骤s35和s36的具体过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。参见图6所示,本申请实施例公开了一种人脸识别装置,包括:样本获取模块11,用于获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;区域划分模块12,用于对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;模型训练模块13,用于将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;图像识别模块14,用于当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。其中,所述样本获取模块11,具体可以包括:初始样本获取子模块,用于获取初始训练样本。人脸区域提取子模块,用于对所述初始训练样本中的人脸区域进行提取。人脸区域调整子模块,用于将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。在一种具体的实施方式中,所述区域划分模块12可以包括目标位置获取子模块,用于获取所述训练样本中眼睛和鼻尖的位置信息;第一分界线确定子模块,用于利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;区域划分子模块,用于利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。在另一种具体的实施方式中,所述区域划分模块12可以包括目标位置获取子模块,用于获取所述训练样本中眼镜下边框的位置信息;第二分界线确定子模块,用于利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;区域划分子模块,用于利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。参见图7所示,本申请实施例公开了一种电子设备,本包括处理器21和存储器22;其中,所述存储器22,用于保存计算机程序;所述处理器21,用于执行所述计算机程序,以实现以下步骤:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:获取所述训练样本中眼睛和鼻尖的位置信息;利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:获取所述训练样本中眼镜下边框的位置信息;利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:获取初始训练样本;对所述初始训练样本中的人脸区域进行提取;将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。参见图8所示,本申请实施例公开了一种人脸识别设备20,包括前述实施例中公开的包括处理器21和存储器22的电子设备。关于上述处理器21具体可以执行的步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。进一步的,本实施例中的人脸识别设备20,还可以具体包括:摄像头23,用于采集待识别人脸图像。进一步的,本申请实施例还公开了一种计算机可读存储介质,用于保存计算机程序,其中,所述计算机程序被处理器执行时实现以下步骤:获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像;对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像;将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度;当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。可见,本申请实施例先获取训练样本;其中,所述训练样本为包括人脸标签信息的人脸图像,并对所述训练样本进行区域划分,得到第一区域图像和第二区域图像;其中,所述第一区域图像为包括人眼区域的图像,所述第二区域图像为不包括人眼区域的图像,然后将所述第一区域图像和所述第二区域图像输入至卷积神经网络模型,对所述第一区域图像和所述第二区域图像分别进行卷积操作,得到对应的第一特征和第二特征,然后对所述第一特征和所述第二特征进行融合,得到目标特征,并利用所述目标特征得到训练后模型;其中,所述第一特征的特征维度低于所述第二特征的特征维度,当获取到待识别人脸图像,利用所述训练后模型输出对应的识别结果。也即,本申请实施例先将训练样本划分为包括人眼区域的第一区域图像和不包括人眼区域的第二区域图像,然后在训练过程中减少第一区域图像特征在全部人脸图像特征中所占的比重,这样得到的训练后模型减少了戴眼镜对人脸识别的影响,从而提升了戴眼镜人脸识别的准确率。本实施例中,所述计算机可读存储介质中保存的计算机子程序被处理器执行时,可以具体实现以下步骤:获取所述训练样本中眼睛和鼻尖的位置信息;利用所述眼睛和鼻尖的位置信息确定出所述训练样本的第一分界线;利用所述第一分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。本实施例中,所述计算机可读存储介质中保存的计算机子程序被处理器执行时,可以具体实现以下步骤:获取所述训练样本中眼镜下边框的位置信息;利用所述眼镜下边框的位置信息确定出所述训练样本的第二分界线;利用所述第二分界线对所述训练样本进行区域划分,得到第一区域图像和第二区域图像。本实施例中,所述计算机可读存储介质中保存的计算机子程序被处理器执行时,可以具体实现以下步骤:获取初始训练样本;对所述初始训练样本中的人脸区域进行提取;将不同的所述初始训练样本中提取到的人脸区域的尺寸调整至相同的尺寸,以得到优化后的训练样本。本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或
技术领域
内所公知的任意其它形式的存储介质中。以上对本申请所提供的人脸识别方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1