视频车辆检测模型在线更新方法、装置及雷视融合系统与流程

文档序号:30979031发布日期:2022-08-03 00:09阅读:156来源:国知局
视频车辆检测模型在线更新方法、装置及雷视融合系统与流程

1.本发明属于雷达视觉融合技术领域,具体地涉及一种视频车辆检测模型在线更新方法、装置及雷视融合系统。


背景技术:

2.及时有效的交通异常事件及违法驾驶行为的上报和应急处置尤为重要。
3.交通事件是指道路上偶然发生的且非规律性的事件,比如说车辆碰撞、车辆刹车失灵以及各种违规现象,比如超速或违规变道等。现有技术中主要是通过视频监控的方式进行监控,但是对于交通事件的发生与否无法自动判断,通常需要人工监视,或者在事故发生之后被人所知需要查询的时候才会通过人工查阅的方式进行查看,这样使得交通的监控十分的困难并且不及时,难以在交通事件发生的时候迅速的做出反应,容易错失处理交通事件的最佳时机。因此仅仅依靠人工报告/电视监视等非自动检测方法来发现交通事件,不但浪费大量的资源,且不够全面及时,给交通安全带来了二次隐患。
4.为了解决传统通过视频监控或人工浏览判断交通事件的方式,所存在效率极低和无法满足现代化智能时代需求的问题。现有智能交通技术提出了一种基于雷达探测技术和视频车辆检测技术的融合型交通事件检测系统,即通过在道路上方的横杆上布置雷达检测器(即一种通过向路面发射微波和接受反射波来识别车辆的装置,具体是根据多普勒效应原理工作,由悬挂在车道上方一定距离的检测器,向下方的车道发射已知频率的微波波束和接受反射波,通过发射波和反射波的频率差来识别车辆)和视频车辆检测器(即一种采用视频图像处理技术实现某项交通流参数检测或者某项交通事件检测的设备,主要由外场摄像头、数据传输设备和视频处理器组成,具有多种功能以及多种功能的组合能力,最显著的是图像捕获与存储能力,常应用于感应式十字路口信号灯控制系统或电子警察抓拍系统,还能对道路交通流量等数据进行采集并上传至城市交通监控中心),并采用“广域雷达+视频联动”的检测方式,形成了一套劣势互补和优势互融的新型感知系统。例如为了实现实时交通事件检测功能,可通过广域的雷达检测器全天候地对大区域内的车辆进行实时跟踪和精确定位,并通过内置算法与车道进行匹配计算,实现对异常停车、异常变道、缓行拥堵和安全车距等多种交通事件的检测,然后根据交通事件检测结果联动触发视频车辆检测器进行视频拍照截图,再然后通过视频车辆检测器的内部智能ai(artificial intelligence)算法在抓拍图像中标注异常目标,最后将处理得到的报警信息和图像上传至城市交通监控中心,为交通管理部门提供准确的事件预警信息以及违法交通行为视频图像依据,既保证了事件的准确性,又提高了事件的可信性。
5.但是对于部署在所述视频车辆检测器中的视频车辆检测模型,其传统训练方法是在线下进行训练,然后再上线部署在所述视频车辆检测器中,因此模型更新的周期会比较长(一般是一天,效率高的时候为1小时),并且在模型上线后,一般是静态的(即一段时间内不会改变),不会与线上的实际状况有任何互动,如果预测错了(即由于在实际环境中存在光照变化、目标运动复杂性、遮挡、目标与背景颜色相似、杂乱背景和/或恶劣环境等情况,
会造成在视频图像分析中出现大量的误报或漏报,导致检测识别精度不够高),也只能在下一次更新时完成修正。


技术实现要素:

6.为了解决现有视频车辆检测模型在上线后存在更新周期长、因静态而不与线上实际状况互动和无法及时自动进行修正的问题,本发明目的在于提供一种视频车辆检测模型在线更新方法、装置、雷视融合系统及计算机设备及计算机可读存储介质。
7.第一方面,本发明提供了一种视频车辆检测模型在线更新方法,在基于深度学习网络建模而得的视频车辆检测模型上线后执行,包括:
8.将由摄像头采集的视频图像作为待检测图像输入所述视频车辆检测模型,输出得到视频车辆检测结果,其中,所述视频车辆检测结果包含有检测所得车辆在所述视频图像中的车辆图像坐标;
9.根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,其中,所述雷达检测器中的雷达与所述摄像头分别朝同一方向设置;
10.根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度;
11.根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度;
12.针对在所述视频车辆检测模型上线后的各个时刻,将在对应时刻的坐标偏差程度作为用于估量所述视频车辆检测模型在对应时刻的预测结果与真实结果的不一致程度,得到所述视频车辆检测模型在对应时刻的损失函数值,然后计算出在对应时刻损失函数对所述深度学习网络中各个权重的偏导数;
13.针对所述各个权重,按照如下公式迭代更新对应的权重值:
[0014][0015]
式中,i、j和t分别表示自然数,ω
t+1,i
表示第i个权重在t+1时刻的权重值,z
t,i
表示所述第i个权重在t时刻的第一中间量,+=表示复合赋值运算符,g
t,i
表示在t时刻损失函数对所述第i个权重的偏导数,α和λ1分别表示预设的超参数,ni表示所述第i个权重在t时刻的第二中间量,ω
t,i
表示所述第i个权重在t时刻的权重值,η
t
表示所述第i个权重在t时刻的第三中间量,g
j,i
表示在j时刻损失函数对所述第i个权重的偏导数,sgn()表示符号函数;
[0016]
将所述各个权重的最新权重值传入所述深度学习网络中,得到完成在线更新的视
频车辆检测模型。
[0017]
基于上述发明内容,提供了一种在传统雷视融合项目上对视频车辆检测模型进行在线更新的优化方案,即一方面通过更新前的视频车辆检测模型,输出得到检测所得车辆在视频图像中的车辆图像坐标,另一方面根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,然后根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度,再然后根据所述坐标偏差程度得到在所述视频车辆检测模型上线后的各个时刻损失函数对深度学习网络中各个权重的偏导数,最后基于ftrl算法对所述各个权重的权重值进行迭代更新,由此可根据来自所述雷达检测器的线上实时反馈,持续不断地迭代更新所述各个权重的权重值,进而使得如果模型预测错误,可以及时修正所述深度学习网络中的权重,使之自适应线上的实际情况,有效缩短更新周期,实现对所述视频车辆检测模型的在线学习目的,便于实际应用和推广。
[0018]
在一个可能的设计中,所述深度学习网络包括卷积神经网络。
[0019]
在一个可能的设计中,所述检测所得车辆包括机动车或非机动车。
[0020]
在一个可能的设计中,所述车辆图像坐标包含有所述检测所得车辆在所述视频图像中的车辆图像左上角坐标和车辆图像右下角坐标。
[0021]
在一个可能的设计中,根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度,包括:
[0022]
根据所述车辆图像坐标,确定所述检测所得车辆在所述摄像头的相机坐标系下的车辆估算坐标;
[0023]
根据所述雷达坐标系与所述相机坐标系的已知坐标变换关系,将所述车辆真实坐标变换为在所述相机坐标系下的车辆实际坐标;
[0024]
计算所述车辆实际坐标与所述车辆估算坐标的差的平方,得到所述检测所得车辆的坐标偏差程度。
[0025]
第二方面,本发明提供了一种视频车辆检测模型在线更新装置,用于在基于深度学习网络建模而得的视频车辆检测模型上线后启用,包括有视频车辆检测单元、真实坐标确定单元、坐标偏差获取单元、权重偏导数获取单元、权重值更新单元和权重值传入单元;
[0026]
所述视频车辆检测单元,用于将由摄像头采集的视频图像作为待检测图像输入所述视频车辆检测模型,输出得到视频车辆检测结果,其中,所述视频车辆检测结果包含有检测所得车辆在所述视频图像中的车辆图像坐标;
[0027]
所述真实坐标确定单元,通信连接所述视频车辆检测单元,用于根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,其中,所述雷达检测器中的雷达与所述摄像头分别朝同一方向设置;
[0028]
所述坐标偏差获取单元,分别通信连接所述视频车辆检测单元和所述真实坐标确定单元,用于根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度;
[0029]
所述权重偏导数获取单元,通信连接所述坐标偏差获取单元,用于针对在所述视频车辆检测模型上线后的各个时刻,将在对应时刻的坐标偏差程度作为用于估量所述视频车辆检测模型在对应时刻的预测结果与真实结果的不一致程度,得到所述视频车辆检测模
型在对应时刻的损失函数值,然后计算出在对应时刻损失函数对所述深度学习网络中各个权重的偏导数;
[0030]
所述权重值更新单元,通信连接所述权重偏导数获取单元,用于针对所述各个权重,按照如下公式迭代更新对应的权重值:
[0031][0032]
式中,i、j和t分别表示自然数,ω
t+1,i
表示第i个权重在t+1时刻的权重值,z
t,i
表示所述第i个权重在t时刻的第一中间量,+=表示复合赋值运算符,g
t,i
表示在t时刻损失函数对所述第i个权重的偏导数,α和λ1分别表示预设的超参数,ni表示所述第i个权重在t时刻的第二中间量,ω
t,i
表示所述第i个权重在t时刻的权重值,η
t
表示所述第i个权重在t时刻的第三中间量,g
j,i
表示在j时刻损失函数对所述第i个权重的偏导数,sgn()表示符号函数;
[0033]
所述权重值传入单元,通信连接所述权重值更新单元,用于将所述各个权重的最新权重值传入所述深度学习网络中,得到完成在线更新的视频车辆检测模型。
[0034]
第三方面,本发明提供了一种雷视融合系统,包括有在道路上方的横杆上布置的雷达检测器和视频车辆检测器,其中,所述雷达检测器中的雷达与所述视频车辆检测器中的摄像头分别朝同一方向设置;
[0035]
所述视频车辆检测器通信连接所述雷达检测器,用于执行如第一方面或第一方面中任意可能设计所述的视频车辆检测模型在线更新方法。
[0036]
在一种可能设计中,所述雷达采用毫米波雷达。
[0037]
第四方面,本发明提供了一种计算机设备,包括有依次通信连接的存储器、处理器和收发器,其中,所述存储器用于存储计算机程序,所述收发器用于收发消息,所述处理器用于读取所述计算机程序,执行如第一方面或第一方面中任意可能设计所述的视频车辆检测模型在线更新方法。
[0038]
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行如第一方面或第一方面中任意可能设计所述的视频车辆检测模型在线更新方法。
[0039]
第六方面,本发明提供了一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行如第一方面或第一方面中任意可能设计所述的视频车辆检测模型在线更新方法。
附图说明
[0040]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现
有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0041]
图1是本发明提供的视频车辆检测模型在线更新方法的流程示意图。
[0042]
图2是本发明提供的视频车辆检测模型在线更新装置的结构示意图。
[0043]
图3是本发明提供的在雷视融合系统中雷达检测器和视频车辆检测器的布置示意图。
[0044]
图4是本发明提供的计算机设备的结构示意图。
具体实施方式
[0045]
下面结合附图及具体实施例来对本发明作进一步阐述。在此需要说明的是,对于这些实施例方式的说明虽然是用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明示例的实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
[0046]
应当理解,尽管本文可能使用术语第一和第二等等来描述各种对象,但是这些对象不应当受到这些术语的限制。这些术语仅用于区分一个对象和另一个对象。例如可以将第一对象称作第二对象,并且类似地可以将第二对象称作第一对象,同时不脱离本发明的示例实施例的范围。
[0047]
应当理解,对于本文中可能出现的术语“和/或”,其仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a、单独存在b或者同时存在a和b等三种情况;对于本文中可能出现的术语“/和”,其是描述另一种关联对象关系,表示可以存在两种关系,例如,a/和b,可以表示:单独存在a或者同时存在a和b等两种情况;另外,对于本文中可能出现的字符“/”,一般表示前后关联对象是一种“或”关系。
[0048]
如图1所示,本实施例第一方面提供的所述视频车辆检测模型在线更新方法,可以但不限于由具有一定计算资源的且分别通信连接有摄像头和雷达检测器的计算机设备执行,例如由视频车辆检测器、个人计算机(personal computer,pc,指一种大小、价格和性能适用于个人使用的多用途计算机;台式机、笔记本电脑到小型笔记本电脑和平板电脑以及超级本等都属于个人计算机)、智能手机、个人数字助理(personal digital assistant,pad)或可穿戴设备等电子设备执行,以便根据来自所述雷达检测器的线上实时反馈,持续不断地迭代更新深度学习网络中各个权重的权重值,进而使得如果模型预测错误,可以及时修正所述深度学习网络中的权重,使之自适应线上的实际情况,有效缩短更新周期,实现对视频车辆检测模型的在线学习目的,便于实际应用和推广。如图1所示,所述视频车辆检测模型在线更新方法,需在基于深度学习网络建模而得的视频车辆检测模型上线后执行,并可以但不限于包括有如下步骤s1~s6。
[0049]
s1.将由摄像头采集的视频图像作为待检测图像输入所述视频车辆检测模型,输出得到视频车辆检测结果,其中,所述视频车辆检测结果包含但不限于有检测所得车辆在所述视频图像中的车辆图像坐标。
[0050]
在所述步骤s1中,所述视频车辆检测模型为基于计算机视觉技术在所述视频图像中标注出目标车辆的人工智能模型,其可以但不限于采用诸如卷积神经网络等深度学习网
络建模而得。前述诸如卷积神经网络(例如yolo网络)等深度学习网络为现有人工智能方法中的常见方案,即可通过常规的率定验证建模方式(其具体过程包括有模型的率定过程和校核过程,即是先通过对比模型模拟结果与实测数据,然后根据对比结果调整模型参数,使得模拟结果与实际吻合的过程),得到所述视频车辆检测模型。所述检测所得车辆即为标注出的目标车辆,包括但不限于为机动车或非机动车。由于通过所述视频车辆检测模型能够在所述视频图像中标注出目标车辆,因此可以基于标注结果得到所述检测所得车辆在所述视频图像中的车辆图像坐标,具体的,所述车辆图像坐标包含但不限于有所述检测所得车辆在所述视频图像中的车辆图像左上角坐标和车辆图像右下角坐标。
[0051]
s2.根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,其中,所述雷达检测器中的雷达与所述摄像头分别朝同一方向设置。
[0052]
在所述步骤s2中,由于所述雷达检测器中的雷达与所述摄像头是分别朝同一方向(例如与车辆行驶方向相反的方向)设置,因此在所述雷达数据中必然也包含有针对所述检测所得车辆的雷达探测结果,即包含但不限于有所述检测所得车辆在所述雷达坐标系中的车辆真实坐标(其具体可为包含有方位角、俯仰角和距离等的极坐标)。具体的,根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,包括但不限于有:当所述视频车辆检测结果包含有唯一检测所得车辆在所述视频图像中的车辆图像坐标时,可将所述雷达数据中唯一车辆在所述雷达坐标系中的车辆真实坐标,作为所述唯一检测所得车辆在所述雷达坐标系中的车辆真实坐标。此外,当所述视频车辆检测结果包含有m(m表示大于1的自然数)个检测所得车辆在所述视频图像中的车辆图像坐标,以及所述雷达数据包含有n(n表示大于1的自然数)个车辆在所述雷达坐标系中的车辆真实坐标时,可先将所述m个检测所得车辆在所述视频图像中的车辆图像坐标和所述n个车辆在所述雷达坐标系中的车辆真实坐标,分别通过常规的坐标变换方式转换为在同一坐标系(例如大地坐标系)下的坐标,然后针对所述m个检测所得车辆中的某个检测所得车辆,将在所述n个车辆中的且在所述同一坐标系下距离最近的某个车辆作为与其对应的同一车辆,最后将所述某个车辆在所述雷达坐标系中的车辆真实坐标,确定为所述某个检测所得车辆在所述雷达坐标系中的车辆真实坐标。
[0053]
在所述步骤s2中,考虑毫米波的波长介于厘米波和光波之间,使得毫米波兼有微波制导和光电制导的优点,进而使得毫米波雷达能精确检测运动目标的运动方向、距离、速度和角度;同时与红外、激光或视频等光学导引头相比,毫米波导引头穿透雾、烟或灰尘的能力强,具有全天候全天时(大雨天除外)的特点,且毫米波雷达受光照和天气的因素影响比较小,稳定性比较高,并且测距精度也比较高,距离也比较远。由此在选择以雷达检测器的输出来作为所述视频车辆检测模型的线上预测反馈,进而发现模型预测错误并及时修正时,所述雷达优选采用毫米波雷达。
[0054]
s3.根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度。
[0055]
在所述步骤s3中,具体的,包括但不限于有如下步骤s31~s33:s31.根据所述车辆图像坐标,确定所述检测所得车辆在所述摄像头的相机坐标系下的车辆估算坐标;s32.根据所述雷达坐标系与所述相机坐标系的已知坐标变换关系,将所述车辆真实坐标变换为在
所述相机坐标系下的车辆实际坐标;s33.计算所述车辆实际坐标与所述车辆估算坐标的差的平方,得到所述检测所得车辆的坐标偏差程度。在前述步骤s31中,由于所述车辆图像坐标包含有所述检测所得车辆在所述视频图像中的车辆图像左上角坐标和车辆图像右下角坐标,因此车辆图像大小可知,进而可以基于车辆图像大小与车辆至摄像头的距离的负相关特点(即车辆至摄像头的距离越大,车辆图像越小),确定车辆至摄像头的距离,如此可将该距离和所述车辆图像左上角坐标与所述车辆图像右下角坐标的中点坐标,作为所述检测所得车辆在所述摄像头的相机坐标系下的车辆估算坐标。此外,由于所述雷达和所述摄像头的安装位置及朝向是可以提前已知的,因此所述雷达坐标系与所述相机坐标系的坐标变换关系也可以提前已知,实现前述坐标变换目的。
[0056]
s4.针对在所述视频车辆检测模型上线后的各个时刻,将在对应时刻的坐标偏差程度作为用于估量所述视频车辆检测模型在对应时刻的预测结果与真实结果的不一致程度,得到所述视频车辆检测模型在对应时刻的损失函数值,然后计算出在对应时刻损失函数对所述深度学习网络中各个权重的偏导数。
[0057]
在所述步骤s4中,根据预测结果与真实结果的不一致程度,得到所述视频车辆检测模型的损失函数值,为现有深度学习技术的常规手段。此外,可以但不限于按照如下公式计算出在所述视频车辆检测模型上线后的t时刻损失函数对第i个权重的偏导数式中,fi(ω
t-1
)表示损失函数,ω
t-1,i
表示所述第i个权重在t-1时刻的权重变量。
[0058]
s5.针对所述各个权重,按照如下公式迭代更新对应的权重值:
[0059][0060]
式中,i、j和t分别表示自然数,ω
t+1,i
表示第i个权重在t+1时刻的权重值,z
t,i
表示所述第i个权重在t时刻的第一中间量,+=表示复合赋值运算符,g
t,i
表示在t时刻损失函数对所述第i个权重的偏导数,α和λ1分别表示预设的超参数,ni表示所述第i个权重在t时刻的第二中间量,ω
t,i
表示所述第i个权重在t时刻的权重值,η
t
表示所述第i个权重在t时刻的第三中间量,g
j,i
表示在j时刻损失函数对所述第i个权重的偏导数,sgn()表示符号函数。
[0061]
在所述步骤s5中,前述公式的推导过程可基于ftrl(follow the regularized leader) 算法(具体可参见论文《ad click prediction:a view from the trenches》,是一种现有的在线学习算法)推导得到。如此可在存储上一次迭代所得的三个量:w
t,i
、z
t,i
和n
t
,并在本轮迭代中计算得到g
t,i
,就可以根据来自所述雷达检测器的线上实时反馈,持续不断地迭代更新所述各个权重的权重值,进而使得如果模型预测错误,可以及时修正所述
深度学习网络中的权重,使之自适应线上的实际情况,实现对所述视频车辆检测模型的在线学习目的。此外,在迭代更新前,w
t,i
、z
t,i
和n
t
可分别初始化为零。
[0062]
s6.将所述各个权重的最新权重值传入所述深度学习网络中,得到完成在线更新的视频车辆检测模型。
[0063]
由此基于前述步骤s1~s6所描述的视频车辆检测模型在线更新方法,提供了一种在传统雷视融合项目上对视频车辆检测模型进行在线更新的优化方案,即一方面通过更新前的视频车辆检测模型,输出得到检测所得车辆在视频图像中的车辆图像坐标,另一方面根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,然后根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度,再然后根据所述坐标偏差程度得到在所述视频车辆检测模型上线后的各个时刻损失函数对深度学习网络中各个权重的偏导数,最后基于ftrl算法对所述各个权重的权重值进行迭代更新,由此可根据来自所述雷达检测器的线上实时反馈,持续不断地迭代更新所述各个权重的权重值,进而使得如果模型预测错误,可以及时修正所述深度学习网络中的权重,使之自适应线上的实际情况,有效缩短更新周期,实现对所述视频车辆检测模型的在线学习目的,便于实际应用和推广。
[0064]
如图2所示,本实施例第二方面提供了一种实现第一方面所述的视频车辆检测模型在线更新方法的虚拟装置,用于在基于深度学习网络建模而得的视频车辆检测模型上线后启用,包括有视频车辆检测单元、真实坐标确定单元、坐标偏差获取单元、权重偏导数获取单元、权重值更新单元和权重值传入单元;
[0065]
所述视频车辆检测单元,用于将由摄像头采集的视频图像作为待检测图像输入所述视频车辆检测模型,输出得到视频车辆检测结果,其中,所述视频车辆检测结果包含有检测所得车辆在所述视频图像中的车辆图像坐标;
[0066]
所述真实坐标确定单元,通信连接所述视频车辆检测单元,用于根据由雷达检测器输出的且与所述视频图像同期采集的雷达数据,确定出所述检测所得车辆在雷达坐标系中的车辆真实坐标,其中,所述雷达检测器中的雷达与所述摄像头分别朝同一方向设置;
[0067]
所述坐标偏差获取单元,分别通信连接所述视频车辆检测单元和所述真实坐标确定单元,用于根据所述车辆图像坐标和所述车辆真实坐标,得到所述检测所得车辆的坐标偏差程度;
[0068]
所述权重偏导数获取单元,通信连接所述坐标偏差获取单元,用于针对在所述视频车辆检测模型上线后的各个时刻,将在对应时刻的坐标偏差程度作为用于估量所述视频车辆检测模型在对应时刻的预测结果与真实结果的不一致程度,得到所述视频车辆检测模型在对应时刻的损失函数值,然后计算出在对应时刻损失函数对所述深度学习网络中各个权重的偏导数;
[0069]
所述权重值更新单元,通信连接所述权重偏导数获取单元,用于针对所述各个权重,按照如下公式迭代更新对应的权重值:
[0070][0071]
式中,i、j和t分别表示自然数,ω
t+1,i
表示第i个权重在t+1时刻的权重值,z
t,i
表示所述第i个权重在t时刻的第一中间量,+=表示复合赋值运算符,g
t,i
表示在t时刻损失函数对所述第i个权重的偏导数,α和λ1分别表示预设的超参数,ni表示所述第i个权重在t时刻的第二中间量,ω
t,i
表示所述第i个权重在t时刻的权重值,η
t
表示所述第i个权重在t时刻的第三中间量,g
j,i
表示在j时刻损失函数对所述第i个权重的偏导数,sgn()表示符号函数;
[0072]
所述权重值传入单元,通信连接所述权重值更新单元,用于将所述各个权重的最新权重值传入所述深度学习网络中,得到完成在线更新的视频车辆检测模型。
[0073]
本实施例第二方面提供的前述装置的工作过程、工作细节和技术效果,可以参见第一方面所述的视频车辆检测模型在线更新方法,于此不再赘述。
[0074]
如图3所示,本实施例第三方面提供了一种应用第一方面所述的视频车辆检测模型在线更新方法的雷视融合系统,包括但不限于有在道路100上方的横杆1上布置的雷达检测器2 和视频车辆检测器3,其中,所述雷达检测器2中的雷达与所述视频车辆检测器3中的摄像头分别朝同一方向设置;所述视频车辆检测器3通信连接所述雷达检测器2,用于执行如第一方面所述的视频车辆检测模型在线更新方法。优选的,所述雷达采用毫米波雷达。
[0075]
本实施例第三方面提供的前述系统的工作过程、工作细节和技术效果,可以参见第一方面所述的视频车辆检测模型在线更新方法,于此不再赘述。
[0076]
如图4所示,本实施例第四方面提供了一种执行如第一方面所述的视频车辆检测模型在线更新方法的计算机设备,包括有依次通信连接的存储器、处理器和收发器,其中,所述存储器用于存储计算机程序,所述收发器用于收发消息,所述处理器用于读取所述计算机程序,执行如第一方面所述的视频车辆检测模型在线更新方法。具体举例的,所述存储器可以但不限于包括随机存取存储器(random-access memory,ram)、只读存储器(read-only memory, rom)、闪存(flash memory)、先进先出存储器(first input first output,fifo)和/或先进后出存储器(first input last output,filo)等等;所述处理器可以但不限于采用型号为stm32f105系列的微处理器。此外,所述计算机设备还可以但不限于包括有电源模块、显示屏和其它必要的部件。
[0077]
本实施例第四方面提供的前述计算机设备的工作过程、工作细节和技术效果,可以参见第一方面所述的视频车辆检测模型在线更新方法,于此不再赘述。
[0078]
本实施例第五方面提供了一种存储包含如第一方面所述的视频车辆检测模型在线更新方法的指令的计算机可读存储介质,即所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行如第一方面所述的视频车辆检测模型在线更新方法。其
中,所述计算机可读存储介质是指存储数据的载体,可以但不限于包括软盘、光盘、硬盘、闪存、优盘和/或记忆棒(memory stick)等计算机可读存储介质,所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。
[0079]
本实施例第五方面提供的前述计算机可读存储介质的工作过程、工作细节和技术效果,可以参见如第一方面所述的视频车辆检测模型在线更新方法,于此不再赘述。
[0080]
本实施例第六方面提供了一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行如第一方面所述的视频车辆检测模型在线更新方法。其中,所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。
[0081]
最后应说明的是,本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1