事件估计系统和事件估计方法与流程

文档序号:24729034发布日期:2021-04-20 11:02阅读:66来源:国知局
事件估计系统和事件估计方法与流程

1.本发明涉及事件估计系统和事件估计方法。


背景技术:

2.在专利文献1中记载有发现由机器人等制造机械的内部信息引起的异常的单元控制装置。在该文献中公开了单元控制装置还具备学习器,该学习器通过使用制造机械的内部信息和表示制造装置的构成要素的装置构成信息进行机器学习来更新数据库内存储的信息。
3.现有技术文献
4.专利文件
5.专利文献1:日本特许第6031202号公报。


技术实现要素:

6.发明所要解决的问题
7.在利用机器学习进行以工业用机器人等工业用设备为代表的控制对象设备的故障或异常诊断时,可以考虑利用表示控制对象设备的动作和内部状态的信息。此时,从控制对象设备时刻地获得其工作信息,并发送到控制器。
8.然而,当对控制对象设备进行控制时,有时准备下位控制器和上位控制器双方,该下位控制器与个别的控制对象设备对应,直接控制该个别的控制对象设备或它们,该上位控制器向该下位控制器发送动作指令并进行控制。例如,在多轴机器人的情况下,认为控制对象设备相当于各轴的伺服马达,下位控制器相当于各轴的伺服控制器,上位控制器相当于机器人控制器。或者,即使在一般的马达和测量器的控制的情况下,也认为马达和测量器相当于控制对象设备,马达和测量器的控制器相当于下位控制器,汇总它们的动作的plc(可编程逻辑控制器)等控制器相当于上位控制器。
9.通常,为了进行细致的控制,控制对象设备和其控制器(下位控制器)之间的连接被设计成确保足以实时地交换控制对象设备的工作信息的通信速度。与此相对,下位控制器和上位控制器之间的连接只要是足以进行下位控制器的指令、动作定时的指示的通信速度即可,因此与控制对象设备和其控制器之间的连接相比,通信速度差。
10.在这样的情况下,如果要利用机器学习进行控制对象设备的故障或异常诊断,则在将时刻得到的控制对象设备的工作信息实时地发送到上位控制器时,会导致下位控制器和上位控制器之间的连接的通信速度不足。然而,下位控制器在执行以深度学习为代表的神经网络模型等需要大规模运算的机器学习时其运算能力不足,另外,如果具备能够进行这样的运算的规格(spec),则成本增加,不现实。
11.本发明是鉴于上述问题而提出的,其目的在于,在具有与控制对象设备连接的下位控制器和与下位控制器连接的上位控制器的控制系统中,实现利用机器学习来估计控制对象设备的故障或异常等事件的系统。
12.用于解决问题的手段
13.本发明的一个方面涉及一种事件估计系统,包括上位设备以及一个或多个下位控制器,所述下位控制器具有:工作信息获取部,获取与所述下位控制器连接的控制对象设备的工作信息;异常估计部,基于所述工作信息来估计有无异常;工作信息保持部,保持一定期间的所述工作信息;以及工作信息发送部,基于估计出的所述异常的有无,将与该异常的有无的估计相关的所述工作信息发送给所述上位设备,所述上位设备具有:工作信息接收部,从所述下位控制器接收所述工作信息;以及事件估计部,根据所述异常的有无进行动作,估计事件,所述事件估计部具有上位神经网络模型,所述上位神经网络模型将所述工作信息作为输入,将事件信息作为输出。
14.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述异常估计部具有下位神经网络模型,所述下位神经网络模型将所述工作信息的至少一部分作为输入,将异常信息作为输出。
15.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位神经网络的规模大于所述下位神经网络的规模。
16.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位设备具有:学习部,具有学习用神经网络模型,基于所述事件信息来进行所述学习用神经网络模型的学习,所述学习用神经网络模型将所述工作信息作为输入,将所述异常信息作为输出;以及更新部,基于已学习完的所述学习用神经网络模型来更新所述下位控制器的所述下位神经网络模型。
17.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述更新部当由已学习完的所述学习用神经网络模型进行的估计的精度提高时,所述更新部更新所述下位控制器的所述下位神经网络模型。
18.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述学习用神经网络模型的规模大于所述下位神经网络模型的规模,所述更新部具有:运算位数削减部,削减已学习完的所述学习用神经网络模型的运算位数;以及更新模型发送部,将削减运算位数后的所述学习用神经网络模型作为更新后的所述下位神经网络模型发送给所述下位控制器。
19.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述学习用神经网络模型的规模与所述下位神经网络模型的规模相等,所述更新部具有:更新模型发送部,将已学习完的所述学习用神经网络模型作为更新后的所述下位神经网络模型发送给所述下位控制器。
20.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述工作信息保持部将输入到所述下位神经网络模型的所述工作信息至少保持直到从所述下位神经网络模型输出异常信息为止的期间。
21.另外,本发明的另一个方面涉及的事件估计系统还可以是:包括多个所述下位控制器,所述上位设备还具有:工作信息追加接收部,基于所述事件信息从与接收到所述工作信息的所述下位控制器不同的其他所述下位控制器追加接收所述工作信息;以及第二事件估计部,具有第二上位神经网络模型,所述第二上位神经网络模型将关于多个所述下位控制器的多个所述工作信息作为输入,并输出第二事件信息。
22.另外,本发明的另一个方面涉及的事件估计系统还可以是:具备多个所述下位控
制器,所述上位设备还具有:工作信息追加接收部,基于所述事件信息从与接收到所述工作信息的所述下位控制器不同的其他所述下位控制器追加接收所述工作信息;第二事件估计部,具有第二上位神经网络模型,所述第二上位神经网络模型将关于多个所述下位控制器的多个所述工作信息作为输入,并输出第二事件信息;第二学习部,具有个别学习用神经网络模型,并基于所述第二事件信息进行所述个别学习用神经网络模型的学习,所述个别学习用神经网络模型针对所述下位控制器的每个将所述工作信息作为输入,并输出所述异常信息;以及第二更新部,基于已学习完的所述个别学习用神经网络模型来更新所述下位控制器的所述下位神经网络模型。
23.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述个别学习用神经网络模型的规模大于所述下位神经网络模型的规模,所述第二更新部具有:第二运算位数削减部,削减已学习完的所述个别学习用神经网络模型的运算位数;以及第二更新模型发送部,将削减运算位数后的所述个别学习用神经网络模型作为更新后的所述下位神经网络模型发送给所述下位控制器。
24.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述个别学习用神经网络模型的规模与所述下位神经网络模型的规模相等,所述第二更新部具有:第二更新模型发送部,将已学习完的所述个别学习用神经网络模型作为更新后的所述下位神经网络模型发送给所述下位控制器。
25.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述工作信息保持部将输入到所述下位神经网络模型的所述工作信息至少保持直到从所述上位神经网络模型输出事件信息为止的期间。
26.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位神经网络模型和所述学习用神经网络模型是同一神经网络模型。
27.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位神经网络模型被分离为共同层和事件输出层,所述学习用神经网络模型被分离为与所述上位神经网络模型共同的所述共同层和异常输出层,所述学习部基于所述事件信息进行所述学习用神经网络模型的学习,更新所述共同层,所述更新部通过基于更新后的所述共同层的转移学习来更新所述下位网络模型。
28.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位设备还具有:工作信息追加接收部,基于所述事件信息从所述下位控制器追加接收与已接收的所述工作信息不同的所述工作信息;以及第二事件估计部,具有第二上位神经网络模型,所述第二上位神经网络模型将追加接收到的所述工作信息作为输入,并输出第二事件信息。
29.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位设备是通过控制所述下位控制器来间接控制所述控制对象设备的上位控制器。
30.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位设备与间接控制所述控制对象设备的上位控制器分开设置。
31.另外,本发明的另一个方面涉及的事件估计系统还可以是:所述上位设备具有第一上位设备和第二上位设备,所述第一上位设备具有作为间接控制所述控制对象设备的上位控制器的功能、以及所述工作信息接收部和所述事件估计部,所述第二上位设备具有所述学习部和所述更新部。
32.另外,本发明的一个方面涉及一种事件估计方法,包括:在下位控制器中,获取与所述下位控制器连接的控制对象设备的工作信息,基于所述工作信息来估计有无异常,保持一定期间的所述工作信息,基于估计出的所述异常的有无,将与该异常的有无的估计相关的所述工作信息发送给上位设备,在上位设备中,从所述下位控制器接收所述工作信息,根据所述异常的有无向上位神经网络模型输入所述工作信息,并输出事件信息,以估计事件。
33.另外,本发明的另一个方面涉及的事件估计方法还可以是:通过将所述工作信息的至少一部分输入到下位神经网络模型中而得到输出的异常信息,从而进行有无所述异常的估计,所述上位神经网络的规模大于所述下位神经网络的规模。
34.另外,本发明的另一个方面涉及的事件估计方法还可以是:在所述上位设备中,基于所述事件信息进行学习用神经网络模型的学习,所述学习用神经网络模型将所述工作信息作为输入,将所述异常信息作为输出,基于已学习完的所述学习用神经网络模型来更新所述下位控制器的所述下位神经网络模型。
35.另外,本发明的另一个方面涉及的事件估计方法还可以是:在所述上位设备中,基于所述事件信息从与接收到所述工作信息的所述下位控制器不同的其他所述下位控制器追加接收所述工作信息,向第二上位神经网络模型输入关于多个所述下位控制器的多个所述工作信息,并输出第二事件信息。
36.另外,本发明的另一个方面涉及的事件估计方法还可以是:在所述上位设备中,基于所述事件信息从与接收到所述工作信息的所述下位控制器不同的其他所述下位控制器追加接收所述工作信息,向第二上位神经网络模型输入关于多个所述下位控制器的多个所述工作信息,并输出第二事件信息,对于个别学习用神经网络模型,基于所述第二事件信息进行学习,所述个别学习用神经网络模型针对所述下位控制器的每个将所述工作信息作为输入,将所述异常信息作为输出,基于已学习完的所述个别学习用神经网络模型来更新所述下位控制器的所述下位神经网络模型。
附图说明
37.图1是表示本发明的第一实施方式涉及的事件估计系统的一例的整体外观图。
38.图2是表示本发明的第一实施方式涉及的事件估计系统的控制对象设备和下位控制器的硬件结构例的框图。
39.图3是表示本发明的第一实施方式涉及的事件估计系统的上位控制器的硬件结构例的框图。
40.图4是表示本发明的第一实施方式涉及的事件估计系统的整体结构的功能框图。
41.图5是表示神经网络模型的例子的图。
42.图6是表示代表性的rnn的结构的图。
43.图7是说明本发明的第一实施方式涉及的事件估计系统的动作的流程图。
44.图8是表示本发明的第一实施方式的第一变形例涉及的事件估计系统的整体结构的功能框图。
45.图9是表示本发明的第一实施方式的第二变形例涉及的事件估计系统的整体结构的功能框图。
46.图10是表示本发明的第二实施方式涉及的事件估计系统的一例的整体外观图。
47.图11是表示本发明的第二实施方式涉及的事件估计系统的物理结构的结构图。
48.图12是表示本发明的第二实施方式涉及的事件估计系统的整体结构的功能框图。
49.图13是说明本发明的第二实施方式涉及的事件估计系统的动作的流程图。
50.图14是表示使一部分共同化的上位神经网络模型和学习用神经网络模型的结构的概念图。
51.图15是表示本发明的第三实施方式涉及的事件估计系统的整体结构的功能框图。
52.图16是表示本发明的第四实施方式涉及的事件估计系统的整体结构的功能框图。
53.图17是表示本发明的第五实施方式涉及的事件估计系统的整体结构的功能框图。
54.图18是表示本发明的第六实施方式涉及的事件估计系统的整体结构的功能框图。
具体实施方式
55.以下,参照图1~图7说明本发明的第一实施方式涉及的事件估计系统以及事件估计方法。
56.图1是表示本发明的第一实施方式涉及的事件估计系统1的一例的整体外观图。这里,“事件估计系统”是指在任意的控制系统中估计在控制对象设备2中发生或未发生某种事件的系统。因此,在事件估计系统1中,希望不依赖操作员等的人工的检查或观察,就能够早期且不施加人力地检测在控制系统中产生的变化。
57.如图1典型地表示的那样,事件估计系统1包括控制对象设备2、下位控制器3和上位控制器4这两种控制器,控制对象设备2和下位控制器3通过第一线路5相互连接,下位控制器3和上位控制器4通过第二线路6相互连接。
58.这里,控制器是能够用于fa的设备,是指具有控制某些其他设备(控制对象设备2)或者与其他设备进行信息的输入输出的功能的设备。在图1所示的例子中,下位控制器3表示为所谓的伺服控制器,另外,上位控制器4表示为plc(可编程逻辑控制器),但也可以是其他设备例如单板微机或一般的pc(个人计算机)等计算机等。另外,控制器的实际用途并不限定于fa,不仅可以组装到生产设备中,还可以组装到车辆、娱乐设备等各种装置中进行利用。
59.另外,控制对象设备2是由下位控制器3控制、或者输入输出表示该设备的状态的信息的设备。在图1的例子中,作为控制对象设备2示出伺服马达,以下,在本说明书中,作为控制对象设备2,例示伺服马达进行说明。另外,作为控制对象设备2,也可以是其他形式的旋转电动机(例如步进马达等)、线性马达、螺线管、空压设备等各种致动器、开关或传感器等。另外,与下位控制器3连接的控制对象设备2无需是一个,也可以连接多个控制对象设备2。
60.如图1所示,下位控制器3的特征在于,控制成为直接对象的控制对象设备2。因此,第一线路5具有为控制控制对象设备2所需的通信速度、足以供应电力的能力。如本例所示,在控制对象设备2为伺服马达的情况下,其控制周期为几微秒~几十微秒,在每个该控制周期中,从下位控制器3通过第一线路5供应电力,另外,从控制对象设备2发送来自编码器等设置于控制对象设备2中的各种传感器的输出值。
61.上位控制器4的特征在于,通过控制下位控制器3,间接地控制控制对象设备2。另
外,在图1中图示了对于1个上位控制器4仅连接1个下位控制器3的情况,但也可以将多个下位控制器3连接在上位控制器4上。另外,上位控制器4也可以进一步与开关等(未图示,其他的)控制对象设备连接,直接控制该控制对象设备也没问题。总之,下位控制器3和上位控制器4通过第二线路6连接,该第二线路6具有足以控制下位控制器3所需的通信速度的能力。如图示的例子所示,在上位控制器4为plc的情况下,其控制周期(所谓的扫描时间)一般为几百微秒~几十毫秒,因此第二线路6能够进行每个该控制周期的指令、信息的传递。
62.因此,在很多情况下,如果单纯地从通信速度的观点来比较第一线路5和第二线路6,则第一线路的速度更快。即,在下位控制器3中获取工作信息的速度比在上位控制器4中接收工作信息的速度快。因此,预想难以将下位控制器3从控制对象设备2收集到的全部信息实时地发送到上位控制器4。
63.图2是表示本实施方式涉及的事件估计系统1的控制对象设备2和下位控制器3的硬件结构例的框图。控制对象设备2这里是伺服马达,具备三相电动机201和传感器202。三相电动机201是作为马达的一例而示出的,对其相数没有特别限定,也可以是两相或四相以上的多相。另外,在传感器202中典型地包含旋转编码器,但除此之外,也可以包含温度计、振动计、电流电压计、转矩传感器等各种传感器,另外,也可以代替旋转编码器而使用分解器等其他形式的旋转角检测器。电动机的形式也没有限定,也可以使用感应电动机、永久磁铁同步电动机及其他各种形式的电动机。
64.另外,下位控制器3包括伺服放大器301和控制电路302。伺服放大器301通过逆变器304将由ac/dc转换器303转换后的直流转换为适于三相电动机201的驱动的三相交流并输出。逆变器304的控制由控制电路302进行,在控制电路302中,基于存储在存储器305中的各种信息决定处理器306对逆变器304发出的控制指令(典型的是电流指令值)。另外,由传感器202检测出的三相电动机201的旋转角和其他信息被输入到控制电路302,用于三相电动机201的控制。在本例中,在存储器305中除了存储有用于决定三相电动机201的动作波形的各种参数和动作的模式之外,如后所述,还保存有来自传感器202的信息。
65.如图2所示,控制对象设备2和下位控制器3通过第一线路5连接,第一线路5包括从伺服放大器301向三相电动机201供应电力的电力供应线、和从传感器202向控制电路302传送信息的信息通信线路这两者。另一方面,下位控制器3和上位控制器4通过第二线路6连接,以使控制电路302能够通过下位控制器3的输入输出307与上位控制器4进行信息通信。在本例中,假设第一线路5所包含的信息通信线路的通信速度比第二线路6的通信速度快,而且无法将由传感器202获取的信息和由控制电路302指示给逆变器304的控制指令实时地发送给上位控制器4的情况。
66.图3是表示本实施方式涉及的事件估计系统1的上位控制器4的硬件结构例的框图。上位控制器4具有包括处理器403和存储器402的控制电路401。控制电路401根据存储在存储器402中的程序对经由输入输出404连接的各种设备输出必要的指示等,并且接受来自各种设备的信息的输入,进行控制所需的运算,或者保存在存储器402中。如上所述,在本例中,从上位控制器4经由输入输出404通过第二线路6与下位控制器3连接。
67.如上所述,下位控制器3和上位控制器4分别具备控制电路(控制电路302和控制电路401),并具有存储器(存储器305和存储器403)和处理器(处理器306和处理器402)。但是,两者的信息处理能力存在差异,如果以一般的运算能力进行比较,则通常上位控制器4比下
位控制器3好。
68.由于下位控制器3被设计成特别适合于所连接的控制对象设备2的控制,因此其存储器305和处理器306的性能只要足以控制控制对象设备2就足够,因此具有远远超过该性能的性能是多余的,只会导致成本增加,通常不会进行。另一方面,上位控制器4被设计为通用产品,其用途也在多方面没有限定,因此被设计为能够应对设备的利用所能设想的负荷最高的信息处理,因此通常在运算性能上具有余量。
69.本例假定这样的情况,下位控制器3关于控制对象设备2的控制,能够进行低负荷的追加的信息处理,但没有进行高负荷的追加的信息处理的余量,另一方面,上位控制器4除了对下位控制器3的控制之外,还留有进行某种程度的高负荷的信息处理的余力。
70.图4是表示本实施方式涉及的事件估计系统1的整体结构的功能框图。图4所示的块的一部分通过硬件来实现,并且一部分使用硬件资源、例如处理器306、处理器402、存储器305和存储器403并通过软件来实现。
71.控制对象设备2具有检测其状态并向下位控制器3输出的传感器202。另外,在下位控制器3中设置有设备控制部308,该设备控制部308在控制控制对象设备2时,发出必要的指令,或者供应动力(电力)。从该设备控制部308向控制对象设备2发送适当的指令,接收来自传感器202的信息,并通过反馈控制等适当的方法,调整来自设备控制部308的指令,由此,下位控制器2进行控制对象设备2的控制。
72.此时,认为能够根据来自传感器202的输出与来自设备控制部308的指令之间的关系来估计控制对象设备2的状态。因此,在下位控制器3中设置有工作信息获取部309,获取来自传感器202的输出和来自设备控制部308的指令双方的信息。以下,将包括来自该传感器202的输出和来自设备控制部308的指令的、用于估计控制对象设备2的状态的信息称为“工作信息”。即,可以说工作信息获取部309获取控制对象设备2的工作信息。
73.在获取的工作信息中,在如本例那样控制对象设备2是伺服马达的情况下,包含电流波形、速度波形这样的伺服马达动作时的记录。如果根据这样的工作信息能够进行伺服马达的异常的检测、磨损等的经年变化引起的剩余寿命的预测,则认为能够大幅抑制定期检查、部件更换等维护工时和成本,另外,能够有助于预先防止故障等引起的事故等。这样的根据工作信息间接地估计控制对象设备2的状态对于人来说一般是很难的,但预测为是利用神经网络模型等的机器学习擅长的地方。
74.因此,在下位控制器3中还设置有异常估计部310,该异常估计部310具有作为机器学习模型的下位神经网络模型311。这里,称为“下位”是为了与后述的上位神经网络模型407区分。
75.下位神经网络模型311是通过所谓的深度学习的方法学习完成的神经网络模型,是将工作信息作为输入、将异常信息作为输出的计算模型。下位神经网络模型311的形式没有特别限定,只要采用适合工作信息的种类的网络模型即可,既可以是所谓的cnn(卷积神经网络),也可以是rnn(递归型神经网络),还可以是其他形式的神经网络模型。在本例中,由于工作信息包含时间序列信息,所以下位神经网络模型311使用基于lstm(长短期存储)的rnn。
76.然而,如上所述,下位控制器3的处理器306缺乏运算能力的余力。并且,一般而言,基于使用了神经网络模型的机器学习模型的运算是大规模并行运算,其运算负荷大。因此,
下位神经网络模型311被设计成其运算量小、规模小,以便能够通过处理器306的有限的运算能力充分地进行运算。关于该下位神经网络模型311的规模,在与上位神经网络模型407的比较中在后面详细说明。
77.另外,异常信息是能够估计在控制对象设备2中产生或未产生某些应关注的状态的变化的信息。并且,这里将控制对象设备2中产生了某些应关注的状态的变化的状态称为“异常”。因此,异常信息是估计有无异常的信息。另外,本说明书中所说的异常并不意味着一定会产生不良影响。与此相对,以下,将控制对象设备2中产生的状态的变化本身称为“事件”。异常信息估计在控制对象设备2中是否产生了某些应关注的状态的变化,但未必估计产生了怎样的状态的变化。即,异常信息是估计有无异常的信息,但不一定是估计事件的信息。当然,异常信息也可以是能够估计部分或所有事件的信息。
78.在本实施方式中,异常信息是具有0~1的范围的数值,表示发生了某些事件的确定性。只要预先对该异常信息的值设定规定的阈值,在异常信息超过该阈值的情况下,判断为有可能发生了某些事件即可。例如,作为阈值假定设定了0.6的情况,将某瞬间的工作信息输入到下位神经网络模型311而作为异常信息输出0.1的情况下,能够判断为没有发生任何事件。或者,如果作为异常信息输出0.7,则能够判断有可能发生了某些事件。这样,异常估计部310估计有无异常。
79.另外,异常估计部310可以进行用于将工作信息以适当的形式输入到下位神经网络模型311的前处理、用于将来自下位神经网络模型311的输出作为异常信息以适当的形式输出的后处理,进行这些前处理、后处理的部分在图4中未示出。
80.异常信息是否表示发生了某些事件的判断也可以由异常估计部310进行,但在本例中,由工作信息发送部312进行。工作信息发送部基于从异常估计部310输出的异常信息,在该异常信息表示异常、即有可能发生某些事件的情况下,将工作信息发送给上位控制器4。这里输出的工作信息输入到异常估计部310的下位神经网络模型311并成为输出表示异常的异常信息的原因的工作信息。
81.在下位控制器3中,在异常估计部310中进行用于下位神经网络模型311的异常估计的运算的期间,也时刻进行由工作信息获取部309的新的工作信息的获取。因此,从工作信息发送部312输出的工作信息不是实时获取的工作信息,而必须是输入到下位神经网络模型311的过去的工作信息。
82.因此,在下位控制器3中设置有工作信息保持部313,保持在一定期间内的过去的工作信息。工作信息保持部313至少对于输入到下位神经网络模型311的工作信息,必须保持到进行基于该工作信息的异常信息的输出为止的期间。这是因为,基于所输出的异常信息,工作信息发送部312需要从工作信息保持部313读出该异常信息所涉及的工作信息。
83.实际上,考虑到从工作信息发送部312向上位控制器4的信息传送的延迟等,将工作信息保持部313的工作信息的保持期间设定为具有余量的期间。如上所述,这是因为,下位控制器3和上位控制器4之间的第二线路6的通信速度低,所以认为将工作信息向上位控制器4发送并结束需要时间。
84.另外,如果要保存由工作信息获取部309获取的全部工作信息,则必须使工作信息保持部313的存储容量为极大容量,是不现实的。因此,在本实施方式中,工作信息保持部313是所谓的环形缓冲器,当超过规定的容量而想要保存新的工作信息时,废弃旧的工作信
息,总是存储最新的工作信息。
85.上位控制器4通过工作信息接收部405接收从下位控制器3的工作信息发送部312发送的工作信息。此时,工作信息发送部312也可以将从异常估计部310得到的异常信息一并发送到工作信息接收部405。
86.通过工作信息接收部405接收到工作信息是指判断为由下位控制器3检测到异常、即有可能发生某些事件。当然,在同时接收到异常信息的情况下,也可以考虑该异常信息的值来进行判断。总之,在由下位控制器3的异常估计部310进行的异常估计中,未必能够确定该事件是什么,另外,也无法正确地估计是否是真正需要应对的事件。
87.因此,在上位控制器4中设置有事件估计部406,该事件估计部406具有上位神经网络模型407。上位神经网络模型407也是通过所谓的深度学习的方法学习完成的神经网络模型,是将工作信息作为输入、将事件信息作为输出的计算模型。上位神经网络模型407的形式也没有特别限定,只要采用适合工作信息种类的网络模型即可,可以是cnn、rnn、其他任何形式的神经网络模型,但这里,优选为是与下位神经网络模型311相同形式的模型。在本例中,上位神经网络模型407与下位神经网络模型311同样地使用基于lstm的rnn。
88.这里,事件信息是指能够估计在控制对象设备2中产生的应关注的状态的变化、即事件的信息。事件信息可以是矢量值。作为一个例子,如果根据事件信息估计的事件是物理损伤、经年劣化、润滑油不足、暖机不足这4种,则事件信息可以是4维矢量。作为具体的例子,从事件估计部得到的事件信息为(0.1,0.7,0.3,0.2),如果表示发生了各个事件的阈值为0.6,则作为事件,能够估计为发生了经年劣化,没有发生物理损伤、润滑油不足以及暖机不足。当然,事件信息的形式不限于该例子,也可以是其他形式。事件估计部406通过以这种方式获得事件信息来估计事件。
89.并且,上位神经网络模型407的特征在于,与下位神经网络模型311相比,运算量多且规模大。即,下位控制器3的处理器306由于运算能力的余力不足,不能进行高负荷的运算,所以使用规模小的下位神经网络模型311简单且高速地得到异常信息。因此,异常信息的精度不一定高,另外,不一定需要个别地确定发生的事件。与此相对,上位控制器4的处理器402在运算能力上具有足够的余力,能够进行高负荷的运算,因此使用比下位神经网络模型311规模大的上位神经网络模型407得到事件信息。由此,能够更准确地确定仅通过异常信息无法得知的个别事件。
90.在由工作信息接收部405接收到工作信息的情况下,由事件估计部406进行使用了上位神经网络模型407的事件的估计。即,由于是在由下位控制器3的工作信息发送部312判断为异常信息有异常的情况下进行的,所以事件估计部406根据异常信息进行动作。由此,事件估计部406无需对从控制对象设备2的传感器202和下位控制器3的设备控制部308时刻得到的工作信息的全部进行事件的估计,而仅对被判断为异常信息有异常的情况下的工作信息进行事件的估计即可,因此无需将实时得到的工作信息的全部发送给上位控制器4,完全能够使用具有较低的通信速度的第二线路6发送必要的工作信息。另外,使用大规模的上位神经网络模型407,与控制对象设备2的控制周期相比,会花费足够长的运算时间,能够得到更正确的事件信息。
91.另外,本说明书中所说的神经网络模型的规模是指控制器中的运算负荷的大小,其计算只要符合实际设备中的运算负荷即可,可以是任意的计算。在本说明书中,通过将神
经网络中从输入到得到输出所需的运算数乘以各运算的位数(比特数)来计算。如果将其记作神经网络模型的规模因子sf,则规模因子sf可以通过下式计算。
92.数学式1
93.这里,l是神经网络模型的层数,n
k
是将输入层设为第一层、将输出层设为第l层、将第二~(l-1)层设为隐藏层时的第k层的节点数,b
k
是第k层的运算的位数。
94.作为一例,如果设图5所示的4层、输入输出层的节点数为4、隐藏层的节点数为5、各层的运算为32比特,则规模因子sf求得如下。
95.数学式2
96.下位神经网络模型311和上位神经网络模型407的层数、各层的节点数未必一致,但简单地,通过减少上位神经网络模型407的运算的比特数,能够得到规模小的下位神经网络模型311。作为具体例,上位神经网络模型407的各层的运算比特数为32比特,与此相对,下位神经网络模型311的运算比特数为4比特等。另外,通过将下位神经网络模型311的输出层的节点数设为1,仅输出标量值作为异常信息,或者通过削减隐藏层数和节点数,从而能够得到期望规模的下位神经网络模型311。
97.在神经网络模型为rnn的情况下,由于递归处理的次数根据输入的数据或输出的数据而可能不同,所以对于某输入数据所需的运算数未必一定。在这种情况下,可以通过针对递归处理的一个步骤的规模因子sf来评价神经网络模型的规模。
98.作为一例,图6表示代表性的rnn的结构。在该图中,x表示输入矢量,o表示输出矢量,s表示神经网络的隐藏要素(内部状态),w表示递归计算。在不考虑递归计算w的情况下,可以针对图中的虚线框所示的部分计算规模因子sf,以评估神经网络模型的规模。
99.返回到图4,由事件估计部406获得的事件信息被传送到估计结果处理部408,并且根据估计的事件进行处理。例如,当估计为物理损伤时,向操作员发出警告,指示部件的更换,当估计为经年劣化时,显示基于剩余寿命预测的部件更换时期,当估计为润滑油不足时,指示操作员补充润滑油等。当暖机不足或未检测出特定的事件时,由于对控制对象设备2的运转没有障碍,所以不特别进行任何动作,或者作为参考信息只要显示事件的估计结果即可。
100.另外,从以上的说明可知,与异常估计部310使用了规模小的下位神经网络模型311进行的异常估计相比,事件估计部406使用了规模大的上位神经网络模型407进行的事件估计的估计精度更高、更准确。因此,虽然由异常估计部310估计为有异常,但在使用相同工作信息的事件估计部406的估计结果中,包含该事件为暖机不足等没有运转障碍的情况、或没有检测出事件本身等本来无需估计为有异常的情况。
101.因此,在本实施方式中,基于事件估计部406的更准确的事件信息动态地进行下位神经网络模型311的学习,进一步提高异常估计部310的异常估计的精度。
102.即,在上位控制器4中设置有具有学习用神经网络模型410的学习部409,在事件估计部406中,进行基于输入到上位神经网络模型407中的工作信息和从上位神经网络模型407输出的事件信息的学习用神经网络模型410的学习。
103.学习用神经网络模型410只要是其学习成果能够反映在下位控制器3的下位神经网络模型311中的形式的模型即可,没有特别限定。在本实施方式中,考虑到学习的正确性,将具有与下位神经网络模型311相同的层数、各层的节点数相等且各层的运算的比特数大
的模型用作学习用神经网络模型410。在本例中,学习用神经网络模型410的运算比特数与上位神经网络模型407相同,为32比特。
104.当由事件估计部406估计事件时,学习部409将用于估计该事件的工作信息作为例题,使用将基于从上位神经网络模型407输出的事件信息创建的数据作为解答的教学数据,通过逆误差传播法等现有的方法进行学习用神经网络模型410的学习。由此,学习用神经网络模型410的内部参数被更新。
105.在本例中,教学数据的解答相当于异常信息(但是,比特数与下位神经网络模型311中使用的4比特的解答相比,为32比特)。例如,在由上位神经网络模型407得到的事件信息表示需要应对的事件发生的情况下,该解答的生成可以设为1,在不是这样的情况下,该解答的生成可以设为0。或者,也可以在由上位神经网络模型407得到的事件信息的矢量值内,通过对表示需要应对的事件的源进行合计或平均来生成解答,也可以根据事件的性质进行加权。例如,表示更严重的事件的源可以作为更大的值,表示不那么严重的事件的源可以作为较小的值进行合计等。
106.进行学习并更新后的学习用神经网络模型410被发送到更新部411,首先,通过更新有无判断部434来判断是否应该通过该更新后的学习用神经网络模型410更新下位控制器3的下位神经网络模型311。
107.基于更新后的学习用神经网络模型410对异常信息(以下简称为“异常信息”)的估计精度是否提高来进行该判断。即,如果通过学习能够更准确地估计异常信息,则具有更新下位神经网络模型311的意义,否则,无需更新下位神经网络模型311。
108.因此,更新有无判断部434在通过更新后的学习用神经网络模型410估计异常信息的精度提高的情况下,将该学习用神经网络模型410发送给运算位数削减部312,否则的话不做任何动作。另外,更新有无判断部434的精度提高的判断方法没有特别限定,作为一例,可以举出以下的方法:更新有无判断部434保持多个作为预先准备的测试数据的例题,评价学习用神经网络模型410基于该测试数据对异常信息的估计结果的正确率。如果与学习前的学习用神经网络模型410的正确率相比学习后的学习用神经网络模型410的正确率提高,则能够判断为提高了精度。
109.另外,更新有无判断部434未必是必须的结构,也可以省略该结构,将更新后的学习用神经网络模型410始终发送给运算位数削减部412。
110.在运算位数削减部中削减运算位数,以使各层的运算比特数与下位神经网络模型311的运算比特数相等。在本例中,32比特的内部参数被削减为4比特。由此,学习用神经网络模型410在形式上与下位神经网络模型311相等。
111.然后,被削减了运算位数的学习用神经网络模型410由更新模型发送部413发送到下位控制器3,以置换异常估计部310的下位神经网络模型311的形式进行更新。通过重复该动作,认为下位神经网络模型311进行学习,以反映上位神经网络模型407中的事件估计的结果,能够更高精度地输出异常信息。
112.图7是说明本实施方式涉及的事件估计系统1的动作的流程图。在控制系统整体动作中,下位控制器3通过工作信息获取部309获取控制对象设备2的工作信息(st01)。所获取的工作信息被工作信息保持部313保持规定的期间(st02)。
113.此外,异常估计部310基于所获取的工作信息来运算异常信息。在异常信息表示无
异常的情况下,继续获取控制对象设备的工作信息。另外,在图7中,为了便于图示,示出了在st01中获取工作信息后直到在st03中判断为没有异常为止都没有获取工作信息的情况,但工作信息的获取在异常的估计中、判定中也实时地继续进行。
114.在st03中异常信息表示有异常的情况下,工作信息发送部312将被工作信息保持部313保持的工作信息发送给上位控制器4(st04)。因此,被工作信息保持部313保持工作信息的期间t,至少到异常估计部310估计异常为止,即到从下位神经网络311输出异常信息为止,优选的是,如图所示,来自工作信息发送部312的工作信息的发送结束为止。另外,为了削减作为环形缓冲器的工作信息保持部313的容量,也可以通过在工作信息发送部312中设置其他缓冲器来存储应发送的工作信息,从而在工作信息发送所需的时间内,无需由工作信息保持部313保持工作信息。在该情况下,如果由工作信息发送部312从工作信息保持部313读取到必要的工作信息,则可以立即删除旧的工作信息。
115.上位控制器4通过工作信息接收部405接收从下位控制器3发送的工作信息(st11)。基于接收到的工作信息,事件估计部406运算事件信息,进行事件的估计(st12)。基于估计的事件,由估计结果处理部408进行适当的处理(st13)。
116.此外,基于接收到的工作信息和得到的事件信息,由学习部409进行学习用神经网络模型410的学习(st14)。更新后的学习用神经网络模型410通过更新有无判断部434判断该异常信息的估计精度是否提高(st15)。如果精度提高,则在进行了运算位数等的调整后,通过更新部411发送给下位控制器3(st15),否则不发送给下位控制器3。另外,为了图示的方便,st13的处理和st14~st16的处理串联表示,但这些处理也可以同时并行进行。
117.下位控制器3接收发送来的神经网络模型,更新异常估计部310的下位神经网络模型311(st05)。以后通过重复该动作,在具有与控制对象设备2连接的下位控制器3和与下位控制器3连接的上位控制器4的控制系统中,实现利用机器学习来估计控制对象设备2的故障和异常等事件的事件估计系统1。
118.另外,根据在本例中说明的实施方式,由下位控制器3进行异常估计,所以无需向上位控制器4发送全部的工作信息,无需连接下位控制器3和上位控制器4的高速的通信线路。另外,上位控制器4仅在下位控制器3表示有异常的情况下进行事件的估计,因此上位控制器4的运算负荷被降低。
119.并且,通过使在下位控制器3中使用的下位神经网络模型311为小规模的模型,能够将对下位控制器3的运算能力的要求抑制得较低,因此能够抑制下位控制器3的成本增加。另一方面,通过使在上位控制器4中使用的上位神经网络模型407为大规模的模型,能够有效活用上位控制器4的剩余运算能力,并且进行高精度的事件估计。
120.另外,由于基于上位神经网络模型407的高精度的事件的估计结果,进行下位神经网络模型311的追加学习和更新,所以能够提高下位控制器3中的异常估计的精度,另外,能够期待吸收控制对象设备2的机械误差。
121.图8是表示上述说明的第一实施方式的第一变形例涉及的事件估计系统101的整体结构的功能框图。该图是与在前面的实施方式的说明中参照的图4相当的图。另外,由于事件估计系统101的硬件结构与之前的实施方式相同,因此将图1~图3作为本变形例的结构引用,且对于与之前的实施方式共同的结构标注相同符号并省略其重复的说明。
122.在本变形例中,与之前的实施方式涉及的事件估计系统1相比,仅在学习部409以
及更新部411中存在差异。首先,在学习部409中,学习用神经网络模型410在之前的实施方式中使用了规模比下位神经网络模型311大的模型,但在本变形例中,规模与下位神经网络模型311相等。即,学习用神经网络模型410的其层数、各层的节点数、各层的运算比特数均与下位神经网络模型311相等,换言之,成为下位神经网络模型311的镜像模型。
123.因此,在由学习部409进行了学习用神经网络模型410的追加学习之后,无需削减学习用神经网络模型410的运算位数。因此,在更新部411中不设置运算位数削减部,在通过更新有无判断部434判断下位神经网络模型311有无更新后,通过更新模型发送部413仅将学习用神经网络模型410发送给下位控制器3,以置换异常估计部310的下位神经网络模型311的形式进行更新。
124.在本变形例中,与之前的实施方式相比,虽然在学习的精度方面稍差,但上位控制器4中的信息处理的负荷降低,另外,学习用神经网络模型410的存储所需的存储器容量降低。
125.图9是进一步表示上述说明的第一实施方式的第二变形例涉及的事件估计系统102的整体结构的功能框图。该图也是与在之前的实施方式的说明中参照的图4相当的图。另外,由于事件估计系统102的硬件结构与之前的实施方式相同,因此将图1~图3作为本变形例的结构引用,且对于与之前的实施方式共同的结构标注相同符号并省略其重复的说明。
126.在本变形例中,上位控制器4的事件估计部406所具有的上位神经网络模型407是与学习部409中的学习用神经网络模型410相同的神经网络模型,并且上位神经网络模型407自身也被更新,这一点与之前的实施方式以及第一变形例不同。
127.即,在本变形例中,上位神经网络模型407自身也通过追加学习被更新,被设计成进一步提高事件估计的精度。因此,在事件估计部406中,在由上位神经网络模型407进行事件信息的运算之后,将针对该事件的估计结果的反馈作为教学数据而活用到学习部409中,进行学习用神经网络模型410的追加学习。
128.作为反馈,例如可以考虑在估计结果处理部408中,操作员输入控制对象设备2的实际机器的现实状态如何,由此将该结果用作解答,或者将由上位神经网络模型407得到的事件信息用另外设置的服务器等来解析而得到解答。在服务器中,可以预先存储多个同种的控制对象设备2的现实的故障或维护信息,总是回答最新的解答。
129.即,学习部409将输入到上位神经网络模型407的工作信息作为例题,并与通过反馈得到的解答组合而生成教学数据,进行学习用神经网络模型410的追加学习。因此,基于上位神经网络模型407的事件估计也能够期待成为反映了机械误差、最新的见解的更正确的估计。
130.通过学习更新后的学习用神经网络模型410由更新有无判断部434判断有无更新,在判断为有更新的情况下,以置换事件估计部406的上位神经网络模型407的形式进行更新。同时,被发送到更新部411的运算位数削减部412,在进行了运算位数的削减后,由更新模型发送部413发送到下位控制器3。即,在本变形例中的下位控制器3的异常估计部310中使用的下位神经网络模型311是削减了上位神经网络模型407的运算位数的模型。
131.接下来,将参照图10至图13说明本发明的第二实施方式涉及的事件估计系统和事件估计方法。
132.图10是表示本发明的第二实施方式涉及的事件估计系统7的一例的整体外观图。另外,在以后的说明中,对于与前面说明的第一实施方式相同或对应的结构标注相同符号,对于重复的说明省略其说明。
133.第二实施方式涉及的事件估计系统7的特征在于,在上位控制器4上连接有多个下位控制器3,另外,由多个下位控制器3控制的控制对象设备2未必独立,而是相互关联。在图10中,作为这样的系统的典型例子,示出了工业用机器人8和机器人控制器9通过第一线路5连接的情形。
134.工业用机器人8在实际工作中作为单一的装置处理,但从控制的观点出发,是具有与其轴数对应的数量的伺服马达的集合体。图10所示的工业用机器人8是6轴的机器人,因此在该工业用机器人8上搭载有6台伺服马达。另外,机器人控制器9是将针对各个伺服马达的伺服控制器和统括这些伺服控制器的上位控制器集中在一起并收纳在框体中的装置。因此,在机器人控制器9中收纳有与以伺服马达为代表的控制对象设备2相同数量的下位控制器3和控制这些下位控制器的上位控制器4。
135.图11是表示本实施方式涉及的事件估计系统7的物理结构的结构图。多个控制对象设备2(在本例中为伺服马达)和分别对应的多个下位控制器3通过第一线路5连接,多个下位控制器3通过第二线路6与1台上位控制器4连接。另外,在图11中,作为第二线路6的连接方式,示出了进行所谓的星形连接的方式,但连接方式不限于图示的方式,也可以是其他形式,例如级联连接或菊花链连接等。对于第一线路5也同样,动力线设为如图所示的单独连接,另一方面,来自旋转编码器等传感器的输出也可以是级联连接或菊花链连接。在以后的图中也同样。另外,控制对象设备2、下位控制器3以及上位控制器4的硬件结构与第一实施方式的硬件结构相同,因此将图2和图3引用到本实施方式的说明中。
136.图12是表示本实施方式涉及的事件估计系统7的整体结构的功能框图。图12所示的块的一部分通过硬件来实现,并且一部分使用硬件资源、例如处理器306、处理器402、存储器305和存储器403并通过软件来实现。另外,控制对象设备2的功能结构以及下位控制器3的功能结构与第一实施方式所示的相同,因此其详细内容引用图4,在图12中仅简要地表示必要的部分。
137.在图12中,上位控制器4中包含的工作信息接收部405、第一事件估计部414和第一上位神经网络模型415、第一学习部416和第一学习用nn模型417、第一更新部418、更新有无判断部435、运算位数削减部419、更新模型发送部420以及估计结果处理部408分别具有与第一实施方式中的工作信息接收部405、事件估计部406和上位神经网络模型407、第一学习部409和学习用nn模型410、更新部411、更新有无判断部434、运算位数削减部412、更新模型发送部413以及估计结果处理部408相同的功能,没有差异。
138.在图12所示的例子中,示出了多个下位控制器3和上位控制器4连接的情形,因此在图中示出为工作信息接收部405与多个下位控制器3连接而接收各自的工作信息,另外,更新模型发送部420与多个下位控制器3连接,向需要的下位控制器3发送更新后的神经网络模型,并更新下位神经网络模型311。
139.第一上位神经网络模型415可以按每个下位控制器3、即与所连接的下位控制器3相同数量准备,也可以按每个成为对象的控制对象设备2的种类准备。例如,作为控制对象设备2,在使用容量不同的2种伺服马达的情况下,准备与各个机种对应的2个第一上位神经
网络模型415。
140.第一学习用神经网络模型417按照每个下位控制器3、即与所连接的下位控制器3相同数量准备,通过各个第一学习用神经网络模型417学习对应的控制对象设备2的机械误差。
141.本实施方式的第一事件估计部414中的第一上位神经网络模型415被设计成接受工作信息的输入并输出第一事件信息。这里,第一事件信息是能够估计成为事件估计对象的控制对象设备2中产生的变化的信息,在这一点上与第一实施方式中的事件信息没有任何变化。在本实施方式中,除此之外,在第一事件信息中包含表示需要其他工作信息的意思的其他工作信息请求。
142.关于这点进行更详细的说明,如本实施方式那样,在事件估计系统7中包含多个控制对象设备2且多个控制对象设备2相互关联的情况下,为了正确估计在控制对象设备2中产生的事件,假定仅有单一控制对象设备2涉及的工作信息不足的情况。例如,若结合本实施方式的例子进行说明,在某个控制对象设备2中检测到异常,但产生的事件是工业用机器人8的臂的变形,在跨越作为多个控制对象设备2的伺服马达产生影响的情况下,如果不综合参照多个控制对象设备2的工作信息,则认为无法确定正确的事件。
143.第一上位神经网络模型415是针对单一控制对象设备2的工作信息求出第一事件信息的模型,由此难以充分准确地确定跨越多个控制对象设备2产生的事件。因此,第一上位神经网络模型415被设计成除了输出表示针对单一控制对象设备2独立产生的事件之外同时输出其他工作信息请求,该其他工作信息请求表示需要通过一并解析其他控制对象设备2的工作信息来估计事件。
144.以具体的例子进行说明,如果根据第一事件信息估计的事件是除了物理损伤、经年劣化、润滑油不足、暖机不足之外还有其他工作信息请求这5种,则第一事件信息成为5维矢量。并且,第一事件信息的值例如为(0.1,0.3,0.3,0.2,0.7),如果表示发生了各个事件的阈值为0.6,则作为事件,对于成为事件估计对象的控制对象设备2,估计为未发生物理损伤、经年劣化、润滑油不足以及暖机不足,但发生了必须也包含其他控制对象设备2的工作信息在内进行分析的某些事件(因为其他工作信息请求的值为0.7,超过了阈值)。
145.因此,在本实施方式涉及的事件估计系统7中,在这样进行了其他工作信息请求(其值超过了规定的阈值)的情况下,设置有基于针对其他控制对象设备2、具体而言是所有的控制对象设备2的工作信息来估计事件的结构。以下,对其结构进行说明。
146.在第一事件信息表示其他工作信息请求的情况下,工作信息追加接收部421从其他下位控制器3追加接收工作信息。另外,在第一事件信息没有表示其他工作信息请求的情况下,由于无需追加接收工作信息,所以将第一事件信息发送给估计结果处理部408,进行必要的处理。
147.当工作信息追加接收部421接收到来自其他下位控制器3的工作信息时,该工作信息被发送到第二事件估计部422,并输入到第二事件估计部422所具有的第二上位神经网络模型423。第二上位神经网络模型423是将多个工作信息作为输入并输出第二事件信息的神经网络,并且是与第一上位神经网络模型415同等或其以上规模的神经网络模型。另外,第二事件信息是能够估计跨越多个控制对象设备2发生的事件的信息。
148.所得到的第二事件信息被发送到估计结果处理部408,与第一事件信息的情况相
同,进行与根据第二事件信息估计出的事件相应的适当的处理。
149.另外,在本例中,工作信息追加接收部421从其他所有的下位控制器3接收工作信息,但不限于此,也可以根据从第一事件信息得到的其他工作信息请求从其他下位控制器3的一部分接收工作信息。即,这是因为,在根据第一事件信息能够确定与要估计的事件有关的控制对象设备2的情况下,仅接收有关的控制对象设备2的工作信息即可。另外,在本例中,说明了将全部工作信息作为输入的单一的第二上位神经网络模型423,但也可以根据要估计的事件准备多个第二上位神经网络模型423。例如,在控制对象设备有6个的情况下,当估计与第一至第三控制对象设备2相关的事件时,考虑使用将关于第一至第三控制对象设备2的工作信息作为输入的第二上位神经网络模型423,当估计与第四至第六控制对象设备2相关的事件时,考虑使用将关于第四至第六控制对象设备2的工作信息作为输入的另一个第二上位神经网络模型423。
150.另外,作为用于基于第二事件信息动态地进行下位神经网络模型311的学习的结构,设置有第二学习部424和第二更新部426。
151.第二学习部424具有与每个下位控制器3对应地设置的第二学习用神经网络模型425。然后,将与各个第二学习用神经网络模型425对应的工作信息作为例题,根据组合从第二事件信息得到的解答而得到的教学数据,进行对各个第二学习用神经网络模型425的追加学习。
152.第二学习用神经网络模型425是与第一学习用神经网络模型417同等的模型(也可以共用两者)。因此,通过学习更新后的第二学习用神经网络模型425被发送到第二更新部426,由更新有无判断部436判断更新的有无,由运算位数削减部427削减运算位数并减小其规模后,由更新模型发送部428分别发送到对应的下位控制器3,以置换各个下位神经网络模型311的形式更新。
153.通过采用以上说明的结构,在本实施方式中,能够高精度地估计跨越多个控制对象设备2产生的复合事件。另外,由于无需始终将由下位控制器3时刻获取的工作信息全部发送给上位控制器4,因此无需使连接下位控制器3和上位控制器4的第二线路5成为高速线路,另外,在下位控制器3中估计为异常并且在上位控制器4中进行了其他工作信息请求的情况下进行上位控制器4中的复合事件的估计,因此能够减轻上位控制器4中的运算负荷。
154.并且,根据本实施方式的结构,对于一个下位控制器3中的异常估计,也能够进行上位控制器4的复合事件的估计,因此即使在复合事件例如表示劣化或损伤的情况下,也能够期待其初始阶段的检测,能够进行早期的应对。另外,由于进行基于复合事件的下位神经网络模型311的追加学习,所以可以期待提高对下位控制器3中的复合事件的异常估计的精度。
155.图13是说明本实施方式涉及的事件估计系统7的动作的流程图。在事件估计系统7中,在控制系统中包含多个下位控制器3,例示6轴工业用机器人8的本例中,6台下位控制器3与上位控制器4连接,但在该图中,将特别关注的1台下位控制器3作为“一个下位控制器”示出在中央的流程中,其他5台下位控制器3作为“其他下位控制器”示出在右侧。另外,左侧流程是上位控制器4的流程。
156.在图13的流程中,示出了由一个下位控制器3进行了由复合事件、即跨越多个控制对象设备2发生的事件引起的以上的检测的情况下的事件估计系统7的动作。首先,在st21
中,一个下位控制器3通过工作信息获取部309获取控制对象设备2的工作信息,在st22中,使工作信息保持部313保持规定的期间。同时,其他下位控制器3也在st31中通过各自的工作信息保持部309获取控制对象设备2的工作信息,在st32中,由各自的工作信息保持部313保持规定的期间。
157.在一个下位控制器3中,异常估计部310基于所获取的工作信息运算异常信息,在st23中判断有无异常。这里,假定判断为有异常,进入下一st24,工作信息发送部312将工作信息保持部313保持的工作信息发送给上位控制器4。另外,在st23中判断为没有异常的情况下,返回到st21,接着继续进行工作信息的获取。另外,工作信息的获取和保存在控制对象设备2的动作期间持续进行,这点与第一实施方式的情况相同。
158.在其他下位控制器3中,同样地,各自的异常估计部310基于所获取的工作信息运算异常信息,在st33中判断有无异常。这里,假定判断为没有异常,返回到st31,接着继续进行工作信息的获取。另外,在st33中判断为有异常的情况下,在st34中,与一个下位控制器3同样,各自的工作信息发送部312将工作信息保持部313所保持的工作信息发送给上位控制器4。在图13中,假定不执行st34的情况,因此在该图中,用虚线表示st34。另外,在其他的下位控制器3中,工作信息的获取和保存在控制对象设备2的动作期间持续进行,这点与第一实施方式的情况相同。
159.上位控制器4通过工作信息接收部405接收从一个下位控制器3发送的工作信息(st41)。第一事件估计部414基于接收到的工作信息运算第一事件信息,在st42中判断有无其他工作信息请求。在无需其他工作信息的情况下,即,在判断为没有其他工作信息请求的情况下,基于由估计结果处理部408估计的事件进行适当的处理(st46),基于接收到的工作信息以及得到的第一事件信息,由第一学习部416进行第一学习用神经网络模型417的追加学习(st47),由更新有无判断部435来判断有无提高精度(st48)。当精度提高时,在进行了运算位数等的调整后,由第一更新部426发送给一个下位控制器3(st49),否则不进行发送。判断为没有其他工作信息请求时的st46~st49的动作与第一实施方式中图7所示的st13~st16的动作相同。一个下位控制器3接收发送来的神经网络模型,更新异常估计部310的下位神经网络模型311(st25)。
160.另一方面,在st42中,在判断为需要其他工作信息、即有其他工作信息请求的情况下,在st43中,从工作信息追加接收部421对其他下位控制器3分别请求发送工作信息。这里,将与其他下位控制器3相关的工作信息统称为“其他工作信息”。接收到工作信息的请求的其他下位控制器3在st35中,从工作信息发送部312向上位控制器4发送工作信息保持部313所保持的工作信息。发送的其他工作信息在st44中由工作信息追加接收部421接收。
161.从图13的流程可知,在st35中,为了从其他下位控制器3向上位控制器4发送其他工作信息,在其他下位控制器3中,工作信息保持部313保持工作信息的期间t至少需要到进行来自上位控制器4的其他工作信息请求为止,优选,如图示那样,到从工作信息发送部312发送工作信息完成为止。在上位控制器4中,由于在st42中由第一事件估计部414得到第一事件信息且在判明该第一事件信息包含其他工作信息请求后立即进行其他工作信息请求,因此,该期间t也可以说成为至少在第一事件估计部414中从第一上位神经网络模型输出第一事件信息为止的期间。
162.另外,与第一实施方式中的说明相同,为了削减作为环形缓冲器的工作信息保持
部313的容量,也可以在工作信息发送部312中设置其他缓冲器来存储应发送的工作信息,由此在工作信息的发送所需的时间内,无需由工作信息保持部313保持工作信息。
163.另外,在本例的说明中,在图13中将多个下位控制器3区分为一个下位控制器3和其他下位控制器4来表示,但下位控制器3自身在接收到来自上位控制器4的其他工作信息请求之前,无法知道自己是相当于一个下位控制器3还是相当于其他下位控制器3。这是因为,即使某下位控制器3进行了有异常的判定,上位控制器4也不限于基于该异常进行其他工作信息请求,另外,也有可能同时其他下位控制器3同样进行有异常的判定,基于该异常从上位控制器4接受其他工作信息请求。
164.因此,结果无论下位控制器3自身相当于一个下位控制器3还是相当于其他下位控制器3,下位控制器3至少在期间t内将工作信息保持在工作信息保持部313中。
165.上位控制器4接着在st45中通过第二事件估计部422将接收到的工作信息全部输入到第二上位神经网络模型423中进行运算,得到第二事件信息。
166.基于根据第二事件信息估计的事件,由估计结果处理部408进行适当的处理(st46),另外,基于从一个下位控制器3和其他下位控制器3接收到的工作信息和第二事件信息,由第二学习部424进行第二学习用神经网络模型425的追加学习(st47),由更新有无判断部436判断精度有无提高(st48)。当精度提高时,在进行了运算位数等的调整后,通过第二更新部426分别发送给适当的下位控制器3(st49)。在图示的流程中,在st25中更新一个下位控制器3的下位神经网络模型311,在st36中更新其他下位控制器3的下位神经网络模型311。
167.以后通过重复该动作,除了由作为第一实施方式说明的事件估计系统7得到的效果之外,还能够得到上述本实施方式特有的效果。另外,在本实施方式中,也可以添加与作为第一实施方式的第一变形例以及第二变形例所示的例子相同的变形。关于此时得到的技术效果,也与在各个变形例中说明的相同。
168.在以上的第一实施方式涉及的事件估计系统1和第二实施方式涉及的事件估计系统7中,事件估计部406的上位神经网络模型407(在第二实施方式中,第一事件估计部414的第一上位神经网络模型415和第二事件估计部422的第二上位神经网络模型423)和学习部409的学习用神经网络模型410(在第二实施方式中,第一学习部416的第一学习用神经网络模型417和第二学习部424的第二学习用神经网络模型425)除了第一实施方式的第二变形例以外,作为相互独立的神经网络模型而准备。
169.取而代之,也可以用一部分共同的模型构成上位神经网络模型407和学习用神经网络模型410。图14是表示使一部分共同化的上位神经网络模型407和学习用神经网络模型410的结构的概念图。
170.如图14所示,上位神经网络模型407具有在包含输入层429和隐藏层431的共同层430上结合事件输出层432的形式。事件输出层432是将来自隐藏层431的输出作为事件信息输出的输出层。另外,事件输出层432可以是单层的输出层,也可以在输出层之前包含任意的隐藏层。
171.并且,学习用神经网络模型410具有与上位神经网络模型407相同的、在包含输入层429和隐藏层431的共同层430上结合异常输出层433的形式。异常输出层433是将来自隐藏层431的输出作为异常信息输出的输出层,与事件输出层432同样,可以是单层的输出层,
也可以是在输出层之前包含任意的隐藏层的输出层。
172.因此,上位神经网络模型407和学习用神经网络模型410共同使用共同层430,作为其后级的神经网络层,如果使用事件输出层432,则作为上位神经网络模型407发挥功能,如果使用异常输出层433,则作为学习用神经网络模型410发挥功能。
173.在该结构中,学习用神经网络模型410中的学习将对从上位神经网络模型407得到的事件信息的反馈作为解答并与工作信息成对地作为教学数据,通过将上位神经网络模型407的事件输出层432替换为异常输出层433而生成的学习用神经网络模型410进行追加学习。因此,该结构中的学习中的教学数据的生成可以与已经说明的第一实施方式的第二变形例相同,作为反馈,在估计结果处理部408中,可以通过操作员输入控制对象设备2的实际设备的现实状态如何,由此将该结果用作解答,或者通过另外设置的服务器等分析由上位神经网络模型407得到的事件信息来得到解答。
174.然后,当在学习神经网络模型410中进行学习、共同层430被更新时,使用相同的共同层430的上位神经网络模型407也被更新,并且学习继续,实现上位神经网络模型407的追加学习。
175.另外,除了削减学习用神经网络模型410的运算位数之外,还通过进行基于更新后的共同层430的转移学习来进行下位控制器3中的下位神经网络模型311的更新。通过采用这样的结构,能够削减上位控制器4中的神经网络模型的存储所需的容量。
176.在以上说明的第一实施方式和第二实施方式中,下位控制器3的异常估计部310通过使用作为神经网络模型的下位神经网络模型311得到异常信息,进行异常的估计。通过采用这样结构,即使在难以根据工作信息单纯地进行有无异常的估计的情况下,也能够通过利用机器学习来高精度地进行异常的估计。
177.代替这些实施方式,也可以设想在下位控制器3中可以不使用基于机器学习的神经网络模型的情况。以下,参照图15对本发明的第三实施方式进行说明。
178.图15是表示本发明的第三实施方式涉及的事件估计系统10的整体结构的功能框图。在图15所示的例子中,与第一实施方式中的图4所示的相同,是控制对象设备2和下位控制器3分别为一台的情况,但关于它们也可以分别为多台这一点与第一实施方式和第二实施方式的情况相同。另外,为了简化说明,对与前面的实施方式相同或对应的结构标注相同符号,省略其详细说明,或者仅追加必要的部分进行说明。此外,事件估计系统10的物理外观也不被限定,可以是如第一实施方式中的图1所示的那样,下位控制器3与各个控制对象设备2连接,也可以是如图2所示的那样,多个控制对象设备2相关联,还可以是它们的组合,这一点与之前的实施方式相同。
179.在本实施方式涉及的事件估计系统10中,异常估计部310不通过使用神经网络模型的机器学习,而是通过其他方式进行有无异常的估计。作为这样的方式,例如,对于工作信息的某个特定的值或其组合,可以与预先给出的阈值进行比较。更具体而言,可以考虑在电流值、温度值超过规定的阈值的情况下估计为有异常,或者在两个以上的参数的组合进入规定的区域的情况下或者未进入的情况下估计为有异常等。或者,也可以在仅从控制对象设备2接收到异常信号的输入的情况下估计为有异常,也可以是这些多个估计方法的组合。
180.总之,表示有无异常的信息作为异常信号被发送到工作信息发送部312,工作信息
发送部312基于由异常估计部310估计的有无异常将工作信息保持部313保持的工作信息发送到上位控制器4。在上位控制器4中,基于由工作信息接收部405接收到的工作信息在事件估计部406中根据由上位神经网络模型407得到的事件信息进行事件的估计,在估计结果处理部508中进行适当的处理,这点与之前的实施方式的情况相同。
181.即使是本实施方式的结构,也与第一实施方式的情况相同,由下位控制器3进行异常估计,所以无需向上位控制器4发送全部的工作信息,无需连接下位控制器3和上位控制器4的高速的通信线路。另外,上位控制器4仅在下位控制器3表示有异常的情况下进行事件的估计,因此上位控制器4的运算负荷被降低。
182.图16是表示作为本发明的其他实施方式的第四实施方式涉及的事件估计系统11的整体结构的功能框图。在本实施方式中,为了简化说明,对与前面的实施方式相同或对应的结构标注相同符号,省略其详细说明,或者仅追加必要的部分进行说明。
183.事件估计系统11的整体结构与已经说明的第二实施方式涉及的事件估计系统9类似,在控制对象设备2、下位控制器3以及上位控制器4的各个结构上没有不同。另一方面,在第二实施方式中,在一个上位控制器4上连接有多个下位控制器3以及控制对象设备2,与此相对,在本实施方式中,不同点在于下位控制器3以及控制对象设备2不一定是多个。因此,为了容易理解,在图16中示出了下位控制器3和控制对象设备2分别仅为一台的情况,但它们也可以是多台。
184.在本实施方式涉及的事件估计系统11中,第一事件估计部414的第一上位神经网络模型415也输出包含其他工作信息请求的第一事件信息,该其他工作信息请求表示需要其他工作信息的意思。但是,在本实施方式中,在其他工作信息中包含下位控制器3获取的工作信息、且是需要输入到第一上位神经网络模型415的信息以外的信息。
185.更详细地说明这一点,下位控制器3从控制对象设备2连续地得到大量的工作信息,它们被保持在工作信息保持部313中(参照图4等)。但是,下位神经网络模型311中的异常信息的输出以及第一上位神经网络模型中的第一事件信息的输出无需它们的全部,而是使用它们的一部分。例如,收集控制对象设备2的电流波形、转矩波形、振动波形、温度变化作为工作信息,但在下位神经网络模型311和第一上位神经网络模型415中,是仅使用其一部分期间的电流波形的情况。
186.在仅通过该一部分工作信息就可以充分地估计事件的情况下,基于该估计结果,由估计结果处理部408执行适当的处理即可。但是,在不是这样的情况下,即,在第一事件信息中判断为进行了其他工作信息请求的情况下,由工作信息追加接收部421追加接收其他工作信息。
187.该追加接收的工作信息可以预先规定,也可以对应于其他工作信息请求。例如,如果进行了其他工作信息请求,则预先规定为请求并接收已经发送完的电流波形以外的信息即转矩波形、振动波形以及温度波形,或者在已经接收到的一部分期间的工作信息中,认为在用于更准确地估计事件的充分的期间内的工作信息不足,规定追加接收更长的期间内的工作信息等。
188.或者,能够根据其他工作信息请求选择应追加接收的工作信息的类别,或者规定应追加接收的工作信息的期间。在这种情况下,其他工作信息请求可以是多维矢量值。
189.另外,虽然在图16中未图示,但其他工作信息请求也可以进一步与第二实施方式
同样地表示追加请求来自其他下位控制器3的工作信息。第二事件估计器422根据追加接收到的工作信息来选择应使用的第二上位神经网络模型423,以得到第二事件信息。
190.在本实施方式的结构中,基于下位控制器3得到的大量的工作信息的一部分估计有无异常,并且由上位控制器4判断是否需要追加工作信息,所以整体上减少了必须向上位控制器4发送的工作信息,无需连接下位控制器3和上位控制器4的高速的通信线路,另外,上位控制器4的运算负荷被降低。
191.此外,图17是表示作为本发明的其他实施方式的第五实施方式涉及的事件估计系统12的整体结构的功能框图。为了简化说明,对于与之前的实施方式相同或对应的结构标注相同符号,省略其详细说明,或者仅追加必要的部分进行说明,这点在本实施方式中也相同。
192.在本实施方式中,与到此为止说明的前面的实施方式不同,不同点在于不是由上位控制器4执行事件的估计,而是由上位设备13执行事件的估计。对此进行说明,如上所述,上位控制器4是通过控制下位控制器3而间接地控制控制对象设备2的控制器。并且,根据事件估计系统12的控制系统的结构,可以设想上位控制器4对下位控制器3的控制本身无需负荷高的运算的情况,在这种情况下,作为上位控制器4可以选定运算能力不那么高的设备。
193.在这样的情况等下,可以认为上位控制器4没有使用神经网络模型进行事件估计的运算能力的余量。因此,在本实施方式涉及的事件估计系统12中,与上位控制器4分开地设置进行事件估计的上位设备13。上位设备13只要是具有使用神经网络模型进行事件估计的运算能力的信息处理装置,则可以是任意的设备,也可以将一般的pc或远程设置的服务器等任意的设备用作上位设备13。
194.虽然是矛盾的说法,但是在本说明书中,将具有使用神经网络模型进行事件估计的运算能力的信息处理装置称为上位设备。在该意义上,已经说明的第一~第四实施方式中的上位控制器4均作为上位设备发挥功能。即,这里所说的上位设备不是与上位控制器相对的概念,而是包含上位控制器的设备。
195.上位设备13与上位控制器4同样地从下位控制器3接收工作信息的发送并接收。在图17中,图示了从下位控制器3也经由与上位控制器4同系统的通信线路向上位设备13发送工作信息的情况。作为这样的通信线路,可以使用适合于多个设备的连接的一般通信线路,例如,可以使用以太网(注册商标)那样的通用通信线路、或机电链路(注册商标)那样的fa用通信线路。或者,从下位控制器3到上位控制器4的连接线路和从下位控制器3到上位设备13的连接线路可以相互独立,或者也可以不同。在本实施方式中,与通信线路的方式无关,将从下位控制器3到上位控制器4的连接线路以及从下位控制器3到上位设备13的连接线路一并表示为第二线路6。
196.在本例中,上位控制器4从下位控制器3接收工作信息,在适当的定时对下位控制器3的设备控制部308发送指示,其功能以及动作上与用于fa用途的一般的控制器没有差异,因此省略其详细说明。
197.上位设备13具备在之前的实施方式中说明的工作信息接收部405、事件估计部406、估计结果处理部408、学习部409以及更新部411,其功能以及动作也与之前说明的相同。
198.如本例那样,通过与上位控制器4分开地设置上位设备13,即使在上位控制器4中
没有使用机器学习进行事件估计的足够的运算能力的余量的情况下,也能够构筑使用机器学习进行事件估计的事件估计系统12。另外,在本例的情况下,能够将远程设置并且运算能力高的服务器作为上位设备13用于事件的估计。在这样的结构中,不仅能够将作为服务器的上位设备13用于单独的事件估计系统13中,而且能够共同用于多个事件估计系统12中,因此在运用多个事件估计系统12的情况下,能够期待整体成本的降低、减少事件估计系统12的构筑工时。
199.或者,也可以如以下所示的第六实施方式那样,将作为上位设备的功能分离为多个设备。图18是表示作为本发明的其他实施方式的第六实施方式涉及的事件估计系统14的整体结构的功能框图。为了简化说明,对于与前面的实施方式相同或对应的结构标注相同符号,省略其详细说明,或者仅追加必要的部分进行说明,这点在本实施方式中也相同。
200.在本实施方式中,不同点在于,由上位控制器4进行事件估计的同时,基于所得到的事件信息的学习进行的下位控制器3的下位神经网络模型311的更新在其他设备中执行。即,如图18所示,本实施方式涉及的事件估计系统14的上位设备被分离为具有工作信息接收部405、事件估计部406以及估计结果处理部408的第一上位设备15、和具有学习部409和更新部411的第二上位设备16这两个。
201.第一上位设备15也是通过控制下位控制器3间接地控制控制对象设备2的上位控制器4,通常设置在控制对象设备2或下位控制器3的附近,接受估计结果处理部408的处理结果,例如操作者能够迅速地采取适当的处置。
202.第二上位设备16是运算能力高的信息处理装置,不仅可以是一般的pc,也可以是远程设置的所谓的计算服务器。另外,第一上位设备15以及第二上位设备16的配置位置是任意的,没有限制。
203.在本实施方式的结构中,也是上位控制器4的第一上位设备15从下位控制器3接收工作信息,在事件估计部406中输出事件信息来进行事件的估计。此外,估计结果处理部408基于所得到的事件信息进行适当的处理。
204.与此同时,第一上位设备15基于事件信息将工作信息和事件信息发送给第二上位设备16。在第二上位设备16中,基于发送来的工作信息和事件信息由学习部409进行学习用神经网络模型410的学习。进行了学习的学习用神经网络模型410在更新部411中,由更新有无判断部434判断有无更新,并由运算位数削减部412削减其运算位数后,由更新模型发送部413发送给下位控制器3,更新下位神经网络模型311。这一系列的流程与在第一实施方式中说明的流程相同。
205.如本例这样,在上位控制器4的基础上,通过使用第二上位设备16,特别是对于需要大量运算的神经网络模型的学习,使运算能力优异的专用设备进行,由作为第一上位设备15的上位控制器4进行事件的估计,由此事件估计系统14所需的运算分散成为与各个设备的运算能力对应的适当的负荷。
206.另外,以上所示的第一至第六实施方式并不是互不相容的,本领域技术人员可以根据其需要取舍选择其要素并适当组合,实施必要的变形,本发明可以理解为包括这样得到的各种组合和变形例。
207.另外,第一实施方式中的下位神经网络模型311的规模比上位神经网络模型407小,在第二实施方式和第四实施方式中,下位神经网络模型311的规模比第一上位神经网络
模型415小,但这是鉴于一般上位控制器4的运算能力比下位控制器3高的情况而设计的,也可以不是这样。即,下位神经网络模型311与上位神经网络模型407或第一上位神经网络模型415的规模相同,或者下位神经网络模型311的规模较大也无妨。
208.如果下位控制器3的运算能力足够高,则这样的设计也是可能的。在该情况下,通过使下位神经网络模型311特别适合异常信息的输出,上位神经网络模型407或第一上位神经网络模型415特别适合事件信息或第一事件信息的输出,由此能够期待降低作为事件估计系统整体的运算负荷,并且提高事件估计的精度。
209.符号说明
210.1事件估计系统、2控制对象设备、3下位控制器、4上位控制器、5第一线路、6第二线路、7事件估计系统、8工业用机器人、9机器人控制器、10事件估计系统、11事件估计系统、12事件估计系统、13上位设备、14事件估计系统、15第一上位设备、16第二上位设备、201三相电动机、202传感器、301伺服放大器、302控制电路、303ac/dc转换器、304逆变器、305存储器、306处理器、307输入输出、308设备控制部、309工作信息获取部、310异常估计部、311下位神经网络模型、312工作信息发送部、313工作信息保持部、401控制电路、402处理器、403存储器、404输入输出、405工作信息接收部、406事件估计部、407上位神经网络模型、408估计结果处理部、409学习部、410学习用神经网络模型、411更新部、412运算位数削减部、413更新模型发送部、414第一事件估计部、415第一上位神经网络模型、416第一学习部、417第一学习用神经网络模型、418第一更新部、419运算位数削减部、420更新模型发送部、421工作信息追加接收部、422第二事件估计部、423第二上位神经网络模型、424第二学习部、425第二学习用神经网络模型、426第二更新部、427运算位数削减部、428更新模型发送部、429输入层、430共同层、431隐藏层、432事件输出层、433异常输出层、434更新有无判断部、435更新有无判断部、436更新有无判断部。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1