移动体的制作方法

文档序号:19158895发布日期:2019-11-16 01:08阅读:212来源:国知局
移动体的制作方法

本公开涉及移动体。



背景技术:

公知有移动体追踪人等对象的技术。移动体的一例是无人搬运车(agv(automatedguidedvehicle))等机器人。

当在移动体追踪对象的期间丢失了该对象的情况下,要求搜索、再次发现该对象而重新开始追踪。例如,在日本特开2005-199377号公报和日本特开2006-344075号公报中,公开了以下技术:在多个传感器或机器人之间始终进行通信,共享传感器信息、各机器人的位置信息等以再次发现对象。在日本特开2016-119626号公报中,公开了以下技术:通常使用地上的监视照相机来追踪对象,但在丢失了对象的情况下,使搭载有照相机的飞行装置进行飞行,根据由照相机拍摄到的图像来检测该对象。并且,扬长辉等人,“使用了多个活动的照相机的对指定人物的实时追踪”(大阪大学研究生院工学研究科)公开了以下技术:设置多个照相机,在丢失了对象的情况下,在照相机之间进行信息交换来预测对象存在的区域。

现有技术文献

专利文献

专利文献1:日本特开2005-199377号公报

专利文献2:日本特开2006-344075号公报

专利文献3:日本特开2016-119626号公报

非专利文献

非专利文献1:扬长辉等人,“使用了多个活动的照相机的对指定人物的实时追踪”,大阪大学研究生院工学研究科



技术实现要素:

发明要解决的课题

在上述的技术中,在丢失了追踪的对象的情况下,需要在移动体之间或者照相机之间始终进行通信,因此通信负载以及通过通信而取得的信息的处理负载增加。特别是,在上述的日本特开2006-344075号公报的技术以及“使用了多个活动的照相机的对指定人物的实时追踪”的技术中,照相机或传感器的协作台数增加得越多,对系统施加的负载越大。这可能会导致处理跟不上。

在导入飞行装置的情况下,除了需要导入成本之外,在飞行装置无法飞行的场所,无法再次发现对象。

假设在工厂使agv追踪人等,出于使用与其他设备共用的基础设施的原因,要求设计、开发能够预计上述的通信负载和处理负载的增加的系统。用于导入以及维护、管理的成本可能会增加。

本公开的实施方式提供了能够降低通信、处理和/或机材购买的成本的移动体以及包含该移动体的移动体系统。

用于解决课题的手段

根据本发明的例示的实施方式,移动体在存在多个传感设备的室内和/或室外与多个所述传感设备中的至少1台协作而追踪目标,其中,所述移动体具有:传感器,其感测所述目标;通信装置;处理器;以及存储器,其保存有计算机程序,所述处理器通过执行所述计算机程序而进行以下内容:对所述传感器的输出进行分析而计算所述目标的位置,在丢失了所述目标时,利用最后计算出的所述目标的位置或对丢失所述目标后的所述传感器的输出进行分析而得到的位置、以及丢失所述目标之前的所述目标或本机的移动历史来推断所述目标存在的区域,经由所述通信装置对根据所述区域而被选出的至少1台所述传感设备指示捜索所述目标,经由所述通信装置接收所述传感设备的所述捜索的结果。

发明效果

根据本公开的实施方式,在丢失了作为追踪对象的目标的情况下,移动体向其他传感设备发送搜索请求,使用一部分的传感设备来搜索丢失的目标。通过与其他传感设备协作地跟踪目标,能够抑制通信负载和处理负载。另外,由于不需要导入用于搜索丢失的目标的专用的飞行装置等,因此能够削减购买这样的机材等所需的成本。

附图说明

图1是示出追踪在通道1中行走的人2的agv10的图。

图2是本公开的例示的agv10的外观图。

图3是示出agv10的硬件的结构的图。

图4是示出搜索范围r、agv10以及其他agv20a~20c的各位置的关系的图。

图5是示出作为目标的人2的移动方向d的图。

图6是示出考虑了人2的移动方向d而决定的可拍摄区域s的部分区域sp的图。

图7是示出例示的实施方式的丢失了在通道1中移动的人2的agv10、搜索区域r以及部分区域sp的一例的图。

图8a是示出微型计算机14a的处理的过程的流程图。

图8b是示出微型计算机14a的处理的过程的流程图。

图9是示出接收到搜索请求的传感设备的微型计算机的处理过程的流程图。

具体实施方式

以下,参照附图对本公开的移动体的一例进行说明。在本说明书中,作为移动体的一例,举出了无人搬运车。如上所述,无人搬运车也被称为agv,在本说明书中也记述为“agv”。另外,agv具有搬运物品的功能并不是必须的。不搬运任何东西的可移动机器人(mobilerobot)也属于本说明书的agv的范畴。另外,在本说明书中,例示了具有四个车轮的台车型的agv,但车轮的数量和形状是任意的。agv例如也可以是具有两个车轮的摩托车型,也可以是具有三个以上车轮的圆形形状。

图1示出了追踪在通道1中行走的人2的agv10。agv10追踪人2的目的例如是搬运人2的货物、或者是对被判断为可疑人员的人2进行监视。

agv10分别对内置的多个马达进行驱动,使车轮旋转而移动。agv10具有后述的深度相机。agv10在使人2进入到深度相机的视野f中的同时测量从agv10到人2的距离。另外,agv10根据该距离以及由深度相机取得的人2的图像来运算人2的位置、行进方向以及移动速度,而追踪人2。

agv10具有人2的特征量以识别图像中的人2。特征量例如是表示图像上的人2的轮廓(边缘)的多个特征点、人2的服装的颜色、基于与人2的身体的各部位的距离的三维形状。

在通道1中设置有多个照相机3a和3b。在图1中,照相机3a和3b固定设置于通道1的顶棚,但也可以设置于壁面。具有与agv10相同的结构和功能的未图示的其他agv也在通道1中行驶。搭载于该其他agv的照相机与固定设置的照相机不同,能够作为可动式的照相机而进行动作。

图2是本实施方式的例示的agv10的外观图。另外,图3示出了agv10的硬件的结构。

agv10具有框架12、搬运台13、行驶控制装置14、深度相机15以及四个车轮11a~11d。另外,在图5中示出了前轮11a、后轮11b以及后轮11c,由于前轮11d被框架12遮住,因此未明示。

行驶控制装置14是对agv10的动作进行控制的装置。行驶控制装置14主要具有包含微型计算机(后述)的多个集成电路、多个电子部件、以及搭载有该多个集成电路和该多个电子部件的基板。

深度相机15除了具有拍摄动态图像和/或静态图像的一般功能之外,还具有测量与物体的距离(深度)的功能。深度相机15具有未图示的图像传感器,能够通过由图像传感器接收视野f的光而取得静态图像。按照规定的时间间隔连续取得的静态图像的集合是动态图像。由于取得动态图像和静态图像的技术是公知的,因此省略进一步的详细说明。以下,将动态图像和静态图像统称为“图像”。能够由深度相机15检测出的物体的例子是人、货物、架子、墙壁。

深度相机15例如通过tof(timeofflight:飞行时间)方式来测量深度。tof方式是根据光在深度相机15与物体之间往复的时间来测量从深度相机15到物体的距离的方式。tof方式的深度相机15例如放射脉冲状红外光,使用传感器来接收被物体反射后的该红外光。深度相机15检测所放射的红外光的相位与接收到的反射光的相位之差(相位差),将该相位差转换为时间差,进而运算该时间差与光速之积。运算结果表示深度相机15与物体的往复距离。由此,深度相机15能够实时地测量从照相机到物体的单程距离。由于深度相机15的构造和动作原理是公知的,因此在本说明书中省略了进一步的详细说明。

根据agv10的位置和姿势以及由深度相机15取得的图像,agv10可以得到本机周围的物体的配置。通常,移动体的位置和姿势被称为姿态(pose)。移动体在二维面内的位置和姿势是用xy正交坐标系中的位置坐标(x,y)和相对于x轴的角度θ来表现的。以下,有时将agv10的位置和姿势、即姿态(x,y,θ)简称为“位置”。

后述的测位装置能够通过将局部地图数据(根据使用深度相机15取得的图像和距离的数据而生成)与更大范围的环境地图数据进行对照(匹配)而识别环境地图上的自身位置(x,y,θ)。预先准备“更大范围的环境地图数据”,并作为地图数据保存于存储装置14c中。

深度相机15是用于感测周围空间而取得传感器数据的外界传感器的一例。激光测距仪和超声传感器也是这样的外界传感器的一例。在本实施方式中,深度相机15仅是用于测量从agv10到人2的距离的装置的一例。也可以使用双目式相机来代替深度相机15。

agv10能够通过组合上述的各种传感器而进行动作。例如,agv10可以使用激光测距仪来扫描周围的空间,测量周围的物体的存在以及与该物体的距离。另外,agv10也可以使用不取得进深信息的照相机来取得图像。agv10能够将从激光测距仪输出的数据与从照相机输出的图像数据组合来推断自身位置。agv10也可以具有另外的深度相机15以追踪后述的“目标”。或者,只要使用从激光测距仪输出的距离的信息和从照相机输出的图像数据,也能够省略深度相机15和双目式相机。在本说明书中,有时将外界传感器称为“传感设备”,将从外界传感器输出的数据称为“传感器数据”。

另外,在图1和图2中,视野f被描绘为与agv10所行驶的地面平行,应当注意的是,视野f实际上也在与地面垂直的方向上扩展。

从深度相机15输出的“传感器数据”包含图像和距离的数据。能够按照图像的每个像素而测量距离。与人2的距离例如能够以形成图像中的人2的像的各像素的距离的平均值的方式来求取。

参照图3。在图3中也示出了agv10的行驶控制装置14的具体结构。

agv10具有行驶控制装置14、深度相机15、驱动装置17以及两台马达16a和16b。

行驶控制装置14具有微型计算机14a、存储器14b、存储装置14c、通信电路14d以及测位装置14e。微型计算机14a、存储器14b、存储装置14c、通信电路14d以及测位装置14e通过通信总线14f而连接,能够相互收发数据。另外,深度相机15也经由通信接口(未图示)与通信总线14f连接,将作为测量结果的测量数据发送给微型计算机14a、测位装置14e和/或存储器14b。

微型计算机14a是进行用于控制包含行驶控制装置14的agv10整体的运算的处理器或控制电路(计算机)。典型地,微型计算机14a是半导体集成电路。微型计算机14a向驱动装置17发送pwm(pulsewidthmodulation:脉冲宽度调制)信号而对驱动装置17进行控制使其调整在马达中流动的电流。由此,马达16a和16b分别以期望的转速进行旋转。

存储器14b是存储由微型计算机14a执行的计算机程序的易失性的存储装置。存储器14b也能够被用作微型计算机14a和测位装置14e进行运算时的工作存储器。

存储装置14c是存储地图数据的非易失性的半导体存储器装置。但是,存储装置14c也可以是以硬盘为代表的磁记录介质、或者以光盘为代表的光学式记录介质。并且,存储装置14c也可以包含用于相对于任何记录介质进行写入和/或读取的头装置以及该头装置的控制装置。

通信电路14d例如是进行基于“蓝牙”(注册商标)和/或wi-fi(注册商标)标准的无线通信的无线通信电路。任何标准均包含使用了2.4ghz频段的频率的无线通信标准。

测位装置14e从深度相机15接收传感器数据,并且读取存储于存储装置14c中的地图数据。测位装置14e能够进行对照传感器数据和地图数据而识别自身位置的处理。测位装置14e的具体动作在后文描述。

另外,在本实施方式中,微型计算机14a和测位装置14e是单独的构成要素,但这仅是一个例子。也可以是能够独立地进行微型计算机14a和测位装置14e的各动作的一个芯片电路或半导体集成电路。在图3中示出了包括微型计算机14a和测位装置14e的芯片电路14g。在本说明书中,有时将微型计算机14a、测位装置14e和/或芯片电路14g称为计算机或处理电路。另外,以下,以微型计算机14a和测位装置14e分别独立地设置的例子进行说明。

两台马达16a和16b分别安装于两个车轮11b和11c而使各车轮旋转。

驱动装置17具有用于调整分别在两台马达16a和16b中流动的电流的马达驱动电路17a和17b。马达驱动电路17a和17b分别是所谓的逆变电路,根据从微型计算机14a发送的pwm信号而使在各马达中流动的电流接通或断开,由此调整在马达中流动的电流。

由管理人员或行驶管理装置(未图示)指示agv10追踪人2。在本实施方式中,对在追踪人2的期间agv10丢失了人2时的agv10的动作进行说明,同时对存在于agv10的周围的其他agv或照相机的动作进行说明。

在以下的说明中,简称为“照相机”时是指在agv10所行驶的室内和/或室外固定设置的照相机。另一方面,将搭载于其他agv的照相机表达为“其他agv的照相机”等。另外,照相机以及其他agv的照相机均是“传感设备”的一例。

另外,将追踪的对象称为“目标”。在本实施方式中,目标是人2。但是,只要是动物、其他agv等能够移动的物体,都能够是目标。

在本说明书中,“丢失”目标主要包含两个含义。一个含义是指在所取得的图像上不再存在目标的像的情况。另一个含义是指由于在所取得的图像上存在包含目标的像在内的多个像而导致微型计算机14a无法将目标的候选决定为一个的情况。

在丢失了目标时,agv10的微型计算机14a决定包含被推断为目标存在的位置的区域(搜索区域)。微型计算机14a利用通信电路14d向根据该搜索区域而选择的至少一台其他agv或照相机指示搜索目标。接收到指示的其他agv等感测周围的空间而搜索目标,并将搜索的结果发送给agv10。微型计算机14a接收搜索的结果,在结果表示目标存在的情况下,使本机移动至目标所存在的位置,从该位置重新开始目标的追踪。另一方面,在搜索的结果表示目标不存在的情况下,微型计算机14a变更搜索区域,再次进行上述的动作。

在以下的说明中,对由微型计算机14a决定搜索区域的处理、根据搜索区域而选择至少一台其他agv或照相机的处理、以及目标的搜索处理进行说明。

图4示出了搜索范围r、agv10以及其他agv20a~20c的各位置的关系。另外,能够将“其他agv20a~20c”的一部分或全部置换为“照相机”。为了便于说明,假设各agv20a~20c的结构与agv10相同。因此,各agv20a~20c具有深度相机15。

agv20a~20c的各深度相机具有视野fa~fc。各视野fa~fc的进深例如为1m~5m。进深比较短是因为考虑了从深度相机放射的红外光的到达范围以及用于识别所拍摄的图像中的目标的像的分辨率。另外,视野的进深不限于用整数值来表示,也可以用小数值来表示。

在图4中,用符号“+”来表示作为目标的人2的位置。agv10根据从深度相机15取得的图像、与该图像中的人2的距离、以及agv10的姿势而识别人2的位置直至到达符号“+”的位置。假设当前agv10在符号“+”的位置丢失了人2。

能够假设在丢失了人2的时刻,目标移动的速度与进行追踪的agv10移动的速度v相等。agv10例如能够利用马达16a和16b的转速以及车轮的半径值而求取速度v。在agv10具有速度计的情况下,agv10也可以利用该速度计的输出值而取得速度v。

或者,agv10也可以根据深度相机15所拍摄的多张图像以及距离的变化量来求取目标移动的速度。agv10也可以对在丢失人2之前所拍摄的多张图像进行分析,利用拍摄时刻之差和能够根据图像和/或距离而确定的位置的变化量来求取人2移动的速度。但是,在agv10正在行驶的情况下,需要考虑agv10移动的速度。

由上述的说明可知,在agv10丢失了人2的情况下,agv10利用作为在丢失人2之前所取得的agv10或目标的移动历史的、到目前为止移动的速度的信息。

将丢失目标之后的经过时间设为t。被推断为目标在丢失目标之后所移动的距离、即推断移动距离lr是通过lr=v·t而获得的。即,目标能够移动的范围被推断为位于图4的以符号“+”的位置为中心的半径lr的圆内。agv10将该圆内的区域设定为“搜索区域r”。

能够取得搜索区域r的图像的agv是其他agv20a~20c中的存在于图4所示的可拍摄区域s内的agv。可拍摄区域s设定得比搜索区域r大。例如,可拍摄区域s能够被规定为以符号“+”的位置为中心的半径ls(>lr)的圆。半径之差(ls-lr)相当于其他agv的深度相机的视野的进深。存在于可拍摄区域s内的其他agv能够使用深度相机来拍摄搜索区域r的至少一部分。在本实施方式中,其他agv的深度相机不是必须具有能够拍摄整个搜索区域r的性能。

另外,即使存在于可拍摄区域s内,由于其他agv的深度相机的视野不是朝向搜索区域r的方向,因此有可能存在实际上无法拍摄搜索区域r的情况。但是,在本实施方式中,追踪目标的agv10对存在于可拍摄区域s内的其他agv指示搜索区域r的搜索。另外,如后所述,也向其他agv发送确定搜索区域r的数据,因此其他agv通过根据需要移动而能够拍摄搜索区域r。

在图4所示的例子中,根据推断出的搜索区域r而选择其他agv20a和20b。agv20a和20b感测搜索区域r而搜索目标。另一方面,位于可拍摄区域s的外部的agv20c没有被选为对搜索区域r内的目标进行搜索的agv。

agv10经由通信电路14d发送搜索请求。在本实施方式中,搜索请求被发送给所有其他agv和照相机。此时,agv10也在搜索请求中添加用于确定搜索区域r和可拍摄区域s的区域数据。区域数据是丢失了人2的位置的坐标、半径lr和ls的值的组合。“坐标”能够用在agv10所行驶的空间中预先设定的“绝对坐标”来指定。

接收到搜索请求和区域数据的各agv和照相机判定自身的位置是否位于可拍摄区域s内。

在agv的情况下,在该判定用的处理中,agv10只要利用上述的测位装置14e即可。接收到搜索请求的各agv从自身的深度相机接收图像数据,并且读取存储于存储装置14c中的地图数据。测位装置14e能够进行对照图像数据和地图数据而识别自身位置的处理。各agv的微型计算机只要判定识别出的自身位置是否包含于上述的可拍摄区域s内即可。另外,例如也可以利用lidar等传感器、陀螺仪、轮式编码器等以识别自身位置。

另一方面,由于照相机是固定设置的,因此能够使其预先存储位置的信息。各照相机的微型计算机只要判定自身的位置是否包含于上述的可拍摄区域s内即可。

通过上述的处理,当推断出搜索区域r时,可拍摄区域s被决定,进而可拍摄区域s内的其他agv20a和20b被选出。该其他agv20a和20b拍摄由丢失了人2的位置的坐标和用半径lr所示的搜索区域r,判定在图像内是否存在目标,并将搜索结果发送给agv10。

在判定图像内是否存在目标时,agv10只要预先向agv20a和20b发送作为目标的人2的特征数据即可。特征数据表示用于供agv10识别图像中的人2的特征量。发送的时机是任意的。例如,各agv20a和20b在判定为自身的位置包含于上述的可拍摄区域s内时,通知给agv10。agv10只要响应该通知的接收而发送特征数据即可。

该其他agv20a和20b分别进行图像处理,判定在所取得的图像内是否与特征数据完全匹配。另外,“匹配”也包含在所取得的图像内存在以规定以上的比例、例如60%以上的比例与特征数据匹配的像的情况。

根据上述的处理,在丢失了目标时进行通信而发送搜索请求,因此能够将通信负载抑制得较低。另外,由于能够通过比较简单的运算而决定搜索区域r和可拍摄区域s,因此微型计算机的运算负载足够低。并且,由于使用直接根据可拍摄区域s而选择的、或者间接根据搜索区域r而选择的传感设备进行搜索,因此也不会始终使用所有的传感设备。由此,在每次搜索时也不会浪费地使用整体资源。并且,由于也不需要为了上述处理而导入新的设备,因此也不需要例如日本特开2016-119626号公报所记载的飞行装置那样的设备的导入成本。

接下来,对用于进一步缩小搜索区域r的处理进行说明。

图5示出了作为目标的人2的移动方向d。微型计算机14a能够使用在丢失人2之前由深度相机15取得的多张图像来确定移动方向d。例如,微型计算机14a检测在丢失人2紧前所取得的2张图像中的人2的像的“变化”。如果人2的像的位置在从左向右横贯图像的方向上发生变化,则推断为人2朝向右方向。另一方面,在人2的像的“变化”没有在横贯图像的方向上发生的情况下,推断为人2直线前进或者停止。

人2的移动方向能够成为用于有效地限定在丢失人2之后搜索人2的区域的有力的线索。微型计算机14a进一步考虑人2的移动方向而限定可拍摄区域s。

图6示出了考虑了人2的移动方向d而决定的可拍摄区域s的部分区域sp。微型计算机14a将可拍摄区域s中的包含人2的移动方向d的具有一定的宽度的区域决定为部分区域sp。

微型计算机14a生成确定部分区域sp的数据作为区域数据。区域数据例如是丢失人2的位置的坐标和半径ls的值、以及包含移动方向d的规定的角度范围的组合。接收到搜索请求和区域数据的各agv和照相机能够判定自身的位置是否位于部分区域sp内。

根据上述的处理,agv20a在本机的深度相机能够拍摄的范围内拍摄搜索区域r,判定在图像内是否存在目标。然后,agv20a将搜索结果发送给agv10。

另一方面,由于其他agv20b不存在于部分区域sp内,因此不会作为用于搜索人2的agv而进行动作。

另外,即使在存在于部分区域sp内的其他agv20a的搜索结果表示目标不存在的情况下,微型计算机14a也可以变更部分区域sp,发送新的搜索请求和区域数据。变更的结果是,能够由与agv20a不同的agv或照相机进行新的搜索。其结果为,对搜索区域r内的另一部分进行了搜索。

通过决定被认为人2存在的可能性更高的部分区域sp,并使部分区域sp内的其他agv和/或照相机搜索人2,从而能够进一步限定进行搜索的agv和/或照相机的范围。由此,实现了传感设备的更有效的利用。

在上述的说明中,为了容易理解本发明人员发现的处理,举出了搜索区域r和可拍摄区域s是以丢失人2的位置为中心的圆的例子。接下来,对图6的更具体的例子进行说明。

图7示出了例示的实施方式的丢失了在通道1中移动的人2的agv10、搜索区域r以及部分区域sp的一例。各标号和符号与以上的例子相同。

丢失了人2的agv10的微型计算机14a根据丢失之前人2移动的速度而决定搜索区域r。搜索区域r能够被定义为由双点划线和通道1的墙壁所包围的区域。并且,微型计算机14a考虑人2的移动方向d而决定部分区域sp。部分区域sp能够被定义为由虚线和通道1的墙壁所包围的区域。

微型计算机14a经由通信电路14d将确定部分区域sp的区域数据与人2的搜索请求一同发送给其他agv和照相机。另外,如上所述,部分区域sp也可以通过丢失人2的位置的坐标和半径ls的值、以及包含移动方向d的规定的角度范围的组合而确定,也可以通过在通道1中预先设定的分区(区域)而确定。

接收到搜索请求和区域数据的其他agv和照相机按照上述的方法来判定本机是否位于部分区域sp内。在图7的例子中,agv20d和照相机20e分别判定为本机位于部分区域sp内,从而对搜索区域r进行感测、搜索目标。另一方面,位于部分区域sp的外部的照相机20f不对搜索区域r内的目标进行搜索。

由上述的例示的实施方式的说明可知,能够根据agv10行驶的通道1等而适当地设定搜索区域r、可拍摄区域s以及部分区域sp。

接下来,参照图8a和图8b对进行上述处理的agv10的微型计算机14a的动作进行说明。

图8a和图8b是示出微型计算机14a的处理的过程的流程图。

在步骤s10中,微型计算机14a对从作为传感器的深度相机15输出的图像和距离的数据进行分析,计算目标的位置。

在步骤s11中,微型计算机14a判定是否丢失了目标。在未丢失目标的情况下,处理前进到步骤s12,在丢失了目标的情况下,处理前进到步骤s13。

在步骤s12中,微型计算机14a向驱动装置17输出pwm信号,使本机朝向计算出的位置行驶。

在步骤s13中,微型计算机14a利用最后计算得到的目标的位置以及丢失目标之前的目标或自身装置的移动历史来推断包含目标的当前位置的搜索区域r。

在步骤s14中,微型计算机14a经由通信电路14d输出目标的搜索请求和区域数据。由此,根据推断出的搜索区域r以及可拍摄区域s或部分区域sp,其他agv或照相机被选出。

在步骤s15中,微型计算机14a向被选出的其他agv或照相机发送目标的特征数据。由此,微型计算机14a能够使被选出的其他agv或照相机判定是否存在具有与特征数据匹配的特征的物体。

处理接续图8b的a。

在步骤s16中,微型计算机14a接收从其他agv或照相机发送的搜索结果。

在步骤s17中,微型计算机14a参照搜索结果而判定是否发现了目标。在搜索结果表示目标不存在时,处理前进到步骤s18,在表示目标存在时,处理前进到步骤s19。

在步骤s18中,微型计算机14a变更搜索区域r以及可拍摄区域s或部分区域sp。搜索区域r的变更是伴随着丢失人2之后的经过时间的增加而需要的变更。可拍摄区域s或部分区域sp的变更是伴随新选择不同的可拍摄区域s或部分区域sp的变更。然后,处理返回到图8a的“b”,再次进行步骤s14及之后的处理。

在步骤s19中,微型计算机14a使本机移动至发现目标的位置,从该位置重新开始跟踪目标。另外,由于在使本机移动至发现目标的位置的期间也存在目标移动的可能性,因此可以使其他agv或照相机继续进行目标的搜索。

接下来,参照图9对搭载于接收到搜索请求的其他agv的微型计算机或照相机(传感设备)的微型计算机的处理进行说明。

图9是示出接收到搜索请求的传感设备的微型计算机的处理的过程的流程图。假设该传感设备是agv。该agv具有图3所示的硬件。因此,在以下的说明中,看作具有图3所示的结构的agv的处理进行说明。

在步骤s31中,微型计算机14a经由通信电路14d接收搜索请求和区域数据。

在步骤s32中,微型计算机14a判定自身位置是否位于可拍摄区域s内。在判定的结果是判定为自身位置位于可拍摄区域s内的情况下,处理前进到步骤s33,在判定为位于可拍摄区域s外的情况下,处理结束。另外,在作为区域数据而包含有确定部分区域sp的数据的情况下,只要判定自身位置是否位于部分区域sp内即可。

在步骤s33中,微型计算机14a利用搭载的深度相机15进行拍摄。然后,在步骤s34中,微型计算机14a判定在拍摄到的图像内是否存在与特征数据匹配的像。

在步骤s35中,微型计算机14a经由通信电路14d将目标的存在以及本机的位置信息作为搜索结果而发送给发送搜索请求的agv10。

以上,对本公开的例示的实施方式进行了说明。

在上述的说明中,丢失的目标的推断移动距离是以目标或agv10的移动速度与丢失之后的经过时间之积的方式而求出的。但是,也可以不直接使用运算的结果,而使用例如将所得到的推断移动距离按照1m单位、5m单位或10m单位向上进位后的近似值来决定搜索区域r、可拍摄区域s或可拍摄区域s。

在上述的说明中,接收到搜索请求的其他agv或照相机判定在图像中是否存在具有与人2匹配的特征数据的像。通过由其他agv或照相机而不是agv10进行判定,能够分散agv10的处理负载。

但是,也可以不是由其他agv或照相机进行判定,而是由agv10的微型计算机14a进行判定。在该情况下,其他agv或照相机将拍摄到的图像的数据发送给agv10。agv10的微型计算机14a从存在于可拍摄区域s或部分区域sp内的所有的agv或照相机接收图像的数据,因此处理负载暂时增加。然而,由于其他agv或照相机仅是拍摄并发送图像的数据即可,因此能够将自身的计算机资源分配给自身的处理。

产业上的可利用性

本公开能够广泛地用于具有追踪目标的功能的移动体。

标号说明

2:人(追踪对象、目标);3a、3b:照相机;10:自动搬运车(agv);14:行驶控制装置;14a:微型计算机;14b:存储器;14c:存储装置;14d:通信电路;14e:测位装置;15:深度相机;16a、16b:马达;17:驱动装置;17a、17b:马达驱动电路。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1