机器人清洁器系统的控制方法及遥控设备与流程

文档序号:11893376阅读:306来源:国知局
机器人清洁器系统的控制方法及遥控设备与流程

相关申请的交叉引用

本申请请求2012年10月26日提交的、申请号为10-2012-0119843的韩国申请和2013年9月5日提交的、申请号为10-2013-0106870的韩国申请的较早申请日的权益和优先权,其全部内容通过引用合并于此。

技术领域

本发明涉及一种机器人清洁器的控制方法及遥控设备。



背景技术:

机器人清洁器是一种用于清洁房间的地面或地毯的家用电器。机器人清洁器包括设置在清洁器外壳中的吸气设备,并且该吸气设备由电机和风扇构成。在通过驱动吸气设备吸入包含杂质的外部空气之后,机器人清洁器分离杂质以收集灰尘并且排出已被除掉杂质的清洁空气。

真空清洁器可以包括直接由用户操作的手动真空清洁器和自己执行清洁而无需用户操作的机器人清洁器。

机器人清洁器在自己驱动于设定为待清洁的区域时从该区域中的地面吸入杂质(例如灰尘)。机器人还可以在使用障碍物传感器自动驱动于清洁区域的同时执行清洁,或者在经由无线链接到机器人清洁器的遥控设备手动驱动的同时执行清洁。

然而,这样的机器人清洁器中未设置用于精确地测量用户和机器人清洁器之间的相对位置的元件,并且具有无法基于用户和机器人清洁器之间的相对位置提供各种基于位置服务的缺点。

此外,当手动操作机器人清洁器时,用户必须经由设置在遥控设备中的方向键实时改变机器人清洁器的通道。可能发生机器人清洁器的操作迟延,并且用户可能不方便操作方向键。因此,常规机器人清洁器具有不能精确地操作机器人清洁器的缺点。

必须在用户直接注视机器人清洁器的同时执行这样的机器人清洁器的无线操作。当用户执行被划分成多个区域的清洁区时,用户和机器人清洁器必须位于相同的区域才能够无线操作机器人清洁器。换言之,除非位于不同区域的用户注视着机器人清洁器,否则不可能有效地执行机器人清洁器的无线操作。

当用户无线控制常规机器人清洁器时,不利的是机器人清洁器难以使用户感到愉悦。因此,用户通常仅使用自动清洁模式,并且现实中几乎没有执行遥控设备的必要性。



技术实现要素:

本公开的示例性实施例提供一种机器人清洁器并且克服包括机器人清洁器的机器人清洁器系统的缺点。

本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器能够通过向用户提供愉悦(pleasure)和原始的清洁功能,可以从而提高产品可靠性和满意度。

本公开的示例性实施例还提供一种可以测量用户与其自身之间的相对位置的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种即使用户不直接注视机器人清洁器也可以无线控制机器人清洁器的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种可以将由遥控设备的显示器识别的清洁区域与实际清洁区域相映射的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种可以防止破坏其外部设计并且允许用户容易地判定无线操作的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种可以通过基于机器人清洁器和用户之间的位置信息提供基于位置服务而提高用户便利性的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统可以由用户经由显示在遥控设备的显示器上的机器人清洁器的触摸输入以及附近区域的图像来直观且精细地操作。

为了实现这些目标以及其他优点,并且根据本发明的目的,如此处所实施和宽泛描述的,本发明提供一种机器人清洁器系统的控制方法,所述机器人清洁器系统包括机器人清洁器以及具有摄像头和显示器的外部设备,所述方法包括:使用所述摄像头产生关于所述机器人清洁器和所述机器人清洁器附近的区域的图像信息;基于所述图像信息将所述机器人清洁器所在的实际区域映射到显示在所述显示器上的虚拟区域;以及通过显示在所述显示器上的虚拟区域执行所述机器人清洁器的基于位置服务。

该方法还可以包括基于所述图像信息感测所述机器人清洁器。

该方法还可以包括激活设置在所述机器人清洁器中的识别装置。

所述识别装置可以包括发光图像并且激活所述识别装置包括激活所述机器人清洁器的光源以在所述机器人清洁器上形成所述发光图像。

该方法还可以包括将关于识别标记的信息存储在所述外部设备的存储器中。

感测所述机器人清洁器可以包括:改进所述图像信息的图像质量;根据所述图像信息的图像感测所述机器人清洁器的识别标记;判定所感测的识别标记是否可用;以及将具有所述识别标记的物体识别为所述机器人清洁器。

感测所述识别标记可以包括查看所述识别标记的形状、图案或特定的颜色。

改进所述图像质量可以包括执行图像亮度控制、噪声抑制和颜色修正。

该方法还可以包括:将关于所述识别标记的实际形状的信息与由所述图像信息推算出的相对形状相比较;以及基于比较的结果产生所述机器人清洁器的位置信息。

该方法还可以包括将所述机器人清洁器的形状存储在所述外部设备的终端控制器中。

感测所述机器人清洁器可以包括:改进所述图像信息的图像质量;感测所述机器人清洁器的形状;判定所感测的所述机器人清洁器的形状是否是有效形状;以及识别所述机器人清洁器。

该方法还可以包括:将关于所述机器人清洁器的实际形状的信息与由所述图像信息推算出的相对形状相比较;以及基于比较的结果产生所述机器人清洁器的位置信息。

该方法还可以包括将所述机器人清洁器的位置信息显示在设置于所述外部设备中的所述显示器上。

该方法还可以包括控制所述机器人清洁器的驱动,其中所述控制所述机器人清洁器的驱动包括:接收所述机器人清洁器的控制信号;以及将所述控制信号从所述外部设备的第二无线通信单元发送到所述机器人清洁器的第一无线通信单元,其中所述外部设备根据所述控制信号驱动所述机器人清洁器。

该方法还可以包括通过将触摸输入施加到所述显示器产生所述控制信号。

执行基于位置服务可以包括经由触摸输入来设定所述机器人清洁器的清洁区域,并且其中设定所述机器人清洁器的清洁区域可以包括在所述显示器的屏幕上指定虚拟区域,将所述虚拟区域与实际区域映射,并且将实际运动坐标发送给所述机器人清洁器。

执行基于位置服务可以包括经由所述显示器上输出的所述图像信息通过触摸输入设定所述机器人清洁器的通道。

执行基于位置服务可以包括通过在所述显示器的所述屏幕上指定不清洁线,以相对对应于所述不清洁线的所述图像信息的分割线设定外部区域作为不清洁区域,从而通过触摸输入设定所述不清洁区域。

执行基于位置服务可以包括用户输入预定的提示到所述外部设备的麦克风并且所述机器人清洁器移动到所述外部设备的位置。

在本公开的另一方案中,提供一种遥控设备,被配置为执行机器人清洁器的遥控,其中所述遥控设备被配置为基于由摄像头产生的关于所述机器人清洁器附近的区域的所述遥控设备的图像信息,或者基于由摄像头产生的关于所述机器人清洁器的充电基座附近的区域的所述遥控设备的图像信息,产生实际区域与虚拟区域之间的映射信息。

在本公开的另一方案中,一种机器人清洁器系统包括:机器人清洁器,配置为在自动驱动的同时执行清洁;充电基座,用于所述机器人清洁器;以及遥控设备,配置为执行对所述机器人清洁器的遥控,其中,所述遥控设备基于由摄像头产生的关于所述机器人清洁器和所述机器人清洁器附近的区域的图像信息,或者基于由摄像头产生的关于所述充电基座和所述充电基座附近的区域的图像信息,产生实际区域与虚拟区域之间的映射信息。基于所述映射信息可以执行或提供基于位置服务。具体而言,可以无线控制所述机器人清洁器。

此处,可以省略充电基座。换言之,所述机器人清洁器系统可以不包括充电基座。因而不需要执行关于充电基座的图像信息的产生,并且可以仅执行机器人清洁器的基于位置服务。

所述遥控设备可以通过基于所述图像信息感测所述机器人清洁器或所述充电基座,产生所述机器人清洁器的位置信息和姿势信息或者所述充电基座的位置信息和姿势信息。

所述遥控设备可以通过比较所述机器人清洁器的实际形状或者所述充电基座的实际形状和从所述图像信息中识别出的相对形状,产生所述实际区域和所述虚拟区域之间的映射信息。

在所述机器人清洁器或所述充电基座中可以设置识别装置以产生所述映射信息。这样的识别装置可以通过摄像头清楚地识别。然而,识别装置可以是由用户直接看到的识别装置类型,即,经由可见光而可识别的装置。

所述遥控设备可以通过比较所述识别装置的实际形状信息和由所述图像信息中识别出的相对形状信息,产生所述映射信息。

所述遥控设备可以包括:显示器,配置为显示所述图像信息;以及输入单元,配置为向其输入所述机器人清洁器的控制信号。所述显示器包括用作配置为感测触摸输入的输入单元的触摸传感器。于是,可以在显示器的虚拟区域上形成自由模式而非简单地触摸按钮图标,并且无线控制机器人清洁器。可以向用户提供简单的清洁和愉悦。

所述识别装置可以包括设置在设于所述机器人清洁器或所述充电基座中的外壳的外周表面中的识别标记。所述识别标记可以选择性地从所述外壳的所述外周表面分离。

可以在所述机器人清洁器中设置多个识别装置。能够将在识别装置中可能产生的失真以及由失真造成的误差最小化。因此,能够执行更缜密的无线控制。

所述识别装置可以包括LED灯,所述LED灯配置为从设置在所述机器人清洁器或所述充电基座中的所述外壳内部向所述外壳外部提供光。可以选择性地激活这样的LED灯,并且通常可以停用所述LED灯。所述LED灯可以仅为遥控而激活。

所述外壳的外壁从外部起可以包括颜色层和反射层,并且所述LED灯设置在所述反射层的下方并且排除视觉暴露于所述外壳的所述外壁的、处于停用状态的LED灯。于是,不会破坏机器人清洁器的独特的外部设计并且还可以实现最小的外观设计。

当在所述遥控设备中实施控制所述机器人清洁器的应用程序时,可以根据所述遥控设备的控制信号激活所述LED灯。所述应用程序可以是其他图标以及初始化所述遥控的图标的组合应用程序。

在这种情况下,其他图标可以被输入并且可以在输入用于初始化所述遥控的图标时激活LED灯。

在本公开的另一方案中,一种机器人清洁器系统的控制方法,所述机器人清洁器系统包括:机器人清洁器、用于所述机器人清洁器的充电基座以及具有摄像头和显示器的遥控设备,所述控制方法包括:使用所述摄像头产生关于所述机器人清洁器和所述机器人清洁器附近的区域的图像信息的步骤;基于所述图像信息将实际区域映射到显示在所述显示器上的虚拟区域的步骤;以及通过显示在所述显示器上的虚拟区域执行所述机器人清洁器的基于位置服务的步骤。

映射步骤可以包括:基于所述图像信息感测所述机器人清洁器或所述充电基座的步骤;以及产生关于所述机器人清洁器或所述充电基座的位置信息的步骤。

感测步骤可以执行图像亮度控制、噪声抑制和颜色校正中的至少一个以改进所述图像信息的图像。

提供基于位置服务的步骤可以基于所述映射信息,将经由在所述显示器上显示的所述虚拟区域上的触摸输入的驱动所述机器人清洁器的输入转换成所述实际区域中的所述机器人清洁器的驱动指令信号。在提供基于位置服务的步骤中,可以由在所述显示器上显示的虚拟区域上的触摸输入产生所述机器人清洁器的所述驱动指令信号。

所述基于位置服务可以包括通道设定功能、清洁区域指定功能、不清洁区域指定功能以及移动至用户的设定功能中的至少一个。

所述机器人清洁器系统的所述控制方法可以进一步包括:激活设置在所述机器人清洁器或所述充电基座中的识别装置的步骤。于是,能够保持所述机器人清洁器或所述充电基座的外观设计为其通常的样子。

根据至少一个实施例,本公开的示例性实施例通过向用户提供娱乐和原始的清洁功能,还提供可以提高产品可靠性和满意度的机器人清洁器及其控制方法。

本公开的示例性实施例还提供一种可以精确地测量用户与机器人清洁器自身之间的相对位置的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,即使用户不直接注视机器人清洁器,机器人清洁器系统也可以无线控制机器人清洁器。

本公开的示例性实施例还提供一种可以将由遥控设备的显示器识别的清洁区域与实际区域相映射的机器人清洁器系统及其控制方法。

本公开的示例性实施例还提供一种可以防止破坏其外部设计并且允许用户容易地判定无线操作的机器人清洁器系统以及机器人清洁器的控制方法。

本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统可以通过基于机器人清洁器和用户之间的位置信息提供基于位置服务而提高用户的便利性。

本公开的示例性实施例还提供一种机器人清洁器系统及其控制方法,该机器人清洁器系统可以由用户经由显示在遥控设备的显示器上的机器人清洁器的触摸输入以及附近区域的图像来直观而精细地操作。

本发明的其他优点、目标和特征将在随后的描述中部分阐述,由本领域技术人员通过考察下文或可能从本发明的实践中部分习得,从而变得显而易见。本发明的目标和其他优点可以通过书面描述和其权利要求书以及附图中特别指出的结构实现和取得。

附图说明

图1是示出根据本公开的一个实施例的机器人清洁器的立体图;

图2是示出根据本公开的一个实施例的机器人清洁器的内部结构的立体图;

图3是根据本公开的一个实施例的机器人清洁器的仰视立体图;

图4是根据本公开的一个实施例构成机器人清洁器系统的机器人清洁器的框图;

图5是根据本公开的一个实施例构成机器人清洁器系统的遥控设备的框图;

图6是从前方观看,根据本公开的一个实施例构成机器人清洁器系统的遥控设备的正视立体图;

图7是根据本公开的一个实施例构成机器人清洁器的遥控设备的后视立体图;

图8是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的图像信息的方法图;

图9A-图9D是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的位置信息的方法图;

图9A是示出设置在机器人清洁器中的识别标记的实际外观的图;

图9B是示出在图像信息的图像上识别的识别标记的相对外观的图;

图9C是示出使用遥控设备产生机器人清洁器的位置信息的图;

图9D是示出机器人清洁器的姿势(posture)的图;

图10A至图13是示出根据本公开的一个实施例由机器人清洁器系统提供的机器人清洁器的基于位置服务的图;

图10A是示出经由显示器上的触摸输入设定机器人清洁器的清洁区域的方法图;

图10B是示出机器人清洁器在设定的清洁区域中执行清洁的状态的图;

图11是经由显示器上的触摸输入设定机器人清洁器的通道的方法图;

图12是示出经由显示器上的触摸输入设定机器人清洁器的不清洁区域的方法图;

图13是示出将机器人清洁器呼叫到用户的位置的方法图;

图14是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中提供的基本配置的流程图;

图15是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图;

图16是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中提供基于位置服务的步骤的流程图;

图17是示出根据本公开的另一实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图;

图18是示出根据本公开的一个实施例在机器人清洁器系统中设置的充电基座的示例的立体图;

图19是示出根据本公开的一个实施例在机器人清洁器中设置的作为识别装置的示例的发光图像的概念图;

图20是示出在激活图19所示的发光图像之前与之后之间比较的图;

图21是示出识别装置的示例的图;以及

图22是在遥控设备中实现应用程序(application)的初始图像。

具体实施方式

下面参照附图更充分地描述所公开主题的示例性实施例。然而,所公开的主题可以以许多不同的形式实施并且不应理解为限于此处所阐述的示例性实施例。

此处参照作为所公开主题的理想实施例(和中间结构)的示意图的跨区域图例来描述所公开主题的示例性实施例。如此,可以预期例如由制造技术和/或容差造成的这些图例的形状的变化。因此,不应将所公开主题的示例性实施例解释为限于此处所图示的区域的特定形状,而是包括例如由制造造成的形状上的偏差。

根据本公开的一个实施例的机器人系统可以包括:机器人清洁器100,配置为在自动驱动的同时执行清洁;以及遥控设备200,配置为远程控制机器人清洁器100。

遥控设备200可以包括摄像头(camera)221′,以产生机器人清洁器100和机器人清洁器100附近的区域的图像信息。遥控设备200可以基于该图像信息产生关于机器人清洁器100的位置信息。具体而言,基于这样的图像信息可以将在遥控设备200上显示的区域与实际清洁区域相映射。参照附图,根据本公开的一个实施例的机器人清洁器系统描述如下。

参照图1、图2和图3,将描述构成机器人清洁器系统的机器人清洁器的结构。

图1是示出根据本公开的一个实施例的机器人清洁器的立体图。图2是示出根据本公开的一个实施例的机器人清洁器的内部结构的立体图。图3是根据本公开的一个实施例的机器人清洁器的仰视立体图。图4是根据本公开的一个实施例构成机器人清洁器系统的机器人清洁器的框图。

机器人清洁器可以包括:限定机器人清洁器100的外观的清洁器外壳110、设置在清洁器外壳110中的抽吸设备120、配置为经由抽吸设备120的驱动抽吸地面上的灰尘的吸嘴130、以及配置为从吸入的空气中收集杂质的集尘器140。

机器人清洁器100的清洁器外壳110可以形成为高度比直径相对小的圆柱形,即,扁圆柱形。也可以为具有圆角的方形。在清洁器100中可以设置抽吸设备120、吸嘴130以及与吸嘴130连通的集尘器140。

在清洁器外壳110的外周面可以设置:传感器(未示出),配置为感测至房间里的墙壁或者障碍物的距离;减震器(未示出),配置为缓冲由碰撞产生的冲击;以及轮子150,配置为移动机器人清洁器100。

轮子150可以由分别安装在清洁器外壳110的两个下部的左驱动轮152和右驱动轮154构成。左驱动轮152和右驱动轮154配置为分别通过可由清洁器控制器160控制的左轮电机152a和右轮电机154a而旋转,使得机器人清洁器100能够在执行房间清洁的同时根据左轮电机152a和右轮电机154a的驱动自动改变方向。

可以在清洁器外壳110的底部设置至少一辅助轮156,并且该辅助轮156可以使机器人清洁器100与地面之间的摩擦最小化,并且同时引导机器人清洁器100的移动。

并且,在清洁器外壳110中可以设置识别装置,并且这种识别装置可被设置为将机器人清洁器所在的实际区域与虚拟区域进行映射。识别装置还可以为具有各种形状的各种类型,并且识别装置可以设置在清洁器外壳中或者清洁器外壳的外表面。换言之,识别装置可以经由机器人清洁器外部的摄像头被识别。

在图1中,示出识别标记112作为识别装置的一个示例。图1中示出的识别标记112可以设置在清洁器外壳110的上表面上,并且其可以具有各种图案(pattern)。此外,识别装置的位置可以各种方式改变,并且位置的数量可以改变。识别装置可以允许机器人清洁器100所在的实际区域能与外部设备中的虚拟区域映射。例如,机器人清洁器100所在的实际区域可以与在外部设备上显示的虚拟区域映射,下文将进行具体描述。

图4是设置在机器人清洁器100中的清洁器控制器160的框图。链接到机器人清洁器100的各种部件以控制机器人清洁器100的驱动的清洁器控制器160可以设置在清洁器外壳110中,例如在机器人外壳110内的前部。还可以在清洁器外壳110中,例如在机器人外壳110内的后部设置电池170,该电池170配置为向抽吸设备120提供电力。

配置为产生空气吸力的抽吸设备120可以设置在电池170的后方,并且集尘器140可以可分离地联接到设置在抽吸设备120的后部中的集尘器联接部的后部。

吸嘴130可以设置在集尘器140的下方,并且其可以随空气吸入杂质。抽吸设备120可以包括倾斜安装在电池170与集尘器140之间的风扇(未示出),该风扇连接到电连接至电池170的电机(未示出)和电机的轴以吹送空气。

吸嘴130可以经由形成在清洁器外壳110的底部中的孔(未示出)暴露在清洁器外壳110的底部,仅与房间的地面接触。

为了从远处控制机器人清洁器100,根据此实施例的机器人清洁器100可以包括能与外部设备无线通信的第一无线通信单元180。

第一无线通信单元180可以包括使得机器人清洁器100与外部设备或外部网络无线通信的一个或多个模块。例如,第一无线通信单元可以包括无线网络模块和小范围通信模块。

无线网络模块是用于无线网络链接的模块,并且其可以是机器人清洁器100的内部元件或外部元件。无线网络技术的示例可以包括WLAN(无线LAN)(Wi-Fi)、WiBro(无线宽带)、WiMax(World Interoperability for Microwave Access,微波存取全球互通)以及HSDPA(高速下行分组接入)。

小范围通信模块是用于小范围通信的模块。小范围通信的示例可以包括蓝牙、RFID(射频识别)、RFID(红外线数据组织)以及UWB(超宽带紫蜂)。

接下来,参照图5、图6和图7,将描述构成机器人清洁器系统的遥控设备200的示例。

图5是根据本公开的一个实施例构成机器人清洁器系统的遥控设备的框图。

本公开的遥控设备200是可遥控访问机器人清洁器100以控制机器人清洁器100的驱动的设备。遥控设备的示例可以包括智能手机、PDA(个人数字助理)以及PMP(便携式多媒体播放器)。

为了方便本公开的说明,采用智能手机作为机器人清洁器100的遥控设备200。

遥控设备200可以包括无线通信单元210、AV(音频/视频)输入单元220、用户输入单元230、输出单元240、存储器250、接口单元260、终端控制器270以及电源单元280。图5示出的部件不是必须设置的,并且可以实现具有更多或更少部件的遥控设备200。

将依次描述各个部件。

无线通信单元210(第二无线通信单元)可以包括使得无线通信系统之间或者遥控设备200与遥控设备200所在网络之间能够无线通信的一个或多个模块。例如,第二无线通信单元210可以包括移动通信模块211、无线网络模块212以及小范围通信模块213。

移动通信模块211将无线信号发送到移动通信网络上的基站、外部终端和服务器中的一个或多个,且从移动通信网络上的基站、外部终端和服务器中的一个或多个接收无线信号。这样的无线信号可以根据语音呼叫信号、视频呼叫信号或文本/多媒体消息的发送/接收而包括各种类型的数据。

无线网络模块212是用于无线网络链接的模块,且其可以是遥控设备200的内部或外部元件。无线网络技术的示例可以包括WLAN(无线LAN)(Wi-Fi)、WiBro(无线宽带)、WiMax(微波存取全球互通)以及HSDPA(高速下行分组接入)。

小范围通信模块213是用于小范围通信的模块。小范围通信的示例可以包括蓝牙、RFID(射频识别)、RFID(红外线数据组织)以及UWB(超宽带紫蜂)。

参照图5,A/V输入单元220用于输入音频信号或视频信号,并且其可以包括摄像头221和麦克风222。摄像头221处理由处于视频呼叫模式或者摄像头模式的图像传感器获得的视频文件的图像帧或静止图像。经处理的图像帧可以显示在显示器241上。

由摄像头221处理的图像帧可以存储在存储器250中或经由第二无线通信单元210发送到外部设备。根据服务环境可以设置两个或更多个摄像头221。

在呼叫或记录模式和语音识别模式中,麦克风222将从外部接收到的外部音频信号转换成电子语音数据。在呼叫模式中,可以由移动通信模块211将处理过的语音数据转换成可发送的信号并输出到移动通信基站。在麦克风222中,可以实现各种类型的噪声抑制算法用于反射(reflect)在接收外部音频信号时产生的噪声。

用户输入单元230为用户产生数据以控制遥控设备200的运行。用户输入单元230可以由键盘、圆顶开关、触摸板(静压式/电容式)、滚轮和拨动开关构成。

输出单元240可以产生与视觉、听觉或触觉相关联的输出。输出单元240可以包括显示器241、音频输出模块242、报警单元243和触觉模块244。

显示器241显示,即输出,在遥控设备200中处理的信息。例如,当遥控设备200处于呼叫模式时,显示器241可以显示与呼叫相关联的UI(用户界面)或GUI(图形用户)界面。当遥控设备200处于视频呼叫模式或摄像头模式时,显示器241可以显示拍摄和/或接收到的图像或UI和GUI。

显示器241可以包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFTLCD)、有机发光二极管(OLED)、柔性显示器以及三维显示器中的至少一个。

根据遥控设备200的实现类型可以设置两个或更多个显示器241。例如,多个显示器241可以间隔地或一体地布置在一个表面上,或者它们可以分别布置在不同的表面上。

当显示器241和用于感测触摸输入的传感器(以下称为“触摸传感器”)形成层结构(以下称为“触摸屏”)时,显示器241可以用作输入设备以及输出设备。触摸传感器可以具有触摸膜、触摸片和触摸垫。

触摸传感器可以被配置为将施加到显示器241的特定点的压力或在特定点上产生的电容变化转换为电输入信号。触摸传感器可以检测输入触摸的位置和输入触摸的区域。而且,它还可以检测施加在触摸输入上的压力。

当由触摸传感器感测到触摸输入时,对应于触摸的一个或多个信号可以发送到触摸控制器。触摸控制器处理这一个或多个信号并将对应于一个或多个信号的数据发送到终端控制器270。此后,终端控制器270可以判定显示器241上的哪个点被触摸。

在呼叫信号接收、呼叫或记录模式、语音识别模式和广播接收模式中,音频输出单元242可以输出从第二无线通信单元210接收的或者存储在存储器250中的音频数据。音频输出单元242可以输出与由遥控设备200执行的功能关联的音频信号(例如,呼叫信号接收声音和消息接收声音)。这样的音频输出单元242可以包括接收器、扬声器和蜂鸣器。

报警单元243输出用于通知遥控设备200的事件发生的信号。在遥控设备200中发生的事件的示例可以包括呼叫信号接收、消息接收、键信号输入和触摸输入。报警单元243还可以输出除了视频或音频信号以外的另一种类型的信号。报警单元243可以输出振动信号用于通知事件发生。甚至可以经由显示器241或音频输出模块242输出音频或视频信号,并且显示器241和音频输出模块242均可以被分类为报警单元243。

触觉模块244产生由用户感应到的各种触感或触觉效果。由触觉模块244产生的触觉效果的典型示例可以是振动。由触觉模块244产生的振动的强度和形式(pattern)可以是可控制的。例如,不同的振动可以被合成并输出,或者它们可以顺序输出。

存储器250可以在其中存储用于运行终端控制器270的程序或者暂时存储输入/输出数据(例如,电话簿、消息、静止图像和动画)。存储器250可以存储触摸输入之后输出的各种形式的振动和声音。

存储器250可以包括以下存储介质中的至少一个,包括:闪存型、硬盘型、微型多媒体卡类型、卡型存储器(例如,SD或XD存储器)、RAM(随机存取存储器)、SRAM(静态随机存取存储器)、PROM(可编程只读存储器)、MRAM(磁性随机存取存储器)、磁盘和光盘。遥控设备200可以与在网络上执行存储器250的存储功能的网络存储器相关联而运行。

接口单元260可以用作至与遥控设备200连接的所有外部设备的通道。接口单元260可以由外部设备提供数据或电力,并且接口单元260可将数据或电力发送到每个元件或将遥控设备200的数据发送给外部设备。例如,接口单元260可以包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于连接具有识别模块的设备的端口、音频I/O(输入/输出)端口、视频I/O端口以及耳机端口。

识别模块是在其中存储各种信息以识别遥控设备200的使用权限的芯片。识别模块可以包括SIM(用户识别模块)和USIM(通用用户识别模块)。具有识别模块的设备(以下称为“识别设备”)可以制造为智能卡。于是,识别设备可以经由端口连接到遥控设备200。

通常,终端控制器270控制遥控设备的整个运行。例如,终端控制器270执行与语音呼叫、数据通信和音频呼叫相关联的控制和处理。终端控制器270可以包括用于播放多媒体的多媒体模块271。多媒体模块271可以实现在终端控制器270中或者单独实现。

终端控制器270可以处理用于识别在触摸屏上执行的作为字符和图像的手写输入或绘图输入的模式识别。

电源单元280可以根据终端控制器270的控制设置有外部电源或内部电源,并且电源单元280供应运行部件所需要的电力。

本公开的实施例可以使用软件、硬件或者软件和硬件的结合在计算机或者类似于计算机的可读介质中实现。

在硬件实现中,可以通过使用ASIC(特定用途集成电路)、DSP(数字信号处理器)、DSPD(数字信号处理设备)、PLD(可编程逻辑器件)、FPGA(现场可编程门阵列)、处理器、控制器、微控制器、微处理器以及用于执行其他功能的电单元来实现此处描述的实施例。在一些情况下,可以通过终端控制器270实现这些实施例。

在软件实现中,诸如处理和功能之类的实施例可以与执行一个或多个功能或操作的辅助软件模块一起实现。可以通过由合适的程序语言编写的软件应用程序来实现软件编码。软件编码可以存储在存储器250中并且由终端控制器270执行。

图6是从前方观看时根据本公开的一个实施例构成机器人清洁器系统的遥控设备的正视立体图。

上述遥控设备200包括条形本体并且实施例不限于此。遥控设备可以是具有相对可移动地彼此联接的两个或更多个本体的滑盖型、折叠型、摆动型和旋转型。

本体包括用于限定遥控设备200的外观的外壳(例如壳、套和罩)。在此实施例中,外壳可以分为前壳体201和后壳体202。各种电子部件安装在形成于前壳体201和后壳体202之间的空间中。可以在前壳体201和后壳体202之间附加地布置一个或多个中间壳体。

外壳可以为注射成型的合成树脂或者它们可以由金属材料(如不锈钢(STS)和钛(Ti))制成。

在遥控设备200本体中,主要在前壳体201中可以布置显示器241、音频输出单元242、摄像头221、输入单元230/231和232、麦克风222以及接口260。

显示器241占据属于前壳体201的主表面的大部分。音频输出模块242和摄像头221可以邻近显示器241的一端布置。输入单元231和麦克风222可以邻近另一端布置。输入单元232和接口160可以布置在前壳体201和后壳体202的侧面。

用户输入单元230可以由用户操作以接收用于控制遥控设备200的运行的输入指令。用户输入单元230可以包括多个操纵单元231和232。操纵单元231和232可以称为操纵部。可以应用用户以触觉操纵的任何触觉方式。

可以以各种方式设定通过第一或第二操纵单元231和232输入的内容。例如,第一操纵单元231接收输入指令(例如开始指令、结束指令和滚动指令)。第二操纵单元232可以接收输入指令(例如,对从音频输出单元242输出的声音的控制以及显示器241转换成触摸识别模式)。

图7是根据本公开的一个实施例构成机器人清洁器的遥控设备的后视立体图。

参照图7,可以额外将摄像头221′安装在属于遥控设备200的本体的后表面中,即,在后壳体202中。摄像头221′可以具有与摄像头(221,见图6)的拍摄方向大致相反的拍摄方向并且其可以具有与摄像头221的像素不同的像素。

例如,摄像头221可以具有在将用户脸部的照片发送到视频呼叫的另一方时不会产生问题的低像素。摄像头221′可以具有高像素,因为其通常不在拍摄后立即发送常规的对象(conventional object)。摄像头221′可以可旋转或者可弹出地联接到遥控设备200的本体。

可以邻近摄像头221′额外布置闪光灯123和镜子124。当摄像头221′拍摄物体时,闪光灯123在物体上闪光。当用户试图拍摄自己(即自拍)时可以在镜子124中反射脸部。

可以在属于遥控设备200的本体的后表面中额外布置音频输出单元242′。音频输出单元242′可以与音频输出单元(242,见图6)一起实现立体声功能。音频输出单元242′可以在呼叫中用于实现对讲电话(speaker phone)。

可以将电源单元280安装到遥控设备200的本体以向遥控设备200提供电力。电源单元280可以安装在遥控设备200的本体中或直接且可分离地联接到属于遥控设备200的本体的外表面。

图8是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的图像信息的方法图。图9A-图9D是示出根据本公开的一个实施例在机器人清洁器系统中产生机器人清洁器的位置信息的方法图。将参照图8和图9A-图9D描述使用遥控设备产生关于机器人清洁器100的图像信息和位置信息的方法。

如上所述,根据本公开的一个实施例的机器人清洁器系统包括遥控设备200以便远距离控制机器人清洁器100的驱动。然而,为了使得遥控设备200控制机器人清洁器100的驱动,必须提供关于机器人清洁器100的精确位置的信息。具体而言,有必要将实际区域和虚拟区域相互映射。

为了解决上述必要性,通过基于经由本公开的一个实施例的机器人清洁器系统中的遥控设备200的摄像头221′产生的图像信息来感测机器人清洁器100,可以产生机器人清洁器100的位置信息。

首先,设置在构成遥控设备200的本体的后表面中的摄像头221′拍摄机器人清洁器100以及机器人清洁器100附近的区域,只为产生图像信息。所产生的机器人清洁器100的图像信息被发送到终端控制器270。

由此,如图8所示,基于该图像信息,遥控设备200可以将机器人清洁器100所在的实际区域与显示为图像信息的虚拟区域相映射。这意味着遥控设备200感测到机器人清洁器100。

如上所述,可以在机器人清洁器100的上表面中设置允许外部设备感测机器人清洁器100的识别标记112(见图1)。识别标记112的形状不限于特定形状。例如,识别标记112可以形成为如图9A所示的圆形。在此情况下,识别标记112的宽度(W)和高度(H)具有相同的值。

识别标记112的实际形状存储在遥控设备200的存储器250中。即,关于识别标记112的信息(例如,识别标记112的实际尺寸)存储在存储器250中。终端控制器270可以在图像信息的图像上提取识别标记112并且判定提取的识别标记112是否可用,从而能够基于判定的结果感测机器人清洁器100。

终端控制器270可以查看识别标记112的形状、图案或特定的颜色,以在图像信息的图像上提取识别标记112。

然而,在图像信息具有较差的图像质量时,终端控制器270难以感测识别标记112。在从图像信息的图像提取识别标记112之前,终端控制器270可以改进图像信息的图像质量。

终端控制器270可以执行图像亮度控制、噪声抑制和颜色修正以改进图像信息的图像质量。

此后,遥控设备200可以将关于识别标记112的实际形状的信息与由图像信息推算出的相对形状相比较,并且基于比较的结果产生机器人清洁器100的位置信息。即,可以执行在实际区域和虚拟区域之间的映射。

当用户使用遥控设备200的摄像头221′拍摄机器人清洁器100以及机器人清洁器100附近的区域时,用户可以在将遥控设备200提高到预定高度的状态下拍摄机器人清洁器100和该区域。即,用户在俯视机器人清洁器100的同时进行拍摄。

因此,如图9B所示,根据用户俯视机器人清洁器100的角度,在图像信息的图像上,设置在机器人清洁器100中的识别标记112的高度小于宽度。

从图像信息中提取的识别标记112的相对形状和尺寸可以根据机器人清洁器100的姿势以及在机器人清洁器100与遥控设备200之间的距离而改变。从图像信息中提取的识别标记112的实际形状和尺寸可以根据机器人清洁器100的姿势以及在机器人清洁器100与遥控设备200之间的距离而改变。

识别标记112的实际形状不同于对应于机器人清洁器100的位置和姿势从图像信息中提取的相对形状。因此,将识别标记112的实际形状与从图像信息中提取的相对形状比较,并且基于比较的结果可以推算出机器人清洁器100的位置和姿势。而且,可以推算出用户与机器人清洁器100之间的距离和拍摄角度。能够推算出在图像信息上显示的虚拟区域与实际区域之间的比例。

接下来,将描述基于识别标记112的实际形状与从图像信息推算出的相对形状之间的比较结果或者虚拟区域和实际区域之间的映射来识别机器人清洁器100的位置和姿势的特定方法。

下面的数学公式可以用于由识别标记112的相对形状来识别机器人清洁器100的位置和姿势。

【数学公式1】

<mrow> <mi>v</mi> <mo>=</mo> <mi>c</mi> <mo>&times;</mo> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>&Delta;</mi> <mi>w</mi> </mrow> <mi>a</mi> </mfrac> <mo>)</mo> </mrow> </mrow>

c:摄像头水平视角

Δw:w1-w3[像素]

a:图像竖直拍摄分辨率[像素]

【数学公式2】

L=W/tan(v)

L:机器人清洁器与遥控设备之间的距离

W:机器人清洁器的实际宽度[mm]

V:对应于Δw的视角

【数学公式3】

<mrow> <mi>u</mi> <mo>=</mo> <msup> <mi>sin</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>&Delta;</mi> <mi>h</mi> </mrow> <mrow> <mi>&Delta;</mi> <mi>w</mi> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>

U:遥控设备的仰角

Δh:h1-h2[像素]

Δw:w1-w2[像素]

【数学公式4】

<mrow> <mi>&theta;</mi> <mo>=</mo> <msup> <mi>tan</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>h</mi> <mn>3</mn> <mo>-</mo> <mi>h</mi> <mn>4</mn> </mrow> <mrow> <mi>w</mi> <mn>3</mn> <mo>-</mo> <mi>w</mi> <mn>4</mn> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>

θ:识别标记的方位

【数学公式5】

<mrow> <msub> <mi>&theta;</mi> <mn>0</mn> </msub> <mo>=</mo> <msup> <mi>tan</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mo>(</mo> <mfrac> <mrow> <mi>h</mi> <mn>3</mn> <mo>-</mo> <mi>h</mi> <mn>4</mn> </mrow> <mi>t</mi> </mfrac> <mo>)</mo> <mo>&times;</mo> <mo>(</mo> <mfrac> <mn>1</mn> <mrow> <mi>w</mi> <mn>3</mn> <mo>-</mo> <mi>w</mi> <mn>4</mn> </mrow> </mfrac> <mo>)</mo> <mo>)</mo> </mrow> </mrow>

θ0:识别标记的补偿方位

r:Δh/Δw(H/W比)

图9C示出由机器人清洁器100上的摄像头221′产生的图像信息和机器人清洁器100附近的区域的图像的示例。图像的水平拍摄分辨率为“a”[像素]并且竖直拍摄分辨率为“b”[像素]。摄像头221的水平视角是“c°”并且其意味着图像信息的图像具有“a*b”分辨率和“c°”水平视角。

首先,使用数学公式1和数学公式2可以计算机器人清洁器100与遥控设备200之间的距离。

如数学公式1所述,使用水平视角“c°”、图像信息的图像上的识别标记112的竖直长度“Δh”[像素]以及图像信息的图像上的识别标记112的水平长度“Δw”[像素]可以计算识别标记112的水平视角“v°”。

计算出的识别标记112的水平视角“v°”代入数学公式2,并且如图9C所示,获得机器人清洁器100和遥控设备200之间的水平距离(L)。

此后,使用数学公式3,如图9C所示,可以获得遥控设备200俯视机器人清洁器100的仰角“u°”。

由此,可以使用数学公式4和5获得表示机器人清洁器100的姿势的识别标记112的方位。

图像信息的图像上的识别标记112可以具有圆形或者宽度(Δw)大于高度(Δh)的椭圆形形状。因此,图9D中所示的图像信息的图像上的识别标记112的方位角“θ”等于或小于实际识别标记112的方位“θ0”。换言之,当遥控设备200的仰角为90°时,θ=θ0,并且当仰角小于90°时,θ<θ0

因此,r(H/W比)被应用到数学公式4中用于计算从图像信息的图像中推算出的相对方位角“θ”,使得数学公式5用于计算实际方位角“θ0”。结果,计算出识别标记112的实际方位角“θ0”,并且然后推算出机器人清洁器100的当前姿势。

在根据本公开的一个实施例的机器人清洁器100中,包括识别标记112的机器人清洁器100可以被包括摄像头221′的遥控设备200感测,并且还可以产生指示机器人清洁器100的位置和姿势的机器人清洁器100的位置信息。

同时,假设机器人清洁器100在平面上驱动。具体而言,在平面上示出实际清洁区域,并且可以示出具有与实际清洁区域不同比例的虚拟区域,使得可以基于上述数学公式将实际清洁区域和虚拟区域互相映射。

机器人清洁器100的位置信息可以显示在设置于遥控设备200中的显示器241上,并且可以基于位置信息向用户提供机器人清洁器100的基于位置服务。换言之,通过在虚拟区域和实际区域之间映射可以提供各种基于位置服务。稍后将详细描述机器人清洁器100的基于位置服务。

同时,在根据本公开的另一实施例的机器人清洁器系统中,不使用识别标记112,机器人清洁器100的外观信息可以存储在遥控设备200的存储器中,使得可以产生机器人清洁器100的位置信息。

具体而言,机器人清洁器100的实际形状与由图像信息推算出的相对形状相比较。基于比较的结果可以识别机器人清洁器100的位置和姿势。除了机器人清洁器100的形状信息可以用于推算出机器人清洁器100的位置和姿势之外,本公开的此实施例与上述实施例相同。省略此实施例的重复描述。

图10A、图10B、图11、图12和图13是示出根据本公开的一个实施例由机器人清洁器系统提供的机器人清洁器100的基于位置服务的图。参照图10A、图10B、图11、图12和图13,机器人清洁器100的基于位置服务将描述如下。

如上所述,遥控设备200可以产生关于机器人清洁器100和机器人清洁器100附近的区域的图像信息。然后,遥控设备200可以基于图像信息感测机器人清洁器100并且产生关于机器人清洁器100的位置信息。

此外,显示器241可以输出关于机器人清洁器100和机器人清洁器100附近的区域的图像信息。尤其,基于关于机器人清洁器100的位置信息,终端控制器270控制机器人清洁器100使其在显示器241的屏幕上是可选择的,使得用户可以在经由显示器241注视机器人清洁器100的当前状态的同时控制机器人清洁器100的驱动。

为了控制机器人清洁器100的驱动,遥控设备200可以进一步包括配置为输入机器人清洁器100的控制信号的输入单元。麦克风222、用户输入单元230以及具有用于感测触摸输入的触摸传感器的显示器241可以作为输入单元。

当机器人清洁器100的控制信号输入到遥控设备200时,遥控设备200的第二无线通信单元可以将控制信号发送到第一无线通信单元180,使得清洁器控制器160能够根据该控制信号驱动机器人清洁器100。

接下来,将参照附图描述能够经由遥控设备200的输入单元提供的机器人清洁器100的基于位置服务。

首先,将描述能够经由触摸输入到显示器241而提供的机器人清洁器100的基于位置服务。

例如,可以经由触摸输入来设定机器人清洁器100的清洁区域。当图10A中所示的虚拟区域(A)被指定在显示器241的屏幕上时,终端控制器170指定对应于虚拟区域(A)的房间的实际区域(A′)作为清洁区域。于是,机器人清洁器100在移动至如图10B所示的清洁区域之后可以执行清洁。换言之,显示在显示器241上的虚拟区域可以与实际区域映射,并且可以将实际运动坐标发送给机器人清洁器。

例如,如果在显示器241上指定的虚拟区域(A)是距离显示器241上的机器人清洁器的中央向右5厘米远的区域,则实际区域(A′)可以映射到距离实际机器人清洁器的中央向右1米远的区域。如上所述,可以基于比较实际识别装置的形状和尺寸与图形信息上的识别装置的相对形状和相对尺寸的映射信息,来执行这样的映射。因此,可以将虚拟区域映射到实际区域之后得到的映射信息发送到机器人清洁器100,并且清洁器可以基于该映射信息执行清洁。

具体而言,在本公开的一个实施例中,经由显示器241上输出的房间的图像(即,虚拟区域)通过触摸输入可以简单地设定清洁区域。于是,机器人清洁器可以只为需要清洁的区域执行清洁并且能够减少清洁时间。还可以降低功耗。

同时,可以通过触摸输入设定机器人清洁器100的通道。当如图11所示在显示器241的屏幕上指定通道(B)时,终端控制器270指定对应于通道(B)的房间通道(B′)作为机器人清洁器100的通道。于是,机器人清洁器100能够沿指定通道移动到目标点。

在本公开的一个实施例中,经由显示器241上输出的房间的图像通过触摸输入可以设定机器人清洁器100的通道。因此,机器人清洁器100可以沿用户设定的路线自动移动,并且可以去除通过经由方向键实时改变机器人清洁器的移动方向可能产生的延迟时间。

与此同时,机器人清洁器的通道能够由自由混合的曲线和直线构成,并且用户可以执行精细的操纵。

通过触摸输入可以设定机器人清洁器100的不清洁区域。当如图12所示在显示器241的屏幕上指定不清洁线(C)时,终端控制器270相对对应于不清洁线(C)的房间的分割线(C′)设定外部区域作为不清洁区域。于是,机器人清洁器100可以只为相对于分割线(C′)的内部区域执行清洁。

在本公开的一个实施例中,通过输出在显示器241上的房间的图像可以简单地划分房间,并且可以设定不清洁区域。于是,能够设定不清洁区域,而不使用辅助构件(例如,永磁条和虚拟壁)。

借助于输出在显示器241上的机器人清洁器100和机器人清洁器100附近的区域的图像,可以通过触摸输入执行对机器人清洁器100的控制,从而能够直观而精细地控制机器人清洁器100的驱动。

在如上所述应用对应服务的触摸输入之后,通过选择显示在显示器241的屏幕上的对应服务的图标(未示出),可以执行由触摸输入提供的各种基于位置服务。例如,在显示器241上设定图11中所示的驱动通道并且触摸图标,可以将驱动通道信息和驱动指令从遥控设备200发送到机器人清洁器100。在此情况下,通过来自麦克风222的语音输入或通过用户输入单元230可以选择该服务。

接下来,将描述可以由输入到麦克风222的语音提供的机器人清洁器100的基于位置服务的示例。

例如,可以通过语音输入将机器人清洁器100呼叫到用户的位置。当用户输入预定的提示到遥控设备200的麦克风222时,机器人清洁器100可以移动到遥控设备200的位置,即,基于位置信息的用户位置。

如上所述,经由根据实际区域与虚拟区域之间的映射的显示器可以遥控机器人清洁器。因此,一旦执行映射,用户即无需注视着实际区域或机器人清洁器。具体而言,一旦执行映射,则甚至在移动到其他区域之后用户也能够经由显示器遥控机器人清洁器。在此情况下,必须保持遥控设备200与机器人清洁器100之间的无线通信。

通常,设定为待由机器人清洁器清洁的清洁区域可以是固定的。在此情况下,可以持续保持由遥控设备200执行的对机器人清洁器的感测或者在实际区域与虚拟区域之间的映射。具体而言,可以依原样使用一个感测或映射。因此,不需要每次执行遥控时都拍摄机器人清洁器。当存储有以前拍摄的图像信息并且执行无线控制时,可以在显示器上显示图像信息。此后,通过显示在显示器上的虚拟区域可以重复执行无线控制。如果环境允许机器人清洁器100与遥控设备200之间的无线通信,则用户甚至可以在外部执行对机器人清洁器的无线控制。

例如,机器人清洁器经由房屋中的WiFi AP连接到无线通信网络。用户手持的遥控设备200可以通过服务器和WiFi AP无线链接到机器人清洁器。因此,用户可以在外部无线控制位于房屋内的机器人清洁器。

为了使这样的无线控制可执行,机器人清洁器100必须移动到初始位置。换言之,当进行拍摄时,机器人清洁器100可以移动到机器人清洁器100的初始位置。因此,可以将初始位置信息(例如,坐标信息和姿势信息)存储在机器人清洁器中。一旦开始无线控制,则机器人清洁器可以移动到初始位置。

使用遥控设备200,机器人清洁器的无线控制可以简单地执行清洁的原始功能并且附加地使用户感到满意。

至此,描述了根据本公开的一个实施例的机器人清洁器系统。参照附图,将描述根据本公开的另一实施例的机器人清洁器的控制方法。

图14是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中设置的基本配置的流程图。图15是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图。图16是示出根据本公开的一个实施例的机器人清洁器系统的控制方法中提供基于位置服务的步骤的流程图。

此处,与根据本公开的实施例的机器人清洁器系统相比,将省略或者简单提及重复的描述,并且相同的部件赋予相同的附图标记。

根据此实施例,包括机器人清洁器100和具有摄像头221'和显示器241的遥控设备200的机器人清洁器系统的控制方法可以包括:经由摄像头221'产生关于机器人清洁器100和机器人清洁器附近的区域的图像信息的步骤;以及基于该图像信息感测机器人清洁器100的步骤。此外,该控制方法可以进一步包括:产生机器人清洁器100的位置信息的步骤。换言之,可以执行根据所产生的图像信息将实际区域和虚拟区域互相映射的步骤。

同时,在显示器241上输出图像信息和位置信息的步骤,并且该步骤可以通过产生图像信息来执行。此后,可以基于该位置信息执行提供基于位置服务的步骤。

将参照图14、图15和图16描述机器人清洁器系统的控制方法。

首先,可以执行通过遥控设备200的摄像头221'产生关于机器人清洁器100和机器人清洁器附近的区域的图像信息的步骤(S100)。

由此,可以执行基于该图像信息感测机器人清洁器100的步骤(S200)。此处,可以通过感测机器人清洁器100的识别标记112来执行感测机器人清洁器100的步骤。

因此,感测机器人清洁器100的步骤(S200)可以包括:改进图像信息的图像的步骤(S210)、感测机器人清洁器100的识别标记112的步骤(S220)、判定感测到的识别标记112是否有效的步骤(S230)以及识别机器人清洁器100的步骤(S240)。

改进图像信息的图像的步骤(S210)可以由遥控设备200的终端控制器270执行。更具体而言,可以执行图像亮度控制、噪音抑制以及颜色修正中的至少一个。

识别机器人清洁器100的步骤(S240)可以通过终端控制器270将具有有效识别标记112的物体识别为机器人清洁器100而执行。

在判定感测到的识别标记112是否有效的步骤(S230)中,如果感测到的识别标记112不是有效的识别标记,则可以再次执行经由摄像头221'产生关于机器人清洁器100和机器人清洁器100附近的区域的图像信息的步骤(S260)。

此后,可以执行产生机器人清洁器100的位置信息的步骤(S300)。具体而言,可以通过比较识别标记112的实际形状和由图像信息识别的相对形状来执行产生机器人清洁器100的位置信息的步骤(S300)。此处,终端控制器270可以基于由图像信息识别的识别标记的因素(例如,水平视角、H/W比、仰角以及方位角)产生机器人清洁器100的位置信息。于是,可以使实际区域和虚拟区域互相映射。

由此,可以执行在显示器241上输出机器人清洁器100的图像信息和位置信息的步骤(S400)。换言之,可以执行在拍摄之后通过转换显示器241的屏幕而进行映射的步骤。在执行映射步骤之后,可以将所拍摄的图像信息和位置信息输出在显示器241上。在将所拍摄的图像信息可以一致地显示在显示器241上之后,可以执行映射步骤。因此,一旦完成映射,则可以通过显示器241执行无线控制。

此处,终端显示器270可以显示机器人清洁器100使其在显示器241的屏幕上可被选择。此后,可以执行基于位置信息提供基于位置服务的步骤(S500)。机器人清洁器100提供基于位置服务的步骤可以包括:产生机器人清洁器100的控制信号的步骤、将控制信号发送到机器人清洁器的步骤以及根据该控制信号驱动机器人清洁器100的步骤。

通过将触摸输入施加到显示器241可以执行产生机器人清洁器100的控制信号的步骤。尤其,可以借助于输出在显示器241上的机器人清洁器100的图像和机器人清洁器100附近的区域的图像来施加触摸输入。结果,在预设模式的触摸输入被施加以驱动机器人清洁器100从而提供基于位置服务时,可以产生对应的控制信号。

作为预设模式的示例,在显示器241的屏幕上画圈以指定预定区域或者画出具有曲线和直线的通道或分割线以分割显示器241的屏幕。

在由触摸输入输入控制信号时,基于位置服务可以包括通道设定功能、清洁区域指定功能以及不清洁区域指定功能中的至少一个。

同时,基于位置服务可以包括如下功能:一旦语音呼叫信号被输入到遥控设备200,则机器人清洁器100被呼叫到遥控设备200的位置。

麦克风222可以设置在遥控设备200中,并且遥控设备200可以将语音呼叫信号经由麦克风222发送到机器人清洁器100,只为将机器人清洁器100呼叫到遥控设备200的位置,即用户的位置。

图17是示出根据本公开的另一实施例的机器人清洁器系统的控制方法中感测机器人清洁器的步骤的流程图。

除了通过感测机器人清洁器100的形状来产生机器人清洁器100的位置信息以外,根据此实施例的机器人清洁器系统的控制方法与根据实施例的机器人清洁器系统相同。

首先,如图17所示,感测机器人清洁器100的步骤(S200)可以包括:改进图像信息的图像的步骤(S210'),感测机器人清洁器100的形状的步骤(S220'),判定所感测的机器人清洁器100的形状是否是有效形状的步骤(S230'),以及识别机器人清洁器的步骤(S240')。

机器人清洁器100的形状可以存储在遥控设备200的终端控制器270中,并且机器人清洁器100的形状可以传送自图像信息。

在判定所感测的机器人清洁器100的形状是否有效的步骤中,如果所感测的形状不是有效形状,则可以执行经由摄像头221'产生关于机器人清洁器100和机器人清洁器100的附近的区域的图像信息的步骤(S260')。

由此,可以执行产生机器人清洁器100的位置信息的步骤(S300)。产生机器人清洁器100的位置信息的步骤可以通过比较机器人清洁器100的实际形状和基于图像信息推算出的相对形状而执行。此处,终端控制器270可以基于机器人清洁器100的因素(例如,水平视角、H/W比、仰角以及方位角)产生机器人清洁器100的位置信息。

参照图18,将描述识别装置的另一实施例。

与图1中所示的不同,可以设置多个识别装置而不是一个识别装置。这是因为通过拍摄识别装置可能失真并且因为在映射处理中产生的小误差可能实质上变得更大。此外,由外部光源(例如日光和照明)拍摄识别装置可能失真。因此,可以设置三个或更多个识别装置以补偿这样的失真。

如图1所示,诸如识别标记112的识别装置可以设置在清洁器外壳110的外表面中。于是,识别标记112可能导致对机器人清洁器的外部设计的破坏。最近,排斥人工设计图案,并且机器人清洁器的设计趋向于展示自然的纹理。与最近的趋势背道而驰设置识别装置不是优选的。

因此,可以选择性地将诸如识别标记112的识别装置设置在外壳的外表面中。例如,制造可分离的片状识别标记112来执行无线控制。为此,当拍摄机器人清洁器时,可以将识别标记112贴附到外壳的外表面。这样的识别标记112可以自然地从外壳上分离。

例如,可以在识别标记112中设置多个磁体并且在外壳中设置对应数量的磁体。当用户分离识别标记112时,可以防止破坏机器人清洁器的原始外观设计。而且,如果必要可以将识别标记112贴附到清洁器外壳110。分离的识别标记112可以贴附到家用电器(例如冰箱)的门上,并且可以制造容易修理和维护的识别标记112。

在根据一个实施例的机器人清洁器系统中,可以包括充电基座300以对机器人清洁器充电。在机器人清洁器的技术领域中这样的充电基座300是熟知的。然而,可以在机器人清洁器100和/或充电基座中设置上述识别装置。可以提供与通过识别装置的基于位置服务类似或相同的基于位置服务。

图18示出充电基座300的示例。

可以在充电基座300中设置感测单元350,并且这样的感测单元可以将信号发送至机器人清洁器100的小范围通信模块182,并从机器人清洁器100的小范围通信模块182接收信号。使用感测单元350的通信可以使机器人清洁器100能够返回到充电基座300。

充电基座300可以包括充电基座外壳310。可以在外壳210中设置槽350以将机器人清洁器100安装到外壳310,并且可以在槽350中设置充电终端330。

通常,机器人清洁器100基于SLAM(Simultaneous Location and Mapping,同时定位与地图构建)识别其在房屋(清洁区域)内的位置和其姿势。而且,机器人清洁器100可以推算出充电基座300的位置以及相对于充电基座300的自身的相对位置或姿势。

与相对机器人清洁器100将实际区域映射到虚拟位置类似,相对充电基座300的实际区域与虚拟区域可以互相映射。具体而言,甚至可以在充电基座300中设置相同或类似的识别装置。设置如图18所示的识别标记312作为识别装置的一个示例。

用户可以使用遥控设备200产生相同的图像信息。换言之,通过使用设置在充电基座300中的识别装置312,充电基座300附近的实际区域可以映射到显示在遥控设备200的显示器上的虚拟区域。而且,这样的映射可以提供与上述相同的基于位置服务。

例如,用户可以在注视显示器的同时指定充电基座300附近的区域作为清洁区域。基于映射信息,作为实际清洁区域的虚拟清洁区域可以被发送到充电基座300或机器人清洁器100。机器人清洁器100识别相对充电基座300的当前位置并且推算出指定的实际区域。

例如,当在虚拟区域中指定距离充电基座300向右5厘米远的区域时,用户可以基于映射信息指定向右大致3米远的区域。此时,机器人清洁器大致位于距离充电基座300 5米远,只是未示出在虚拟区域中。但是,机器人清洁器100仍推算出其相对于充电基座的位置,并且然后驱动到实际区域以执行清洁。

因此,可以在充电基座300中设置识别装置并且能够取得类似的效果。在此情况下,基本不拍摄机器人清洁器100并且充电基座300通常是固定的,从而可控制区域可被限制于充电基座300附近的区域。

如上所述,详细描述了能够通过经由设置在机器人清洁器100或充电基座300中的识别装置互相映射虚拟区域和实际区域来提供基于位置服务的机器人清洁器系统以及机器人清洁器系统的控制方法。具体而言,详细描述了作为识别装置的识别标记。

然而,识别标记112和312作为识别装置可能影响设置在机器人清洁器系统中的充电基座300的外观设计。最近,更偏向用于表现外观设计的材料的原始纹理或颜色的依限最佳设计。在依限最佳设计方面,如识别标记112和312这样的识别装置可能导致对外观设计的破坏。

因此,需要能够容易地感觉到机器人清洁器100或充电基座300的原始设计而不导致对原始设计的破坏的识别装置。

如图19所示,机器人清洁器100的外壳110可以包括外壁111。制造面板类型外壁111并且外壁111限定外壳110的外观。可以在外壁111中设置各种部件。

在此实施例中,可以设置发光图像412作为识别装置。可以选择性地激活发光图像412。换言之,可以通过选择性地激活光源400来产生或去除发光图像412。

具体而言,外壁111可以包括颜色层111b和反射层111c。颜色层111b形成在外部并且反射层111c可以形成在内部。颜色层111b实现外壳110的外部设计色彩感。

外部光源基本上不会由反射层111c传送到外壁111内部,并且用户看不到反射层111c的内部空间。而且,可以在颜色层111b的外部上设置透明层111a,并且可以实现光滑亮泽的外观设计。

为了选择性地产生或激活发光图像412,可以在反射层111c中设置发光装置400。例如,发光装置400可以包括LED发光装置和LED元件。通过激活LED发光装置或LED元件可以从内部向外壳111外部照射。通过传送到反射层111c,这样的光可以在外壁111中形成预定发光图像111a。

如图19所示,在停用发光装置400的情况下,在外壁111中不产生发光图像412,并且从外部看不到发光装置400。于是,在停用发光装置400的情况下不破坏产品的原始设计。

相反,在激活发光装置400的情况下,在外壁111中产生发光图像412,并且遥控设备200将虚拟区域经由发光图像412映射到实际区域。

当使用发光图像412作为识别装置时,可以保持设计并且即使在黑暗环境中也能够清楚地识别出识别装置。

图20是示出在激活图19所示的发光图像之前与之后之间比较的图。在激活发光图像之前,机器人清洁器的总体外观设计可以保持原样。然而,当激活发光图像412时,从外壳110的外部产生发光图像412,并且用户能够容易地从外部识别所产生的发光图像412。

这样的发光图像可以布置为分别具有LED元件的不同形状。具有多个LED元件的发光装置可以在预定区域中形成发光图像。例如,LED发光装置可以形成圆形或多边形的发光图像。

发光图像由光形成,并且甚至在黑暗环境中也能被识别。即使在黑暗的房间中,即使没有光也能够容易地使用机器人清洁器。

可以不一直激活发光图像412,并且优选的是,在必要时激活发光图像412。

当用户使用如图14所示的遥控设备200执行机器人清洁器100的遥控或使用基于位置服务时,可以激活发光图像412。换言之,可以在这样的控制的初始步骤(S10)激活发光图像412。在初始步骤之后可以执行随后的步骤。

例如,可以由安装在遥控设备200中的应用程序执行包括遥控的服务。一旦用户在遥控设备200上实现应用程序时,遥控设备200可以传送实现指令到机器人清洁器100。机器人清洁器100基于该实现指令将电力施加到发光装置400,以激活发光图像412。

换言之,可以在初始步骤(S10)由遥控设备200激活发光图像412。此后,在根据应用程序执行基于位置服务时可以一直保持发光图像412的激活。一旦结束应用程序,可以结束发光图像412的激活。

如上所述,可以仅当使用遥控设备200时才激活发光图像412。注视着机器人清洁器100的用户以及其他人能够直觉地推算出在使用遥控设备200。发光图像412可以实现独特的设计和新设计,并且其还可以提供令人愉悦的功能以及清洁器的原始功能。

同时,识别装置可以形成为各种类型并且识别装置的位置可以以各种方式可变化。此外,识别装置的形状和数量可以以各种方式变化。

识别装置可以用于将实际区域精确地映射到虚拟区域。优选通过识别装置减少映射误差。小区域中产生的误差被映射到大区域可能大很多。

为了精确和细微的映射,识别装置可以设置在多个区域中,例如三个或更多个区域。在这种情况下,可以设置具有不同形状的识别装置。

一般而言,圆形图像在各种角度中可能具有最小的失真。这是因为能够容易地推算出圆形的中心。多个识别装置可以包括圆形图像或标记。

由光源(例如外部照明和日光)可以将通过窗口的光或照明反射在外壳110的外表面上。然而,外壳的上表面可以是略微弧形的表面并且这样的反射可以部分地发生在外壳110的外表面上。反射可以使识别装置失真。

为了灵活地处理这个缺点,可以如上所述设置多个识别装置。与图1所示的不同,可以在属于外壳的上表面的左上部和左下部以及上表面的右上部和右下部设置识别装置。于是,一旦外部光源使识别装置失真,这可以防止误差变得更大。

图21示出各种类型的识别装置。图21示出的识别装置可以是标记或光图像。识别装置可以具有各种颜色,尤其是鲜艳的原色。例如,识别装置可以是如图21中的(a)、(b)和(c)所示的视觉标记或者图21中的(d)所示的RI标记。识别装置可以推算出反射在平面上的线性部分,并且有必要设置两个连接点,使得清楚地看到在识别装置中的线性部分。

图22是示出显示在遥控设备200上的屏幕的示例的图,该屏幕可以称为实现应用程序的初始屏幕。用户可以在应用程序初始化屏幕上选择各种内容。

例如,初始化屏幕上可以显示指示遥控的图标,并且上述基于位置服务可以由远程控制图标实现。

根据已经参照其数个说明性实施例描述的上述机器人清洁器系统和机器人清洁器系统的控制方法,应理解的是,本领域技术人员可以设想出落入本公开的精神和范围中的数个其他修改和实施例。更具体而言,在本公开、附图和所附权利要求书的范围内的主题组合布置的零部件和/或布置的各种变型和修改是可能的。除了零部件和/或布置的变型和修改之外,替代使用对本领域技术人员也是显而易见的。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1