与一个可移动的远程机器人相互交流的制作方法

文档序号:13915667阅读:128来源:国知局

技术领域
:本发明涉及可移动的远程机器人。
背景技术
::机器人通常是指由电脑或电子程序操纵的机电系统机器。远程机器人能够在它们的环境周围移动并且不固定于一个物理位置。远程机器人普遍用于当前的一个例子就是自动导航汽车(AGV)。自动导航汽车通常指远程机器人,该远程机器人通过跟随地面上的标记或电线,或使用成像系统或激光器进行导航。远程机器人应用于工业、军事和安保环境。它们也可作为消费产品,用于娱乐或像家庭助手一样执行确定的任务。技术实现要素:本发明的一个方面提供了一种包括本地终端的远程机器人系统和遥控远程机器人。所述本地终端可包括电子显示器、处理器和与所述处理器联通的存储器,所述存储器包含能由所述处理器执行的指令。所述能执行的指令可设计用于引起所述处理器读取平面视图的至少一部分,该部分代表机器人操作表面的机器人可通行区;读取多个标记中的至少一个,所述多个标记中的每一个都包括描述所述标记的所述相关定位的标记坐标和标记信息,该标记信息可包括标记注解;接收来自遥控远程机器人成像系统的视频输入;接收定位信息;显示来自所述遥控远程机器人成像系统的所述视频输入;显示所述平面视图,使得所述远程机器人的当前位置指示在所述平面视图上;通过使用所述标记坐标在所述平面视图和所述视频输入中至少一个上显示所述至少一个标记的所述标记注解的复现;并且将一个或更多命今传输至所述遥控远程机器人。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);将所述失真施加至所述至少一个标记的所述标记坐标,以测定描述所述至少一个标记相对于所述视频输入的定位和投影的相应的视频坐标和投影数据;并且使用所述标记视频坐标显示覆盖所述视频输入的所述至少一个标记的所述标记注解的三维复现。在一些实施方式中,基于所述遥控远程机器人的所述当前位置和至少一个标记相对于所述视频输入的投影,所述标记注解的所述三维复现可动态的再提供。在一些实施方式中,所述标记注解的所述三维复现可覆盖与所述视频输入中检测到的目标有关的所述视频输入。在一些实施方式中,所述标记注解的所述三维复现可沿着所述视频输入中检测到的墙覆盖。在一些实施方式中,所述至少一个标记的所述标记信息包括远程机器人动作修正因子,并且所述机器人动作修正因子可设计用于为所述远程机器人控制系统提供执行指令,以响应于所述远程机器人位于所述至少一个标记的标记坐标的预定范围内而执行第一动作。在一些实施方式中,当所述远程机器人在所述至少一个标记的所述标记坐标的预定范围内时,所述能被所述处理器执行的指令进一步设计用于致使所述处理器将所述执行指今传输至所述远程机器人的所述控制系统在一些实施方式中,所述机器人动作修正因子进一步包括有关时间和在所述平面视图上的定位中之一的指令,使得所述远程机器人的所述控制系统执行所述第一动作。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器接收形成路径的相对于所述平面视图的系列坐标,所述遥控远程机器人已沿着所述路径行进;将形成所述路径的系列坐标存储为包括标记坐标和标记信息的路径标记,所述标记信息可包括标记注解;当所述遥控远程机器人到达所述标记坐标的预定距离内时,读取所述路径标记;并且使用所述标记坐标所述平面视图和所述视频输入中的至少一个上显示所述路径标记的所述标记注解的复现。在一些实施方式中,所述远程机器人系统的本地终端进一步包括至少一个用户输入装置和可由所述用户输入装置提供的形成所述路径的所述系列坐标。在一些实施方式中,形成所述路径的所述系列坐标可由所述遥控远程机器人提供。在一些实施方式中,所述远程机器人系统进一步包括通讯系统,该通讯系统设计用于促进所述远程机器人系统的本地终端和所述遥控远程机器人之间的联通。在一些实施方式中,所述本地终端进一步包括至少一个用户输入装置,并且所述用户输入装置可设计用于使用户能提供在所述平面视图和来自所述遥控远程机器人的成像系统中的至少一个上指示所述遥控远程机器人的预期目的地;并且被传输至所述遥控远程机器人的所述命令包括所述预期目的地。在一些实施方式中,形成所述机器人路径的所述系列坐标可至少部分基于与所述至少一个标记相联系的标记信息。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定相对于所述平面视图的系列坐标,以在所述遥控远程机器人的当前位置和所述遥控远程机器人的预期目的地之间产生机器人路径,且被传输至所述遥控远程机器人的命令包括形成所述机器人路径的所述系列坐标。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器显示形成覆盖所述平面视图的机器人路径的系列坐标。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);将所述失真施加至形成所述机器人路径的所述系列坐标,以测定描述所述系列坐标相对于所述视频输入的定位和投影的相应的视频坐标和投影数据;并显示形成覆盖所述视频输入的机器人路径的所述系列坐标的三维复现。在一些实施方式中,相对于所述视频输入中检测到的地面,形成所述机器人路径的系列坐标的三维复现可覆盖所述视频输入。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器接收来自所述遥控远程机器人的相对于所述平面视图的系列坐标,所述系列坐标在所述遥控远程机器人的当前位置和所述遥控远程机器人的预期目的地之间形成机器人路径;并显示形成覆盖所述平面视图的机器人路径的系列坐标。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);将所述失真施加至形成所述机器人路径的所述系列坐标,以测定描述所述系列坐标相对于所述视频输入的定位和投影的相应的视频坐标和投影数据;并显示形成覆盖所述视频输入的机器人路径的所述系列坐标的三维复现。在一些实施方式中,相对于所述视频输入中检测到的地面,形成所述机器人路径的系列坐标的三维复现可覆盖所述视频输入。在一些实施方式中,所述标记信息包括关于以下之一的信息:无线通信信号的可用性、所述遥控远程机器人应行进的速度、目标点的定位、人的定位、停泊站的定位、休息区的定位、玻璃墙的定位、坡道的定位、目标的定位、通行密闭区域的最佳路线、通行拥挤地区的最佳路线和遥控远程机器人应执行的动作。在一些实施方式中,所述标记信息可涉及位置、路径和/或体积,且所述控制系统可设计用于执行关于所述位置、所述路径和/或所述体积的动作。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器接收由所述遥控远程机器人的传感器系统检测到的障碍物的平面视图上的坐标。在一些实施方式中,所述平面视图和所述多个标记被远程存储。在一些实施方式中,所述平面视图和所述多个标记被存储在所述遥控远程机器人中。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);并产生包括所述平面视图和来自所述遥控远程机器人成像系统的视频输入的混合视图的混合地图视图。在一些实施方式中,其中所述混合地图视图包括覆盖所述视频输入的平面视图的三维图示。在一些实施方式中,所述远程机器人系统的本地终端进一步包括至少一个用户输入装置,且所述能被所述处理器执行的指令设计进一步用于致使所述处理器经由至少一个输入装置接收提供的预见所述遥控远程机器人在所述平面视图上的实际定位的要求;测定所述平面视图和从所述遥控远程机器人成像系统接收到的视频输入之间的失真(例如二维坐标系统和三维坐标系统之间的坐标转换);产生基于所述遥控远程机器人的实际定位的实际三维视频输入;并显示基于所述遥控远程机器人的实际定位的实际三维视频输入。在一些实施方式中,所述至少一个标记的标记信息包括一组限定保护区域的相对于所述平面视图的坐标,且所述至少一个标记的标记注解可设计用于指示保护区域的存在。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器接收产生新标记的要求;关联描述所述新标记的相对定位的标记坐标和标记信息,所述标记信息可包括新标记的标记注解;并使用所述标记坐标在所述平面视图和所述视频输入中的至少一种上显示所述新标记的标记注解的复现。在一些实施方式中,产生新标记的要求可有所述遥控远程机器人产生。在一些实施方式中,产生新标记的要求可基于所述视频输入中检测到的目标自动产生。在一些实施方式中,所述新标记可为设计用于一旦所述检测到的目标不再存在于所述视频输入中即终止的临时标记。在一些实施方式中,所述目标可为人,且所述新标记的标记信息包括与人相关的鉴别信息。在一些实施方式中,所述目标可以是人,且所述新标记的标记信息包括所述遥控远程机器人能对所述人执行的潜在动作。在一些实施方式中,所述产生新标记的要求可由于所述远程机器人系统的本地终端联通的用户输入装置产生。在一些实施方式中,产生新标记的要求相对于所述视频输入进行。在一些实施方式中,产生新标记的要求相对于所述平面视图进行。在一些实施方式中,产生新标记的要求相对于所述遥控远程机器人的当前位置进行。在一些实施方式中,所述标记信息包括关于以下之一的信息:无线通信信号的可用性、所述遥控远程机器人应行进的速度、目标点的定位、人的定位、停泊站的定位、休息区的定位、玻璃墙的定位、坡道的定位、目标的定位、通行密闭区域的最佳路线、通行拥挤地区的最佳路线和遥控远程机器人应执行的动作。在其他实施方式中,远程机器人可与遥控终端联通。所述远程机器人可包括:设计用于使所述远程机器人根据驱动指令移动的驱动系统;与所述驱动系统联通的控制系统,所述控制系统设计用于产生致使所述驱动系统使所述远程机器人移动的驱动指令;与所述控制系统联通的成像系统;与所述成像系统联通的绘图模块,所述绘图模块设计用于存取地图数据源,所述地图数据源包括代表机器人操作表面的机器人可通行区域的平面视图;和多个标记,每个标记为包括描述所述标记的相对定位的标记坐标和标记信息的数据结构;与所述控制系统联通的定位系统,所述定位系统设计用于提供相对于所述平面视图的当前位置;标记鉴别系统,所述标记鉴别系统设计用于鉴别与所述远程机器人的导航路径有关的至少一个标记;和通讯系统,所述通讯系统设计用于促进所述控制系统和遥控终端之间的联通;且其中所述控制系统设计用于执行基于经鉴别的标记的动作,所述经鉴别的标记的标记信息包括远程机器人动作修正因子。在一些实施方式中,所述经鉴别的标记的标记信息包括所述控制系统应执行所述动作的关于时间和平面视图上的定位中的一种的指令。在一些实施方式中,所述控制系统可设计用于将来自成像系统的视频输入经由所述通讯系统传输至所述遥控终端,且所述控制系统可设计用于经由所述通讯系统从所述遥控终端接收预期目的地在所述平面视图上的指示。在一些实施方式中,所述远程机器人可进一步包括:多个传感器,所述传感器设计用于鉴别所述远程机器人的邻近区域中的障碍物;以及与所述多个传感器联通且与所述控制系统联通的障碍物避让系统,其中所述控制系统可进一步设计用于产生另外的驱动指令,以避让所述远程机器人的邻近区域中的障碍物。在一些实施方式中,所述多个传感器包括进程式传感器、接触式传感器、测距法传感器和三维图像传感器中的至少一种。在一些实施方式中,所述多个传感器可包括形成点状云的三维图像传感器,该点状云包括障碍物的三维占据区,且所述驱动指令可设计用于避让所述障碍物的三维占据区。在一些实施方式中,所述远程机器人可进一步包括:与所述控制系统联通的地图产生系统,所述地图产生系统设计用于自动产生机器人操作表面的平面视图,其中所述控制系统产生致使所述远程机器人在整个机器人操作表面上移动并获得多个测量结果的驱动指令,且所述地图产生系统使用所述多个测量结果以产生平面视图。在一些实施方式中,所述远程机器人可进一步包括导航系统,所述导航系统设计用于产生导航路径,所述导航路径包括从所述平面视图上的当前位置至所述平面视图上的预期目的地的系列坐标。在一些实施方式中,所述远程机器人可将相对于检测到的障碍物的平面视图的坐标经由所述通讯系统传输至所述遥控终端。在一些实施方式中,形成所述通行路径的系列坐标至少可部分基于与经鉴别的标记相关联的标记信息。在一些实施方式中,所述导航系统设计用于通过从多个潜在的通行路径中选择通行路径来产生通行路径,且将关于所述远程机器人的通行路径的标记与多个潜在的通行路径关联,且所述导航系统设计用于至少部分基于经鉴别的相关标记来选择所述通行路径。在一些实施方式中,形成所述通行路径的所述系列坐标经由所述通讯系统传输至所述遥控终端。在一些实施方式中,所述远程机器人可设计用于使用形成所述通行路径的系列坐标产生新标记,使得所述新标记包括所述系列坐标、与所述通行路径相关的标记信息和与所述通行路径相关的标记注解。在一些实施方式中,所述多个标记的每一个的标记信息包括关于以下之一的信息:无线通信信号的可用性、所述遥控远程机器人应行进的速度、目标点的定位、人的定位、停泊站的定位、休息区的定位、玻璃墙的定位、坡道的定位、目标的定位、通行密闭区域的最佳路线、通行拥挤地区的最佳路线和遥控远程机器人应执行的动作。在一些实施方式中,所述控制系统可进一步设计用于接收从平面视图上的当前位置至所述平面视图上的预期目的地的通行路径,且所述控制系统可进一步设计用于产生致使所述驱动系统使所述远程机器人基于所述通行路径移动至预期终端的驱动指令。在一些实施方式,所述通讯系统可设计用于检测所述远程机器人和遥控终端之间的通讯中断,且其中所述控制系统可进一步设计用于继续产生致使所述远程机器人在所述通讯中断期间自动移动至预期目的地的驱动指令。在一些实施方式中,所述地图数据源可远程存储,使得所述测量模块可设计用于经由所述通行系统存取所述地图数据。在一些实施方式中,所述地图数据源可存储在所述远程机器人内,使得所述测量模块可设计用于存取内部地图数据源。在一些实施方式中,所述内部地图数据源可与远程存储的地图数据源同步。在一些实施方式中,所述定位系统可进一步设计用于提高相对于所述平面视图的机器人姿势。在一些实施方式中,所述远程机器人可设计用于通过以下过程产生新标记:使描述所述新标记相对于所述平面视图和由所述成像系统产生的视频输入中之一的相对定位的标记坐标相关联;将标记信息与新标记关联;并将标记注解与新标记关联。在一些实施方式中,所述新标记可响应于检测视频输入中的目标的远程机器人产生。在一些实施方式中,所述目标可为人,且所述新标记的标记信息包括与人相关的鉴别信息。在一些实施方式中,所述目标可以是人,且所述新标记的标记信息包括所述遥控远程机器人能对所述人执行的潜在动作。在一些实施方式中,所述标记信息包括关于以下之一的信息:无线通信信号的可用性、所述遥控远程机器人应行进的速度、目标点的定位、人的定位、停泊站的定位、休息区的定位、玻璃墙的定位、坡道的定位、目标的定位、通行密闭区域的最佳路线、通行拥挤地区的最佳路线和遥控远程机器人应执行的动作。在一些实施方式中,所述远程机器人可进一步包括:与所述定位系统联通的RFID阅读器,其中所述定位系统将多个RFID芯片与所述平面视图上的相应的多个坐标关联,且所述定位系统可设计用于至少部分基于所述RFID阅读器的范围内的一个或多个RFID芯片的定位来测定上述远程机器人的当前位置。在当前系统和方法中可采用多种控制方法。例如,远程机器人系统的本地终端可包括:电子显示器;与所述电子显示器界面联通的处理器;与所述处理器联通的存储器,所述存储器包括能被所述处理器执行的指令,所述指令设计用于致使所述处理器进行如下操作:读取至少一部分平面视图,所述至少一部分平面视图代表机器人操作表面的机器人可通行区域;在第一投影处接收来自所述遥控远程机器人成像系统的视频输入;从所述遥控远程机器人的定位系统接收相对于所述平面视图的当前位置;显示来自所述遥控远程机器人的成像系统的视频输入;显示所述平面视图,使得所述远程机器人的当前位置指示在所述平面视图上;将命令传输至所述遥控远程机器人;以及与所述处理器联通的用户输入装置,所述用户输入装置设计用于使用户能为遥控远程机器人选择移动,所述选择移动包括选自所述遥控远程机器人相对于视频输入、相对于所述平面视图的目的地;并通过在相对于所述遥控远程机器人的当前位置的至少四个可能的方向中的一个方向上逐渐推进所述遥控远程机器人。在一些实施方式中,所述移动的选择包括通过选择所述视频输入中的点来选择所述视频输入的替代投影。该模式将可能用于达到在所述视频输入的视图内定位的中间距离。在一些实施方式中,所述移动的选择包括通过选择所述视频输入中的点来选择所述视频输入的替代投影。该模式应能用于达到不在所述视频输入的视图内定位的更远的距离(例如过道下,房间之间等)。在一些实施方式中,所述移动的选择包括使用操纵杆或人工控制的金属操纵杆。该模式应该能用于微调节/精细调节,例如在人类/病人紧邻区域的房间内。在一些实施方式中,所述移动的选择包括:在所述遥控远程机器人保持当前位置的同时,通过使所述成像系统递增地平移或倾斜来选择所述视频输入的替代投影。在一些实施方式中,其中所述移动的选择可涉及使所述遥控远程机器人的下部和所述遥控远程机器人的上部中之一转动。在一些实施方式中,将存在在各种模式之间切换的方式,例如多模式用户界面,其中一个可选择控制头部/成像系统的移动或遥控存在机器人的底部/下部的移动。在一些选择头部/成像系统的移动控制的实施方式中,可存在选择通过鼠标的基于位置的箱式可变头部运动(position-basedbox-zoomheadmotion)或通过鼠标的基于速度的头部运动(velocity-basedheadmotion)的选择。在选择遥控当前机器人的底部/下部的控制的一些实施方式中,可存在选自下述中的一种的选择:(1)敲击地图(click-on-map),即上下地图视图,并敲击目标目的地或选自目的地列表;(2)敲击视频(click-on-video),即能敲击视频内定位的基于位置的控制;(3)操纵杆或金属操纵杆,例如鼠标基于速度的控制或箭头明确向前、向左、向右等。在一些实施方式中,在机器人底座移动时任何时候均能被用户读取所需的功能性/信息包括:(1)远程视图,即机器人行进至足以提供用户安全操作的有意义的可视信息;(2)对于监视控制模式,对能根据需要取消/中止操作的人控能力的潜在需求。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器从所述用户输入装置接收所述遥控机器人的目的地选择;测定相对于所述平面视图的系列坐标,以在所述遥控远程机器人的当前位置和所述遥控远程机器人的所选目的地之间产生通行路径;并将命令传输至所述遥控远程机器人,所述命令命令包括形成所述通行路径的所述系列坐标。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器显示形成覆盖所述平面视图的通行路径的系列坐标。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器执行以下操作:测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);将所述失真施加至形成所述通行路径的所述系列坐标,以测定描述所述系列坐标相对于所述视频输入的定位和投影的相应的视频坐标和投影数据;并显示形成覆盖所述视频输入的通行路径的所述系列坐标的三维复现。在一些实施方式中,相对于所述视频输入中检测到的地面,形成所述机器人路径的系列坐标的三维复现可覆盖所述视频输入。在一些实施方式中,能被所述处理器执行的指令进一步设计用于致使所述处理器从所述用户输入装置接收所述遥控机器人的目的地选择;将相对于所述平面视图的目的地坐标传输至所述遥控远程机器人,所述目的地坐标与所选的目的地对应;从所述遥控远程机器人的导航系统接收相对于所述平面视图的系列坐标,所述系列坐标在所述遥控远程机器人的当前位置和所述遥控远程机器人的预期目的地之间形成通行路径;并显示形成覆盖所述平面视图的通行路径的系列坐标。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);将所述失真施加至形成所述通行路径的所述系列坐标,以测定描述所述系列坐标相对于所述视频输入的定位和投影的相应的视频坐标和投影数据;并显示形成覆盖所述视频输入的通行路径的所述系列坐标的三维复现。在一些实施方式中,相对于所述视频输入中检测到的地面,形成所述通行路径的系列坐标的三维复现可覆盖所述视频输入。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器接收由所述遥控远程机器人的传感器系统检测到的障碍物的平面视图上的坐标。在一些实施方式中,所述平面视图被远程存储。在一些实施方式中,所述平面视图被存储在所述遥控远程机器人中。在一些实施方式中,所述能被所述处理器执行的指令进一步设计用于致使所述处理器测定所述平面视图和从所述遥控远程机器人成像系统接收到的所述视频输入之间的失真(例如,二维坐标系统和三维坐标系统之间的坐标转换);并产生包括所述平面视图和来自所述遥控远程机器人成像系统的视频输入的混合视图的混合地图视图。在一些实施方式中,所述混合地图视图包括覆盖所述视频输入的平面视图的三维图示。在一些实施方式中,所述能被所述处理器执行的指令设计进一步用于致使所述处理器经由输入装置接收提供的预见所述遥控远程机器人在所述平面视图上的实际定位的要求;测定所述平面视图和从所述遥控远程机器人成像系统接收到的视频输入之间的失真(例如二维坐标系统和三维坐标系统之间的坐标转换);产生基于所述遥控远程机器人的实际定位的实际三维视频输入;并显示基于所述遥控远程机器人的实际定位的实际三维视频输入。在一些实施方式中,机器人可设计用于独立地展开和/或控制上部和下部,从而表现出与人相像。例如,远程机器人可包括:上部;可转动地连接至所述上部的下部;设计用于使所述远程机器人根据驱动指令移动的驱动系统;与所述驱动系统联通的控制系统,所述控制系统设计用于产生致使所述驱动系统使所述远程机器人移动的驱动指令;转动系统,所述转动系统设计用于通过独立地转动上部和下部而使所述机器人从第一行进方向朝第二行进方向转动。在一些实施方式中,所述转动系统可设计用于通过使机器人的上部朝向第二行进方向转动而使所述机器人朝向第二行进方向转动;检测所述机器人的上部已达到所述机器人的上部相对于所述机器人的下部的平移极限;在所述机器人的上部的平移极限处开始使所述机器人的下部朝向所述第二行进方向转动;检测所述机器人的上部已达到所述第二行进方向;以及在同时使所述机器人的上部反向转动时,持续使所述机器人的下部朝向所述第二行进方向转动,使得所述机器人的上部保持所述第二行进方向。在一些实施方式中,当所述上部不能相对于所述机器人的下部物理转动时可达到所述平移极限。在一些实施方式中,当所述上部相对于所述下部偏移预定的转动度数时可达到所述平移极限。在一些实施方式中,所述平移极限可为度数和时间长度的函数,该度数是所述上部相对所述下部偏移的度数,且该时间长度为所述上部已相对于所述下部偏移的时间长度。在一些实施方式中,所述转动系统可设计用于通过使所述机器人的上部以第一转动速率朝向所述第二行进方向转动而使所述机器人朝向所述第二行进方向转动;使所述机器人的下部以第二转动速率朝向所述第二行进方向转动;检测所述机器人的上部已达到所述第二行进方向;以及在同时使所述机器人的上部反向转动时,持续使所述机器人的下部朝向所述第二行进方向转动,使得所述机器人的上部保持所述第二行进方向。在一些实施方式中,所述远程机器人可进一步包括:与所述控制系统联通的成像系统;和与所述控制系统联通的定位系统,所述定位系统设计用于提供所述机器人相对于所述平面视图的当前位置和所述上部相对于所述平面视图的当前取向;其中,所述控制系统设计用于将来自所述成像系统的视频输入、所述机器人的当前位置以及所述上部的当前取向传输至遥控终端,使得所述遥控终端能测定所述平面视图和从所述遥控远程机器人成像系统接收到的视频输入之间的失真(例如二维坐标系统和三维坐标系统之间的坐标转换);将所述失真施加至具有与所述平面视图关联的坐标的标记,从而测定描述所述标记相对于所述视频输入的定位和投影的相应的视频坐标和投影数据;并使用所述视频坐标显示所述标记覆盖所述视频输入的三维复现。上述实施方式由机器人和/或本地终端的投影说明。对本领域技术人员显然的是上述实施方式可作为系统实施,调整为通过系统实施的方法,或在能被系统执行的计算机可读介质中体现。例如,改变机器人的行进方向的方法可包括将行进方向传输至机器人的控制系统,所述机器人的与所述驱动系统联通的控制系统设计用于使机器人根据驱动指令移动,并使所述机器人的上部独立地从所述机器人的下部朝向所述行进方向转动。在一些实施方式中,控制遥控远程机器人的方法可包括:读取平面视图的至少一部分,该一部分平面视图代表机器人操作表面的机器人可通行区域;读取多个标记中的至少一个,所述多个标记中的每一个包括描述所述标记的相对定位的标记坐标和标记信息;从所述遥控远程机器人的成像系统接收视频输入;接收与所述遥控远程机器人的当前位置相关联的定位信息;通过电子显示器显示来自所述遥控远程机器人的成像系统的视频输入;通过电子显示器使用所述标记坐标在所述视频输入上显示至少一个标记的标记信息的复现;并将命令传输至所述遥控远程机器人。控制远程机器人的方法,包括:读取平面视图的至少一部分;读取多个标记中的至少一个,每个标记为包括描述标记的相对定位的标记坐标和标记信息的数据结构;测定相对于所述平面视图的当前位置;鉴别所述多个标记关于所述远程机器人的通行路径的至少一个标记;执行基于经鉴别的标记的动作,所述经鉴别的标记的标记信息包括远程动作修正因子。在一些实施方式中,控制远程机器人的方法可包括:读取平面视图的至少一部分,该一部分平面视图代表机器人操作表面的机器人可通行区域;在第一投影处从所述遥控远程机器人的成像系统接收视频输入;接收与所述遥控远程机器人的当前位置相关联的定位数据;显示来自所述遥控远程机器人的成像系统的视频输入;将命令传输至所述遥控远程机器人;并接受来自用户输入装置的移动的多种移动选择,所述移动选择如下进行:(1)相对于所述视频输入;(2)相对于所述平面视图;和/或(3)在相对于所述遥控远程机器人的当前位置的方向上递增地推进所述遥控远程机器人。在附图和以下说明中阐述本发明的一个或多个实施方式的细节。本发明的其它方面、特征和优点将由说明书和附图以及权利要求变得明显。附图说明图1为示例性远程机器人的透视图。图2为示例性远程机器人的高架透视图。图3A-3C为示例性远程机器人的示意图。图4A为移动人类界面机器人的示例性底座的前透视图。图4B为所述在图4A示出的底座的后透视图。图4C为所述在图4A示出的底座的顶视图。图4D为远程机器人的示例性底座的顶部示意图。图4E为远程机器人的示例性驱动系统的底部透视图。图4F为所述在图4E示出的驱动系统的顶部透视图。图5为由远程机器人的控制器执行的示例性控制系统的示意图。图6A提供了包括与机器人终端服务器联通的多个机器人的示例性机器人系统的示意图。图6B示出了由机器人或终端执行的远程软件应用程序。图6C示出了控制半自动远程机器人的行进的用户界面截屏的一种实施方式。图6D示出了截屏,其中用于地图视窗的屏幕的相对面积增加。图7为示例性机器人系统构造的示意图。图8A为示例性占用图的示意图。图8B为远程机器人在工作区域内具有的场景视野的领域的示意图。图8C为示例性布局图的示意图。图8D为与图8C示出的布局图相对应的示例性机器人图的示意图。图8E提供了使用布局图和机器人图操作远程机器人以围绕环境通行的操作的示例性布置。图8F示出了使用机器人定位和投影来测定视频输入和平面视图之间的偏差的方法。图9A为从置于过道的机器人的示例性遥控视频视野的示意图。图9B为混合了图9A示出的遥控视频视野和指示房间号的图的示例性混合图的示意图。图10A提供了远程软件应用程序的遥控视频视窗的示例性遥控视野。图10B为由图10A的遥控视野所示区域的示例性图的示意图。图10C为远程软件应用程序的示例性预见视野的示意图。图10D为图10B示出的图的示意图,其上具有机器人图标和视野的相应摄像区域。图10E为远程软件应用程序的示例性预见视野的示意图。图10F为图10B示出的图的示意图,其上具有机器人图标和视野的相应摄像区域。图10G提供了远程软件应用程序的预见路线的示例性操作布置。图11A为允许用户在经鉴别的通行区域内明确机器人目的地的示例性用户界面的示意图。图11B提供了使机器人通行至目的地的方法的示例性操作布置。图11C为提示用户坡道已被选为机器人目的地的示例性用户界面的示意图。图11D为提示用户障碍物已被选为机器人目的地的示例性用户界面的示意图。图12为允许用户在经鉴别的可通行区域内明确机器人驱动路径的示例性用户界面的示意图。图13为混合了众多标记和环境敏感命令的示例性用户界面的示意图。图14为示例性远程机器人在人身上维持传感器视野区域的透视图。图15A为包括众多标记的示例性三维图视野的示意图。图15B为包括众多标记的示例性二维图视野的示意图。图16A为示例性机器人系统的示意图。图16B为与图数据源的示例性相互作用的示意图。图16C为在机器人控制系统和图数据源之间的示例性相互作用的示意图。图16D为示例性机器人系统的示意图。图17为包括与远程机器人相对应的经强化的覆盖的示例性用户界面的示意图。图18为示例性系列机器人动作的示意图。图19为使屏幕指示器覆盖从远程机器人接收的遥控视频输入的示例性用户界面的示意图。图20A-20C提供了修复与机器人失联的操作的示例性布置。在不同的附图中相同的附图标记指示相同的元件。具体实施方式远程机器人能和人类相互影响或相互作用来提供许多服务,例如内科医生或保健工作者提供远程医疗咨询、家庭协助、商业协助等等。在家庭协助的实例中,远程机器人能在日常任务中协助老年人,包括但不仅限于维持药物管理;行动协助;交流协助(例如,视频会议、电讯、互联网络访问等等);家庭或场所监控(里面和/或外面);人身监控;和/或提供个人紧急应变系统(PERS)。商业协助方面,远程机器人能提供视频会议(例如,在医院环境里);销售终端点;交互式信息/销售终端等等。在一些具体实施方式中,参照图1-3B,远程机器人100包括限定向前的驱动方向F的机器人主体110(或是底盘)。机器人100也包括驱动系统200(图4D)、界面模块300和传感器系统400,它们都由机器人主体110支撑,并且与协调机器人100的操作和移动的控制器500(图5)联通。电源105(例如,电池)能由机器人主体110承载,并且必要时,与这些元件电联通,并向其传输电力。在示出的实例中,机器人主体110包括底座120,从底座120向上延伸的至少一条腿130,以及由至少一条腿130支撑的躯干140。底座120可支撑驱动系统200.机器人主体(下部)110也包括由躯干140支撑的颈150。颈150支撑头(上部)160,头160支撑着界面模块300的至少一部分。底座120包括足够的重量(例如,通过支撑电源105(电池))来维持底座120的低重心CGB和机器人100的低整体重心CGR,以维持机械稳定性。在一些具体实施方式中,参照图2和4A-4C,底座120限定三边相等的形状(例如顶视图为三角形)。例如,底座120可包括支撑底座主体124的底座架122,该底座主体124具有与三边形底座120的每条腿对应的第一、第二和第三底座主体部分124a、124b和124c(例如参见图4A)。每个底座主体部分124a、124b和124c能由底盘架122可移动地支撑,以便响应于与目标接触相对于底盘架122独立移动。底座120的三边相等的形状允许能围绕机器人100进行360°碰撞检测。每个底座主体部分124a、124b和124c可具有相关的接触式传感器(例如电容传感器、读取转换器等),该接触式传感器检测对应的底座主体部分124a、124b和124c相对于底座架122的移动。在一些具体实施方式中,驱动系统200提供机器人100的全方位和/或完整力学运动控制。文中使用的术语“全方位”指的是在任何基本平面的方向上,即左右(横向)、前进/后退和旋转的移动的能力。在此,这些方向通常分别被称为x、y、θ、ζ。此外,术语“完整力学的(holonomic)”以基本与该术语的文献应用一致的方式使用,并指的是在平面方向上以三个平面自由度,即两个平移和一个旋转移动的能力。因此,完整力学的机器人具有由基本上任何比例的三个平面速度(横向、前进/后退和旋转)的速度组成的速度在平面方向移动的能力,以及以基本上连续的方式改变这些比例的能力。机器人100利用轮式可动性能在人类环境里操作。在一些具体实施方式中,驱动系统200包括围绕纵轴Z等距(例如相隔120度)的第一、第二和第三驱动轮210a、210b和210c(即三边相等);然而,其他布置也是可能的。参照图4D,驱动轮210a、210b和210c可限定横向弧形滚动表面(即与滚动方向DR横切或垂直的方向的曲线轮廓),这样可促进完整驱动系统200的可动性。每个驱动轮210a、210b和210c与各自的驱动电机220a、220b和220c连结,这些电机能以独立于其他驱动电机220a、220b和220c前进和/或向后的方向驱动该驱动轮210a、210b和210c。每个驱动电机220a-c能有各自的编码器,该编码器向控制器500提供车轮旋转反馈。在一些实例中,每个驱动轮210a、210b和210c都安装在等边三角形的三个点上或其附近,并且具有与相应的三角形端的角平分线垂直的驱动方向(向前的方向和后退的方向)。以向前的驱动方向F驱动三边相等的完整力学底座120使机器人100能转换为非向前的驱动方向,以从限制或混乱中逃脱,并且在逃脱已解决之后转动和/或转变为沿着向前的驱动方向F驱动。在一些具休实施方式中,参照图4E和4F,驱动系统200包括第一、第二、第三和第三驱动轮210a-d,它们被布置在从顶视图看为正方形或矩形的构型中(例如,与Z轴等距)。驱动系统200可以完整力学方式操作,允许扫射。每个驱动轮210a-d与各自的驱动电机220a-d连结,所述电机能以向前和/或向后的方向独立于其他驱动电机220a-d驱动该驱动轮210a-d。每个驱动电机220a-d能有各自的编码器,该编码器向控制器500提供车轮旋转反馈。底盘架122支撑驱动电机220a-d和与其对应连结的驱动轮210a-d.如图2所示,在一些实例中,第一驱动轮210a被布置为沿着向前的驱动方向F的引导驱动轮,而剩下的两个驱动轮210b和210c则跟随在后面。在这种布置下前进驱动,控制器500可发出驱动命令,该驱动命令致使第二和第三驱动轮210b和210c以相同的速度按向前的滚动方向驱动,同时第一驱动轮210a沿着向前的驱动方向F滑动。此外,这种驱动轮布置允许机器人100突然停止(例如遭受到与向前的驱动方向F对立的快速负加速)。这是由于三轮设计的正常的动态不稳定性。如果向前的驱动方向F是沿着两个向前的驱动轮之间的角平分线的,突然停止将会产生逼迫机器人100绕它的两个“前”轮旋转致使其减速的扭矩。相反,如果需要快速停止,使一个驱动轮210a自然向前行进支撑或预防机器人100向前翻倒。然而,当从停止启动加速时,控制器500需考虑从机器人100的整体重心CGR考虑它的转动惯量I。在驱动系统200的一些具体实施方式中,每个驱动轮210a、210b和210c具有与纵轴Z径向对齐的滚动方向DR,纵轴Z垂直于机器人100的X轴和Y轴。第一驱动轮210a能被布置为沿着向前的驱动方向F引导驱动轮,而剩下的两个驱动轮210b和210c则跟随在后面。在这种布置下,为了向前驱动,控制器500可发出驱动命令,该驱动命令导致第一驱动轮210a以向前的滚动方向驱动,并且第二和第三驱动轮210b和210c以与第一驱动轮210a速度相同但相反的方向驱动。在其他具体实施方式中,驱动系统200能被布置为使第一和第二驱动轮210a和210b如此定位,使得两个驱动轮210a和210b之间角度的角平分线与机器人100的向前的驱动方向F对齐。在这种布置下,为了向前驱动,控制器500可发出驱动命令,该驱动命令致使第一和第二驱动轮210a和210b以向前的滚动方向并且以相同速度驱动,同时第三驱动轮210c以相反的方向驱动或保持不动,并且在第一和第二驱动轮210a和210b后面拖行。为了在向前驱动时左转或右转,控制器500可发出命令,该命令致使相应的第一或第二驱动轮210a和210b以相对较快/较慢的速度驱动。其他驱动系统布置也可使用。驱动轮210a、210b和210c可限定圆柱形、圆形、椭圆形或多边形外形。再度参照图1-3B,底座120支撑在Z方向从底座120向上延伸的至少一条腿130。腿130可设计用于具有可变的高度,用于使躯干140相对于底座120升高和降低。在一些具体实施方式中,每条腿130包括第一和第二腿部132、134,它们相对于彼此移动(例如,伸缩移动、直线移动和/或角度移动)。不同于使直径逐渐变小的突出部伸缩移入和移出彼此,并且移出相对较大的底座突出部,在示出的实例中,第二腿部134在第一腿部132上伸缩移动,因此使得其他元件能沿着第二腿部134放置并且可能随着第二腿部134移动到底座120的相对较近的邻近区域。腿130可包括使第二腿部134相对于第一腿部132移动的执行器组件。执行器组件136可包括与提升电机和编码器联通的电机驱动器,编码器为控制器提供位置反馈。通常伸缩布置包括直径逐渐变小的突出部,该突出部在底座120出伸缩地移动上升并且移动出相对较大的突出部,使得整条腿130的重心CGL尽可能低。此外,更坚固和/或更大的元件能置于底部来应对当腿130完全伸展时底座120所经历的更大的扭矩。然而这种方法存在两个问题。第一,当相对较小的元件置于腿130的顶端时,任何雨水、灰尘或者其他微粒易于流动或掉入突出部,渗入各突出部之间的空间,因此阻止突出部的嵌套。这样就在仍然试着保持腿130的完整可动性/接合时产生了非常困难的密封问题。第二,可在机器人100上安装负荷或附件。安装附件的一个普遍位置为躯干140的顶端。如果第二腿部134伸缩地移入和移出第一腿部,附件和元件只能安装在整个第二腿部134之上,如果他们需要随着躯干140移动的话。否则,任何安装在第二腿部134上的元件将限制腿130的伸缩移功。通过使第二腿部134在第一腿部132上伸缩移动,第二腿部134提供了能相对于底座120垂直移动的额外负荷附着点。这种类型的布置导致水或空气中的微粒沿着每个腿部132和134(例如突出部)外侧上的躯干140往下流,而不会进入腿部132和134之间的空间。这样大大的简化了对腿130任何连接部的密封。此外,不管腿130如何伸展,躯干140和/或第二腿部134的负荷/附件安装特征总是公开的并且可用。参照图2,腿130支撑躯干140,躯干140可具有在底座120上方和之上伸展的肩142。在示出的实例中,躯干140有形成至少肩142的一部分的面向下的表面或底面144(例如向着底座)和相反的面向上的表面或顶面146(图3A),侧面148在它们之间延伸。躯干140可限定不同的形状或几何形状,例如圆形或椭圆形,这些形状具有由腿130支撑的中央部分141和横向延伸超过腿130的横向限度的外围自由部分143,因此提供了限定面向下的表面144的悬伸部分(overhangingportion)。在一些实例中,躯干140限定多边形或其他复杂的形状,这些形状限定肩,肩提供了在底座120上方延伸超过的腿130的悬伸部分。机器人100可包括一个或多个用来接收负荷的附件端口170(例如机械和/或电子连接点)。附件端口170能被如此定位,使得接收到的负荷不会阻隔或妨碍传感器系统400的传感器(例如,在躯干140的底面和/或顶面144、146上等)。躯干140的外表面可对用户的接触或触摸敏感以便接收用户的触摸命令。例如,当用户触摸躯干140的顶面146时,机器人100会通过降低躯干相对于地面的高度(例如,通过降低支撑躯干140的腿130的高度)来回应。相似的,当用户触摸躯干140的底面144时,机器人100通过相对于地面升高躯干140(例如,通过升高支撑躯干140的腿130的高度)来回应。此外,当在躯干140的侧面148的前方部分、后方部分、右方部分或左方部分接收到用户触摸时,机器人100通过以接收的触摸命今(例如,分别为向后、向前、向左和向右)相对应的方向移动。躯干140的外表面可包括与检测用户接触的控制器联通的电容传感器。再次参照图1-3B,躯干140支撑着颈部150,颈部150提供头部160相对于躯干140的平移和倾斜。在示出的实例中,颈部150包括旋转装置152和倾斜装置(tilter)154。旋转装置152可提供在约90°和约360°之间范围的角度移动θR(例如,围绕Z轴)。其它范围也是可能的。此外,在一些实例中,旋转装置152包括电连接器或触点,它们能实现头部160相对于躯干140以无限的旋转次数连续旋转360°,同时保持机器人100的头160和其余部分之间的电联通。倾斜装置154可包括相同或相似的电连接器或触点,它们能实现头部160相对于躯干140旋转,同时保持机器人100的头部160和其余部分之间的电联通。旋转装置152可包括与环形物(例如锯齿状环形架)连结或咬合的旋转装置电机。倾斜装置154可使头独立于旋转装置152相对于躯干140以角度θχ(例如围绕Y轴)移动。在一些实例中,倾斜装置154包括倾斜装置电机,该倾斜装置电机使头部160在角度θT±90°之间相对于Z轴移动。其他范围也可行,例如±45°等。机器人100可被设定以致使腿130、躯干140、颈部150和头部160保持在底座120边界内来维持机器人100的稳定可动性。头部160可对用户的接触或触摸敏感,以便接收用户的触摸命令。例如,当用户向前拉动头部160时,头部160消极抵抗而向前倾斜,然后保持该位置。此外,如果用户推动/拉动头部160垂直向下,躯干140可降低(通过减低腿130的长度)头部160。头部160和/或颈部150可包括变形测定器和/或感知用户接触或操纵的接触式传感器165。在一些具体实施方式中,头部160支持着界面模块300的一个或多个部分。头部160可包括用于可释放地接收一个或多个计算板(computingtablet)310的停泊处(dock)302,计算板310也被称为网络板(webpad)或平板型计算机,它们都可有触摸屏312。网络板310可定向为向前、向后或向上。在一些具体实施方式中,网络板310包括触摸屏、可选的I/O(例如按键和/或连接器,像微型USB等)、处理器和与处理器联通的存储器。示例性网络板310包括苹果公司的苹果iPad。在一些实例中,网络板310的功能跟控制器500一样,或是协助控制器500控制机器人100。触摸屏可检测、监控和/或再现用户在其上接触的点,来接收用户输入并且提供接触互相作用的图像用户界面。在一些实例中,网络板310包括触摸屏调用程序,当其被从机器人100上去除时,触摸屏调用程序允许用户将其找回。界面模块300可包括配置在头部160上的摄影机320(例如参见图3A),摄影机320用于从头部160的高架的有利位置捕捉视频(例如用于视频会议)。在图2示出的实例中,摄影机320配置在颈部150上。在一些实例中,摄影机320只有在网络板310从头部160分离或移除后才能运转。当网络板310附在或停驻在头部160上的底座302(并且可选择覆盖摄影机320)时,机器人可使用网络板310的摄影机来捕捉视频。在这种实例中,摄影机320可配置在停驻的网络板310后面并且在网络板310从头部160分离或移除后进入有效状态,而在网络板310附在或停驻在头部160上时为待机状态。机器人100能通过界面模块300(例如使用网络板310、摄影机320、扩音器330和/或扬声器340)提供视频会议(例如24帧每秒或更高)。视频会议能多方进行。机器人100能通过操纵头部160以面对用户来提供视频会议双方的眼神接触。此外,机器人100能有<5°的视角(例如偏离与头部160的向外的表面正交的轴的角度)。机器人100上的至少一台三维图像传感器450和/或摄影机320能捕捉到包括肢体语言在内的实际大小的图像。控制器500能使音频和视频同步(例如,差异<50ms)。摄影机320可独立于网络板310在至少1°内自由移动。头部160可包括一个或多个扬声器340以便在显示视频会议的网络板310附近具有来自头部160的声源。界面模块300可包括用来接收声音输入的扩音器330(或话筒组)和一个或多个配置在机器人主体110上用于传送声音输出的扬声器340。参照图1-3C,为了实现可靠和稳定的自主移动,传感器系统400可包括几种不同类型的传感器,这些传感器能用于与其他传感器互相联系以产生对机器人环境的充分感知以足以使机器人100能做出在所处环境中对于动作的智能决定。传感器系统400可包括由机器人主体110支撑的一种或多种类型的传感器,这些传感器可包括障碍物检测避让(ODOA)传感器、通信传感器,导航传感器等。例如,这些传感器可包括但并不限于,进程式传感器、接触式传感器、三维成像/深度图传感器、摄影机(例如可见光和/或红外摄影机)、声纳、雷达、光检测和测距(LIDAR,它可以引起检测散射光的性能以查找远远端目标的范围和/或其他信息的光学遥感)、激光检测和测距(LADAR)等。在一些具体实施方式中,传感器系统400包括测距声纳传感器410(例如,围绕底座120的周边的九个)、接近悬崖检测器420、接触式传感器430(图4A)、激光扫描仪440、一个或多个三维成像/深度传感器450和成像声纳460。在一些具体实施方式中,传感器系统400包括一组或一列进程式传感器410和420,它们与控制器500联通,并配置在机器人100的一个或多个区域或部分(例如,配置在机器人110的底座主体部分124a、124b和124c上或附近)用以检测任何附近或侵入的障碍物。进程式传感器410和420可为当物体处于机器人100的给定范围内时向控制器500提供信号的会聚红外线(IR)发射传感器元件、声纳传感器、超声波传感器和/或成像传感器(例如,三维深度图的图像传感器)。在图4A-4C示出的实例中,机器人100包括配置在主体120的底座124周围并且视野设置为向上的一列声纳型进程式传感器410(例如,基本上是等距的)。第一、第二和第三声呐进程式传感器410a、410b和410c配置在第一(向前)底座主体部分124a上或附近,其中至少一个声呐进程式传感器在主体120的第一底座124a的径向最外侧边缘125a的附近。第四、第五和第六声呐进程式传感器410d、410e和410f配置在第二(右方)底座主体部分124b上或附近,其中至少一个声呐进程式传感器在主体120的第二底座124b的径向最外侧边缘125b的附近。第七、第八和第九声呐进程式传感器410g、410h和410i配置在第三(左方)底座主体部分124c上或附近,其中至少一个声呐进程式传感器在主体120的第三底座124c的径向最外侧边缘125c的附近。这种设计提供了至少三个检测区域。在一些实例中,配置在主体120的底座124周围的一组声呐进程式传感器410(例如410a-410i)布置为指向上方(例如基本在Z方向),并且可选择偏离Z轴向外形成角度,因此产生了机器人100周围的检测帷幕(detectioncurtain)412。每个声呐进程式传感器410a-410i可有护罩或发射导板414,其可引导声呐向上发射或至少不是向着机器人主体110的其他部分(例如,以便不会检测到机器人主体110相对于自身的移动)。发射导板414可限定壳状或半壳状。在示出的实例中,主体120的底座124侧向伸展超出腿130,并且声呐进程式传感器410(例如410a-410i)配置在围绕腿130的主体120的底座124上(例如,基本上沿着主体120的底座124的边界)。此外,向上指向的声呐进程式传感器410被分隔开以在腿130的周围产生连续的或基本连续的声呐检测帷幕412。声呐检测帷幕412能用于检测有高架侧凸部分的障碍物,例如桌面、架子等。向上看的声呐进程式传感器410提供了看见主要在水平面上的物体的能力,例如桌面。这些物体由于它们的纵横比可能会被传感器系统的其他传感器错过,例如激光扫描仪440或成像传感器450,并且这样会对机器人100造成问题。布置在底座120边界周围的向上看的声呐进程式传感器410提供了看见或检测这种类型的物体/障碍物的方式。此外,声呐进程式传感器410能置于底座边界最广阔的点周围并且稍微向外形成角度,以便不会被机器人100的躯干140或头部160阻隔或妨碍,因此不会造成对机器人100自身部分感知的误报。在一些具体实施方式中,声呐进程式传感器410被布置(向上和向外)在声呐进程式传感器410的视野区域外对躯干140周围留空并且因此可自由接收安装的负荷或附件,例如篮子360。声呐进程式传感器410能凹入底座主体124,来提供视觉隐蔽性,并且没有外观特征来钩住障碍物或撞上障碍物。传感器系统400可包括朝向后方(例如,与向前的驱动方向F相反)的一个或多个声呐进程式传感器410(例如后进程式传感器410j),用于后退时检测障碍物。后声呐进程式传感器410j可包括检测其声呐检测区域412的发射导板414。此外,后声呐进程式传感器410j能用于测距,以测定机器人100和在后声呐进程式传感器410j(例如,作为“后退警报”)视野区域内检测到的物体之间的距离。在一些实例中,后声呐进程式传感器410j安装为凹入主体120的底座124内以便不会提供任何外罩形式的视觉或功能上的不规则。参照图2和4B,在一些具体实施方式中,机器人100包括悬崖进程式传感器420,它们安装在驱动轮210a、210b和210c附近或四周,以便允许在驱动轮210a、210b和210c进入悬崖(例如,楼梯)之前进行悬崖检测。例如,悬崖进程式传感器420能定位于每个底座整体124a-c的径向最外侧边缘125a-c上或附近,以及定位于它们之间的位置。在某些情况下,悬崖感知是通过使用红外(IR)接近或实际范围感知,采用朝向彼此形成角度的红外线发射器422和红外检测器424来实施,以便具有重叠的发射和检测领域,因此具有在地面的位置可以预见的位置处的检测区域。IR接近感知能有相对狭窄的视野区域,可能依赖于表面反照率的可靠性,并且可以从表面到表面有不同范围的精确性。其结果是,多个分散的传感器可以置于机器人100的边界以充分地从机器人100上的多个点检测出悬崖(cliff)。此外,基于IR接近的传感器通常无法区分悬崖和安全事件,例如在机器人100刚越过一个门槛之后。当机器人100遇到地面的下降边缘,悬崖进程式传感器420能检测出来,例如当其遇到一组楼梯时。控制器500(执行控制系统)可执行导致机器人100采取动作的行为,例如当检测到边缘时改变其前进方向。在一些具体实施方式中,传感器系统400包括一个或多个次级悬崖传感器(例如其他传感器设计用于悬崖感知并且可选择的其他类型的感知)。悬崖检测进程式传感器420能被布置以提供悬崖的早期检测,提供用于区分实际悬崖和安全事件(例如爬过门槛)的数据,并且向下和向外定位,以致使它们的视野区域包括机器人主体110的至少一部分和远离机器人主体110的某一区域。在一些具体实施方式中,控制器500执行鉴别和检查支撑工作面(例如,地面)的边缘、越过工作面边缘的距离的增加,和/或机器人主体110和工作面之间距离的增加的悬崖检测程序。这种具体实施方式实现了:1)对潜在悬崖的早期检测(这可实现在未知环境中更快的可动性);2)增加自主可动性的可靠性,因为控制器500可从悬崖检测进程式传感器420接收悬崖图像信息来了解悬崖事件是否确实是不安全的或其是否能安全地越过(例如爬上和越过门槛);3)悬崖误报的减少(例如,由于边缘检测的使用对比多个分散的具有狭窄视野区域的IR进程式传感器)。布置为“轮降(wheeldrop)”传感器的额外的传感器能用于多余度,和用于范围感知摄影机不能可靠检测的某一类型的悬崖的检测情况。门槛和台阶检测允许机器人100有效地计划越过可爬上的门槛或避免过高的台阶。这对机器人100能不能够安全越过工作面上的任意物体是一样的。对于那些机器人100判定能够爬越的障碍物或门槛,知道它们的高度允许机器人100(如果认为需要的话)可适当地减速来实现平稳转换,为了达到最大化平稳性和最小化因为突然加速的任何不稳定性。在一些具体实施方式中,门槛和台阶检测基于在工作面上的物体高度和几何形状识别(例如,区分门槛或电线对比无一定形状的较大物体,例如一只袜子)。门槛可由边缘检测来识别。控制器500可从悬崖检测进程式传感器420(或机器人100上的另一成像传感器)接收成像数据,执行边缘检测程序,并且基于边缘检测程序结果发出驱动命令。控制器500也可使用模式识别来辨认物体。门槛检测使得机器人100能相对于门槛改变其取向以最大化平稳的台阶攀爬能力。进程式传感器410和420可单独起作用,或者作为替代方案,也可与一个或多个接触式传感器430(例如碰撞转换器)组合起作用。例如,机器人主体110上的一个或多个接触式或碰撞传感器430能检测机器人100是否在物理上遇到障碍物。这种传感器可使用机器人100内例如电容的物理属性或物理位移来判定是否已遇到障碍物。在一些具体实施方式中,底座120的每一个底座主体部分124a、124b和124c都有相联的接触式传感器430(例如,电容传感器、读取转换器等),它们检测相应的底座主体部分124a、124b和124c相对于底座架122的移动(如图4A所示)。例如,主体120-c的每个底座124a可相对于底座架122的Z轴径向移动,以便提供三向碰撞检测。再次参照图1-4C,在一些具体实施方式中,传感器系统400包括安装在机器人主体110前部上并且与控制器500联通的激光扫描仪440。在示出的实例中,激光扫描仪440安装在主体120的第一底座124a上或其上方(例如,沿着机器人的驱动方向F具有最大成像覆盖范围)的主体120的面向前(例如,沿着向前驱动方向F的视野区域)的底座124上。此外,三角底座120前端上或附近的激光扫描仪的安置意味着机器人底座的外角(例如,300°)比激光扫描仪440的视野区域442(例如,-285°)大,因此防止底座120阻隔或妨碍激光扫描仪440的视野检测区域442。激光扫描仪440能在不阻隔其视野区域的情况下尽可能多地凹入底座主体124内,以最小化激光扫描仪越过底座主体124的任何凸出部分(例如,为了审美和最小化钩住障碍物)。激光扫描仪440使用从激光扫描仪440接收的信号扫描机器人100和控制器500的区域,并且产生扫描区域的环境图或物体图。控制器500可使用物体图来导航、检测障碍物和避开障碍物。此外,控制器500可使用来自传感器系统400的其他传感器的感知输入来产生物体图和/或用来导航。在一些实例中,激光扫描仪440是扫描型LIDAR,可使用快速扫描一维区域的激光作为“主”扫描路线,以及使用相差或相似技术来分配该路线上生成的每个像素的深度的渡越时间成像元件(返回扫描平面的二维深度路线)。为了生成三维图,LIDAR能在第二方向执行“辅助”扫描(例如,通过“摆动”扫描仪)。这种机械扫描技术如果不补充的话,能通过科技补足,例如“闪光”LIDAR/LADAR和“瑞士游侠”型焦平面成像原理传感器,使用半导体堆积以允许对像素的完整二维基质渡越时间的计算的技术提供了每个像素处的深度,或者甚至是每个像素处的一系列深度(通过编码发光器或发射激光)。传感器系统400可包括一个或多个与控制器500联通的三维图像传感器450。如果三维图像传感器450的视野区域有限,控制器500或传感器系统400能驱使三维图像传感器450a以一侧至一侧的扫描方式产生相对较宽的视野区域来执行粗略的障碍物检测/障碍物避让(ODOA)。参照图1-3B,在一些具体实施方式中,机器人100包括安装在机器人主体110前部的扫描三维图像传感器450a,其视野区域沿着向前的驱动方向F(例如,沿着机器人的驱动方向F具有最大成像范围)。扫描三维图像传感器450a能主要用于ODOA。在示出的实例中,扫描三维图像传感器450a安装在肩部142下方的躯干140或底面144上,并且例如如图2所示,凹入躯干140内以防止用户与扫描三维图像传感器450a接触。扫描三维图像传感器450能安装为旨在基本向下和偏离机器人主体110,以便在机器人100前方有向下的用于ODOA的视野区域(例如,底座120或机器人主体110的其他部分的妨碍)。在躯干140的前缘上或附近的扫描三维图像传感器450a的安置能使得三维图像传感器450的视野区域(例如,-285°)相对于三维图像传感器450比躯干140的外表面角度(例如,300°)窄,因此防止躯干140阻隔或妨碍扫描三维图像传感器450a的检测视野区域452。此外,扫描三维图像传感器450a(和相联的执行器)能被安装为尽可能多地凹入躯干140中,而不阻隔其视野区域(例如,也是为了审美和最小化钩住障碍物)。扫描三维图像传感器450a的分散扫描运动对用户是不可见的,产生较少的分散的互相影响的经历。不像凸出的传感器或面部,凹入的扫描三维图像传感器450a不会和环境(钩住人、障碍物等等)产生无意识的互相影响,尤其是在移动或扫描时,因为几乎没有移动的部分伸展超出躯干140的外壳。在一些具体实施方式中,传感器系统400包括配置在主体120的底座124、腿130、颈部150和/或头部160上的另外的三维图像传感器450。在图1示出的实例中,机器人100包括在主体120的底座124、躯干140和头部160上的三维图像传感器450。在图3A示出的实例中,机器人100包括在主体120的底座124、躯干140和头部160上的三维图像传感器450。在图3B示出的实例中,机器人100包括在腿130、躯干140和颈部150上的三维图像传感器450。其他配置也可行。一个三维图像传感器450(例如,在颈部150和头部160上)能用于人物识别、动作识别和/或视频会议,然而另一个三维图像传感器450(例如,在底座120和/或腿130上)能用于导航和/或障碍物检测和障碍物避让。配置在颈部150和/或头部160上的面朝前方的三维图像传感器450能用于对机器人100周围的人物、面容和/或的人姿态识别。例如,使用来自头部160上的三维图像传感器450的信号输入,控制器500可通过以下方法识别用户,产生看见/捕捉的用户面容的三维图,对照产生的三维图和已知的人物面容的三维图像,并且确定与一张已知三维面部图像的匹配。面部识别可用于确认用户为机器人100的正当用户。此外,一个或多个的三维图像传感器450能用于确认由机器人100看见的人物的姿态,并且基于确认的姿态(例如手指向、挥动和/或手势)随意反应。例如,控制器500可发出驱动命令来回应已识别的往特定方向的手指向。三维图像传感器450可产生以下类型的数据:(i)深度图。(ii)基于反射率的强度图,和/或(iii)规则的强度图。三维图像传感器450可通过图像模式匹配获得所述数据,测量渡越时间和/或从源头发出的光和被目标反射掉的光的相位延迟迁移。在一些具体实施方式中,可在处理器(例如,机器人控制器500)上执行的思考或控制软件使用计算软件的组合,其使用由传感器系统400生成的各种数据类型执行。思考软件处理从传感器系统400收集来的数据并且输出数据来做出导航决定,例如在什么地方机器人100能在不与障碍物碰撞的情况下移动。通过机器人环境的图像数据随着时间的积累,思考软件能相应的运用有效方法选择感知图像的片段以提高三维图像传感器450的深度测量。这可包括使用适当的时间和空间平均技术。执行机器人无碰撞移动的可靠性可基于:(i)随着时间推移靠高水准的思考建立的可信度和(ii)积累了用于分析的三个主要类型数据的深度感知传感器:(a)深度图,(b)主动照明图和(c)环境照明图。对不同类型数据的计算程序认识能在由深度感知成像传感器450获得的每张图像上执行。汇集的数据可对照只使用一种数据的系统提高可信度。三维图像传感器450可从机器人100周围(例如,房间或工作区域的传感器视野部分)的包括一个或多个物体的场景中获得包括深度和亮度数据的图像。控制器500可设计用于基于从场景反射回来的被捕捉的光来确认物体的占用区数据。此外,在一些实例中,控制器500至少部分基于占用区数据而对驱动系统200发出驱动命令,以环绕障碍物(即场景中的物体)。三维图像传感器450可重复捕捉场景深度图用以由控制器500做出实时决定来在场景周围导航机器人100,不让其碰撞上场景里的任何物体。例如,可由三维图像传感器450获得深度图数据的速度或频率可由三维图像传感器450的快门速度控制。另外,控制器500可接收事件触发(例如,从传感器系统400的另一传感器元件,例如进程式传感器410和420,报告附近的物体或危险给控制器500)。回应事件触发,控制器500能导致三维图像传感器450增加频率,由此捕捉到深度图并且获得占用信息。在一些具体实施方式中,机器人包括用于对机器人100周围区域进行声成像的声呐扫描仪460。在图1和图2示出的实例中,声呐扫描仪460配置在主体120的底座124的前部上。参照图1-3B,在一些具体实施方式中,机器人100使用激光扫描仪或激光测距仪440来冗余感知,使用面朝后方的声呐进程式传感器410j来保障安全,两者都定向为与地面G平行。机器人100可包括提供对机器人100周围环境的粗略感知的第一和第二三维图像传感器450a和450b(深度摄影机)。第一三维图像传感器450a安装在躯干140上并且以与地面G的固定角度指向下。通过使第一三维图像传感器450a向下形成角度,机器人100在机器人100直接前进或邻近的区域内接收密集传感器范围,这样对机器人100在前进方向的短期行进有重大意义。面朝后方的声呐装置410j提供了当机器人向后行进时的物体检测。如果向后行进是机器人100独有的,机器人100可包括第三3D成像传感器450面朝下方和后方以提供在机器人100直接向后或邻近区域内的密集传感器范围。第二三维图像传感器450b安装在头部160上,其能通过颈部150平移和倾斜。第二三维图像传感器450b因为能使人类操作员查看到机器人前往的地方后而能用于远程驱动。颈部150使操作员能够倾斜和/或平移第二三维图像传感器450b以查看近处和远处的物体。平移第二三维图像传感器450b增加了相关的水平视野区域。在快速行进期间,机器人100可向下稍微倾斜第二三维图像传感器450b来增加三维图像传感器450a和450b的总视野区域或组合视野区域,并且给机器人100充足的时间来避开障碍物(因为较快的速度通常意味着对障碍物做出反应的时间更少)。在较慢的速度下,机器人100可向上倾斜第二三维图像传感器450b或令其基本与地面G平行来监控机器人100本应跟随的人物。此外,当以相对较慢的速度驱动时,机器人100能平移第二三维图像传感器450b来增加其在机器人100周围的视野区域。第一三维图像传感器450a能在机器人驱动去伸展其感知范围时保持固定(例如,不相对于底座120移动)。此外和/或二者择一地,第一三维图像传感器450a能在移动时为了检测机器人周围潜在的障碍物以慢速扫描。在一些实例中,第一三维图像传感器450a的高度能为了最优化第一三维传感器450a的视野区域向上调整,例如通过Z-升降机(Z-lift)的使用。在一些具体实施方式中,至少一个三维图像传感器450能为测定体积的点状云成像装置(例如斑点或渡越时间摄影机),其以比地面高1或2英尺的高度(或在地面上方约1或2英尺的高度)安装在机器人100上,并且被导向以在机器人移动的方向从包括地面平面的空间体积获得点状云(通过全方位驱动系统200)。在图1和图3示出的实例中,第一三维图像传感器450a能以比地面高1或2英尺的高度安装在底座上,并且瞄准沿着向前的驱动方向F来在驱动时捕捉包括地面的体积(例如,用于障碍物检测和障碍物避让)的图像(例如,测定体积的点状云)。第二三维图像传感器450b示出为安装在头部160上(例如为比地面高约3或4英尺的高度),从而由紧邻机器人100的空间体积获得框架识别和限定点。控制器500可执行框架/数字识别软件以分析捕捉到的测定体积的点状云的数据。参照图3A-4C,传感器系统400可包括与控制器500联通的惯性测量单元(IMU)470,其用于测量和监控机器人100相对于机器人100的总重心CGR的惯性瞬间。控制器500可监控IMU470的反馈与对应于正常不受妨碍的操作的门槛信号的任何偏差。例如,如果机器人开始从垂直位置倾斜,它可能“摔倒”或者除非被阻止,或有人可具有突然增加的重负荷。在这些实例中,采取紧急动作(包括但不仅限于,机动规避、再校准和/或发出听觉/视觉警告)以保证机器人100的安全操作是必要的。因为机器人100可在人类环境中操作,则其可与人类互相影响并且可在为人类设计的空间里操作(并且不考虑机器人限制)。当机器人100在拥挤的、受限制的或高度动态的环境中时它能限制其驱动速度和加速度,例如在鸡尾酒会或忙碌的医院。然而,机器人100可遇到能安全地相对较快地驱动的情况,例如在长的空走廊里,但是也能突然减速,例如当某物穿过机器人的移动路线时。当从停止加速时,控制器500可考虑来自机器人100的总重心CGR的惯性瞬间以预防机器人倾翻。控制器500可使用其姿势的模型,包括其当前的惯性瞬间。当支撑负荷时,控制器500可测量负荷对总重心CGR的影响并且监控机器人惯性瞬间的移动。例如,躯干140和/或颈部150可包括变形测量器来测量变形。如果不可行,控制器500可对驱动轮210运用测试扭矩命令并且测量使用IMU470来测量机器人的实际直线和有角度加速以通过实验确认安全限制。在突然减速时,第二和第三驱动轮210b和210c(后轮)的指定负荷减少,同时第一驱动轮210a(前轮)向向前的驱动方向滑动并且支撑机器人100。如果第二和第三驱动轮210b和210c(后轮)的负荷不对等,机器人可“偏航”,此将降低动态稳定性。IMU470(例如,回转仪)能用于检测偏航并且命今第二和第三驱动轮210b和210c使机器人100重新取向。参照图5,在一些具体实施方式中,控制器500执行控制系统510,其包括行为系统510a和互相联通的控制判优系统510b。控制判优系统510b允许动态添加应用程序520和从控制系统510移除,并且促进允许应用程序各自控制机器人100而不需要了解任何其他的应用程序520。就是说,控制判优系统510b在机器人100的应用程序520和资源530之间提供了简单的优先处理的控制机制。资源530可包括驱动系统200、传感器系统400和/或任何负荷或与控制器500联通的可控装置。应用程序520能存储在机器人100的存储器或与其联通,以同时运行(例如处理器)并同时控制机器人100。应用程序520可获取行为系统510a的行为512。独立部署的应用程序520在运行时间动态组合并且共享机器人100的机器人资源530(例如,驱动系统200、臂、头部等)。低级策略的执行是为了在运行时动态共享应用程序520中的机器人资源530。该策略确认了应用程序520有由应用程序520规定的机器人资源530的控制权(例如,其产生了应用程序520之间的优先层次)。应用程序520能动态启动和停止并且完全彼此独立的运行。控制系统510也能实现复杂行为512,该复杂行为能一起组合来彼此辅助。控制判优系统510b包括一个或多个资源控制器540、机器人管理器550和一个或多个控制判优器560。这些元件不需要处于共同的过程或计算机中,并且不需要任何特定命令来启动。资源控制器540元件为应用程序520提供与控制判优系统510b的界面。对于每个应用程序520都有这种元件的实例。资源控制器540提取并且概括了鉴别的复杂性,分配的资源控制判优器、命令缓冲等。机器人管理器550协调了应用程序520的优先次序,通过控制应用程序520对在任意特定时间的任意机器人资源530有专用控制。既然这就是信息的中央协调器,每个机器人的机器人管理器550只有一个实例。机器人管理器550执行优先策略,其具有资源控制器540的线性优先次序并且保持对提供硬件控制的资源控制判优器560的监控。控制判优器560接收来自每个应用程序520的命令,生成基于应用程序优先次序的信号命今,并且为了相关的资源530将其发表。控制判优器560也接收来自相关资源530的情况反馈并将其返回应用程序520。机器人资源530可为具有一个或多个硬件控制器的功能模块网络(例如,促动器、驱动系统和它们的组合)。控制判优器560的命令对执行特定动作的资源530是特定的。可在控制器500上执行的动态模型570能设计用于计算重心(CG)、惯性瞬间和机器人各个部分惯性的交叉乘积来确定当前机器人的情况。动态模型570也可塑造这些元件的形状、重力和/或惯性瞬间。在一些实例中,动态模型570与IMU470或配置在机器人100上并且与控制器500相联通的一个(例如加速器和/或回转仪)的用于计算机器人100的各种重心的多部分联通。动态模型570能由控制器500使用,与其他程序520或行为512一起确认机器人100及其元件的操作外壳。每个应用程序520都有动作选择电机580、资源控制器540、一个或多个与功作选择电机580有联系的行为512和一个或多个与动作选择电机580有联系的动作模型590。行为系统510a提供预测建模并且允许行为512通过评定机器人动作的可能结果来协作决定机器人的动作。在一些实例中,行为512是插件程序元件,其提供结合了来自有着先验限制的复合源的感知反馈和输入到机器人的正当动作评定反馈的信息的分层的、全方位的评定功能。既然行为512能插入应用程序520(例如,存在于应用程序520的内部或外部)中,它们能在不修改应用程序520或控制系统510的任何其他部分的情况下移除和添加。每个行为512都是独立的策略。为了让行为512更高效,可以将复杂行为512的输出附上其他输入以便具有复杂的混合功能。行为512意为执行机器人100的总认识中易处理的部分。动作选择电机580是控制系统510的协调元件并且运行着快速、最优化的动作选择循环(预测/修改循环)来搜寻最合适的动作给所有行为512的输入。动作选择电机580有三个阶段:任命、动作选择搜寻和完成。在任命阶段,每个行为512都被告知动作选择循环已启动并且被提供了循环启动时间、当前情况和机器人促动器空间的限制。基于内部策略或外部输入,每个行为512决定是否应该参与此次动作选择循环。在这个阶段,会生成有效行为基元的清单,其输入将会影响在机器人100上执行的命令的选择。在动作选择搜寻阶段,动作选择电机580从有效动作的空间中生成可行的结果,也涉及例如动作空间。因为在不同的时间模拟每个命令的动作随着未来的时间范围而变化,动作选择电机580使用动态模型590来提供一批可行命令(在限制内)和相对应的结果。在完成阶段,与协作的最合适结果相对应的命令混合在一起作为总命令,为在机器人资源530上的执行展现给资源控制器540.最合适的结果作为反馈提供给有效行为512,用于未来的评定循环。从传感器系统400接收的传感器信号能导致与一个或多个行为512的互相影响来执行动作。例如,通过使用控制系统510,控制器500为每个机器元件(例如,电机或促动器)从相应的动作空间(例如,为特定元件的可能动作或移动的收集)选择功作(或移动命令)来以有效的方式执行每个机器元件的协调动作,以此避开与自身和任何已被机器人100察觉的在机器人100周围的物体。控制器500能发出越过例如Ether10网络的机器人网络的协作命令,像在2010年2月16日提出的美国第61/305,069号中描述的一样,其整体内容通过引用合并于此。图6A提供了具有一个或多个与桥602联系的远程机器人100的示例性机器人系统600的示意图,桥602与本地机器人终端服务器604a和远程终端服务器604b(例如,云计算服务720(图7))有联系。本地机器人终端服务器604a与本地技术人员计算装置606联系,而远程终端服务器604b与远程操作者计算装置608联系。参照图2和4C,在一些具体实施方式中,机器人100包括多单元天线。在示出的实例中,机器人100包括均配置在底座120上的第一天线490a和第二天线490b(但是天线可配置在机器人200的任何其他部分,例如腿130、躯干140、颈部150和/或头部160)。多单元天线的使用提供了可靠的信号接收和传输。多单元天线的使用为机器人100提供了多输入和多输出(MIMO),就是发送器和/或接收器的多单元天线的使用提高了通信性能。MIMO无需额外的带宽或发射功率就提供了数据吞吐量和链路范围的显著增加。它通过更高的频谱效率(每秒每赫兹更多比特的带宽)和链路可靠性或多样性(减少衰退)来达到上述增加。由于这些特性,MIMO是现代无线通信标准的一种重要部分,例如IEEE802.11η(WIFI)、4G、3GPP长期演进、WiMAX和HSPA+。此外,机器人100能为附近其他电子装置充当Wi-Fi桥、集线器或热点。机器人100的流动性和MIMO的使用能允许机器人作为相对可靠的Wi-Fi桥602进行服务。参照图6A和6B,远程软件应用程序601在至少一个以下装置上执行,机器人控制器500、本地机器人终端服务器604a、远程终端服务器604b、本地技术人员计算装置606和远程操作员计算装置608.在一些实例中,远程软件应用程序601的一部分在一个或多个的上述装置上执行。远程软件应用程序601允许一个或多个用户通过机器人100的远程特性来与机器人(例如,驱动机器人100)和/或远程与邻近机器人100的其他人物或物体互相影响。图6C提供了远程软件应用程序601的示例性用户界面605的示意图,其可呈现在例如网络板310和/或远程操作者计算装置608的触摸屏312的显示器上用于控制导航、远程监控和/或机器人100的其他方面。用户界面605包括显示远程视频612的远程视频输入窗口610,例如病人614的视频输入.视频输入可由机器人100的摄影机320和450中的一个生成。用户界面605可显示规划视频图窗口620,其含有操作机器人100的本地区域的地图622。在示出的实例中,显示在规划视频图窗口620的地图622是二维、自上向下的图622a(图6D);然而,其他类型的图也可行。用户界面605也可包括显示本地视频632的本地视频窗口630,例如用户的视频输入(例如,来自机器人100的远程)。显示在本地视频窗口630的视频输入可传输至机器人100并且使用显示装置向病人614显示,例如机器人100上网络板310.仪表盘640可提供关于以下方面的信息,机器人100的方向、机器人电池充电器的指示、无线数据信号强度的指示和/或网络质量的指示。机器人100的方向可由显示机器人100的头160相对于躯干140或底座120的方向的图标642指示。这种指示可协助用户确定机器人100的方向以观察感兴趣的项目。机器人的头160的移动范围可限制。因此,某些执行可显示头160的旋转位置的指示和头160的移动范围。媒体控制647可允许用户使用各种类型的媒体与病人614互相影响并且获取和存储记录用户和病人614的互相影响的媒体。例如,媒体控制647可允许用户播放可用于训练病人614关于医疗情况或过程的音频和/或视频剪辑。为了记录各种情况的静态照片可使用机器人100的摄影机320和450获得。进一步地,机器人100可获得记录用户与病人614的互相影响的音频(例如,使用扬声器330)或视频(例如,使用摄影机320),并且可选择存储获得的音频/视频在控制器500的存储器和/或传输获得的音频/视频至远程装置或云服务。在一些具体实施方式中,媒体控制647允许用户解决暂时连通性问题。例如,当会议意外断开时可开始视频记录。机器人100可连续记录视频并且存入本地存储器,例如控制器500的存储器。当意外断开时,机器人可显示信息,例如“会议终止-视频记录继续....”下方的按钮可一同显示字幕“停止记录”。机器人旁边的护士可触摸“停止记录”按钮(例如,在触摸屏312上)并且终止本地记录。否则,记录可以以特定时间间隔持续。如果相同用户在特定时间间隔内回到机器人100记录,远程站的记录按钮可显示记录正在进行。当机器人的本地记录完成时,其可开始传输视频文件至远程站或可被断开的用户接近的其他位置。因此,用户可能看见在会议断开期间发生的事件。如图6C示出的实例中,远程视频输入窗口610占用了显示区域的相对较大部分。用户界面605可有呈现640×480的像素分辨率的远程视频输入窗口610、320×240的像素分辨率的本地视频窗口630和530×200的像素分辨率的规划视频图窗口620。因此,当用户与病人614联系和/或手动驱动机器人100时这个视频可为最合适的。图6C示出的默认用户界面605a的布置图可允许用户用远程视频输入窗口610来替换规划视频图窗口620的内容。例如,视频可通过双击图窗口620替换。窗口能在之后通过双击远程视频输入窗口610替换回来。可选择的平面布置图可向用户显示,只要其可适用于用户执行的任务。在图6D示出的实例中,预测使用半自动导航指导机器人100从一个位置移动至另一个位置,规划视频图窗口620的尺寸增加了。例如,如图6C示出的用户界面605和605a能为用于病人互相影响的默认情况,而如图6D示出的用户界面605和605b能为用于机器人导航的交替情况。用户界面的图视频转换按钮645可允许用户引用包括相对较大的图窗口620的可选用户界面605b。例如,如图6D示出的用户界面605b可主要用于手动驱动或自动导航机器人100至渴求的目标。再次点击图视频转换按钮645会让用户返回默认用户界面605a,这可用于当有效执行医疗咨询时。因此,用户可如愿强调或不强调(例如,最大化或最小化)规划视频图窗口。某些在可选用户界面605b示出的窗口也显示了,例如远程视频输入窗口610和本地视频窗口630。在一些实例中,规划视频图窗口620可显示为880×700的像素分辨率,远程视频输入窗口610可显示为320×240的像素分辨率,并且本地视频窗口630可显示为160×120的像素分辨率。参照图6D,规划视频图窗口620可在本地环境内提供指出机器人100的位置的机器人位置图标650。为了导致机器人半自动或自动导航至选择的点,用户可点击或触摸在显示的图622上的点。在一些实例中,当光标在规划视频图窗口620上时,用户可使用鼠标滚轮来缩放,或当显示在触摸屏312上时,可通过触摸手势来缩放。即时定位与建图(SLAM)技术可利用激光测距扫描仪、里程计、声波测距仪,或所有这些仪器来为本地环境建图并且将机器人100置于图上。由机器人100记录的图像(例如,通过摄影机320或三维图像传感器450)当其穿越环境时可存储在内部数据库(例如,控制器500的数据库)和/或远程数据库(例如,云服务)。当机器人100重新获得当前数据库里的图像时,计算程序重置机器人当前的位置至路标起初进入数据库时记录下的位置。这种方法协助抵消车轮编码器里程计的固有飘移。系统也可利用RFID剪辑和/或无线接入点的三角测量。进一步地,特定房间的名字或辨认号码可与图上的位置联系。图像数据能随着时间积累并且为了节约成本或节约空间,机器人100可各自使用远程数据存储和/或远程处理来存储和/或处理图像数据。例如RFID阅读程序可检测与规划视频图上的坐标联系的RFID剪辑以辨认机器人的当前位置。“RFID剪辑”可包括像那些在行业有才能的人所理解的RFID装置或RFID“标记”。RFID剪辑可表现为被动式、主动式或电池辅助被动式(BAP)RFID剪辑。图7提供了示例性机器人系统结构700的示意图,其可包括机器人100(或其一部分,例如控制器500或驱动系统200)、计算装置310(例如,可拆的或固定的附加在头160上)、云720(即,云计算服务)和门户730。计算装置310可执行一个或多个机器人应用程序710,其可包括安全、药物依从、远程监控、行为培训、社交网络、主动式警报和家庭管理等软件应用程序(例如,存储在存储器并且在处理器上执行)。计算装置310可提供通讯能力(例如,安全的无线连接和/或蜂窝通信)、精制的应用程序开发工具、语音识别和人物或物体识别能力。在一些实例中,计算装置310利用互相影响/COMS特征操作系统,例如GoogleInc.提供的Android、AppleInc.提供的iOS,或其他智能手机操作系统,或专用的机器人操作系统,例如RSSA2。云720提供了云计算和/或云存储能力。云计算可提供基于互联网的计算,通过共享服务器向计算机和其他要求的装置提供资源、软件和数据。例如,云720可为包括至少一个服务器计算装置的云计算服务,该服务器计算装置可包括服务抽象层和在其上例示的服务器虚拟机上面的超文本传输协议包装。服务器计算装置可设计用于分析HTTP要求和发出HTTP回应。云计算可为使用互联网和中央远程服务器来保持数据和应用程序的科技。云计算能允许用户不用安装的进入和使用应用程序710并且在任何可联网的计算机上进入个人文件。云计算通过处于中央控制下的贮存器、存储器、处理和带宽允许相对更有效的计算。云720能提供可升级的、按需计算能力、贮存器和带宽,同时减少机器人硬件要求(例如,通过释放CPU和存储器使用)。机器人对云720的连通性允许自动汇集机器人操作和使用历史的数据,而无需要求机器人100返回到底座站。此外,随着时间的连续数据收集能生产大量能利用于销售、产品开发和支持的数据。云贮存器722能为联网计算机数据存储的模型,在此数据存储在通常由第三方拥有的多虚拟服务器。通过提供机器人100和云720之间通讯,由机器人100汇集的信息能通过基于网络的信息门户由认定的用户安全看见。门户730可为用来汇集和/或提供信息的基于网络的用户门户,例如个人信息、家庭状况信息和机器人状况信息。信息能与第三方信息结合来为用户和/或机器人100提供额外的功能和资源。机器人系统结构700能促进主动的数据收集。例如,在计算装置310上执行的应用程序710可收集数据并且报告由机器人100和/或人执行的动作或机器人100(使用传感器系统400)看见的环境。这种数据能为机器人100的独有特性。此处涉及相对于空间数据组的“稠密数据”对比“稀疏数据”,和“稠密特性”对比“稀疏特性”。不限定或缩小本领域技术人员应怎样理解这些术语的意思,“稠密”对比“稀疏”通常是指每个空间表示的许多数据点对比很少的数据点,并且可特别是指:(i)在包括二维数据和范围的二维图像数据或三维“图像”的上下文中,“稠密”图像数据包括基本完全被像素填充的图像数据,或能基本对原始图像捕捉没有损失和/或加工(包括基本未压缩、未加工或无损压缩图像)的对像素进行栅格化的图像数据,然而“稀疏”图像则是图像被量化、取样、有损压缩、向量化、分离(例如,成为超像素、节点、边缘、表面、兴趣点、立体像素)的图像,或对原始捕捉的保真度另外的实质减少,或必须在像素栅格化时篡改以重现图像;(ii)二维或三维特性的内容中,“稠密特性”可为以基本不受限制的方式占据、关于检测取向的分辨率、所有能被检测和记录的特性,和/或由探测器识别的识别以收集子像上的许多特性(HOG、微波)的特性;“稀疏特性”可有目的的在数字上限制,以特性输入、侧抑制,和/或特性选择的数字,和/或可由探测器识别的识别以辨认在图像上(Harris角点、边缘、Shi-Tomasi)有限的孤立点。相对于三维环境结构,机器人100可获得当其在工作面5操作时机器人100周围的场景10的图像,例如稠密图像701。在一些具体实施方式中,机器人100使用摄影机320和/或成像传感器450(例如,测定体积的点状成像装置)来获得稠密图像701。与摄影机320和/或成像传感器450有联系的控制器500可与稠密图像701(例如,用数据标高或标记稠密图像701)联合信息,例如加速计数据示踪、测距仪数据,和/或随着时戳来自传感器系统400的其他数据。在一些实例中,机器人100捕捉到流序列的稠密图像701并且用标高数据来标记稠密图像序列,提供标高稠密图像序列。云服务720可处理接收的图像数据701并且返回处理过的数据集至机器人控制器500,其可基于接收的处理过的数据集对驱动系统200发出驱动命令在场景10周围操作。云服务720可执行许多离线方式中的一种来处理存储的图像数据集703成为场景10(环境)的稠密三维图或模型705,然后简化这份稠密三维图或模型705成为二维高度图707,其能为在每个点都有着高度数据的二维图(例如,与二维地形图类似)。在一些实例中,二维高度图707为有着X和Y坐标和Z数据的地形图。每个X和Y坐标可有一个或多个Z点(即,高度数据)。与每个X和Y坐标可有大量Z点(例如,几百或几千个Z点)的稠密三维图不一样,二维高度图707的每个X和Y坐标可有少于门槛数的Z点,例如在2个和20个点之间(例如,10)。源自房间中桌子的三维图的二维高度图707可为沿着桌子的每个X和Y坐标显示桌面的底面的第一个Z点和桌面的顶面的第二个Z点。这个信息允许机器人100确认其是否能够从桌面下通过。通过为每个X和Y坐标从连续范围Z点的稠密数据集减少Z点至指示着检测物体12的Z点的选择数字的稀疏数据集,机器人100能接收比由云计算720使用的三维图有相对较小尺寸的二维高度图707。机器人100从云720接收二维高度图707,云720为机器人100和相关的控制器500在场景10中的未来工作提供导航数据。三维图数据压缩的其它方法和特征在R.Triebel,P.Pfaff和W.Burgard的″Multi-LevelSurfaceMapsforOutdoorTerrainMappingandLoopClosing″;IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems,2006中公开,其通过整体引用合并于此。云720为机器人100提供了可不另外在机器人100上实用或成本有效的资源的按需比例(例如,计算的、处理的、存储的等)。例如云720能提供可升级的云贮存器722,该云贮存器722升级至第一尺寸来存储和/或处理相对较大量的数据701,其只可用于短期时间并且之后被丢弃,然后降级至第二尺寸。此外,云720能为执行可能不会另外的在机器人上可行的相对较复杂的计算或“强力”计算程序提供计算机处理能力。通过移动计算机处理能力和存储器至可升级的云720,机器人100能使用拥有相对较小计算能力和存储器的控制器500,因此提供了成本有效的解决方案。此外,机器人100执行例如障碍物避让的实时任务(在控制器500或连网板310上),然而传送非实时或对时间不敏感的任务至云720来处理并在之后收回。云720可执行一个或多个的筛选程序(例如,优化平差算法、RANSAC、期望值最大化法、SAM或其他3D结构评定计算程序)来将存储的图像数据集703处理成3D显示。一旦经处理并且生成或更新稠密三维图705,图像数据集703能从云贮存器722丢弃,释放资源并且允许云720因此升级。因此,机器人100既不需要星载贮存器也不需要对操作贮存器的处理和图像数据集703的处理,因为基于云的资源的使用。云720可返回经处理的导航数据701或图707(例如,压缩的二维高度图)至机器人100,这样其能在之后用于相对较简单的定位和导航处理。三维重现的额外的方式和特性于2005年第五届三维数字图像和模型国际会议上公开过的J.Repko和M.Pollefeys的“3DModelsfromExtendedUncalibratedVideoSequences:AddressingKey-frameSelectionandProjectiveDrift”,整篇于此作为参考引用。参照图8A和8B,在一些情况中,机器人100接收在场景10和/或工作面5的物体12的占用图800,或机器人控制器500产生(和可更新)基于从成像传感器450(例如,第二三维图像传感器450b)接收的随着时间变化的图像数据和/或特性深度数据的占用图800。SLAM是一项技术,其可由机器人100用来在未知环境或场景10(没有先验知识)内构建占用图800,或在已知环境(有从给出的图中的先验知识)内更新占用图800,然而同时保持对其当前位置的监控。控制器500可今占用图800和远程软件应用程序601联系在用户界面605显示图622。用户界面图622可部分或全部源于占用图800。此外,也是参照图7,远程软件应用程序601可通过云服务720接收占用图800的定期更新。例如,云服务720可为远程软件应用程序601提供机器人100周围的场景10的稠密三维图或模型705和/或用来生成用户界面图622的简化的二维高度图707。在另外的实例中,云服务720向基于稠密三维图或模型705或二维高度图707的远程软件应用程序601提供用户界面图622。再次参照图8A和8B,图800能用于在环境10内确认位置并且为规划和导航描述环境。图800通过记录从一种感知方式获得的信息并且将其与当前感知到的比较来支持对实际位置的评定。图800的利处在于增加了对位置评定的协助同时减少了当前感知的精准度和质量。图800通常显示图800被提供或产生时的情况。这与图800被使用时的环境情况无需一致。其他定位技术包括monocularvisualSLAM(MonoSLAM)和为MonoSLAM解决方案使用extendedKalmanfilter(EKF)的具体实施方式。控制器500可执行尺度不变特征变换(SIFT)来检测和描述捕捉到的图像的本地特性。对图像中的任意物体12,物体12上的兴趣点能提取以提供物体12的“特性描述”。这份从训练图像提取的描述能在之后试图在包含许多其他物体的测试图像中定位物体12时用于辨认物体12。要执行可靠的识别,重要的是从训练图像提取出的特性甚至在图像比例尺、噪音和照明的改变下可检测。这些点通常在图像的高对比度地区,例如物体边缘。对于物体识别和检测,机器人100可使用SIFT来发现与众不同的关键点,其对位置、比例和旋转具有不变性,并且对仿射变换(比例、旋转、剪切和位置的变化)和照明变化具有鲁棒性。在一些具体实施方式中,机器人100捕捉场景10或物体12(例如,在不同环境下,从不同角度等等)的多个图像(使用摄影机320和/或成像传感器450)并且存储图像,例如至矩阵中。机器人100能进入存储的图像通过比较、筛选等等来辨认新的图像。例如,SIFT特性能从输入图像获得并且与从训练图像(事先捕捉的)获得的SIFT特性数据库进行匹配。特性匹配能通过基于欧式距离的最近邻法进行。霍夫变换可用于增加物体辨认,通过聚集那些属于相同物体的特性并且丢弃在聚集过程中遗漏的匹配。加速鲁棒性(speededuprobustfeature,SURF)可为粗略的图像探测器和描述符。除了机器人100在场景100(例如,机器人100周围的环境)的定位,机器人可使用传感器系统400在连接的空间(例如,工作面5)内行进至其他点。机器人100可包括短程类型的成像传感器450a(例如,如图1和图3示出的安装在躯干140的底面上),其用于测绘机器人100周围的附近区域和辨认相对较近的物体12,和远程类型的成像传感器450b(例如,如图1和图3示出的安装在头160上),其用于测绘机器人100周围的相对较大区域并且辨认相对较远的物体12。机器人100能使用占用图800在场景10和闭塞16中辨认已知物体12(例如,当物体12应该或不应该,但是不能从当前优势点确认)。机器人100能记录闭塞16或在场景10的新物体12并且试图环航闭塞16或新物体12以判定新物体12或在闭塞16中的任何物体12的位置。此外,通过使用占用图800,机器人100能确认和监控场景10中物体12的移动。例如,成像传感器450、450a和450b可检测在场景10中物体12的新位置而不检测在场景10中物体12的测绘的位置。机器人100能记录像闭塞16一样的旧物体12的位置并且试着环航闭塞16来判定物体12的位置。机器人100可比较新图像深度数据和先前图像深度数据(例如,图800)并且分派场景10中物体12位置的可信度。场景10内物体12的位置可信度能在时间的阈值之后超时。传感器系统400能在每个传感器系统400的成像循环之后更新每个物体12的位置可信度。在一些实例中,闭塞检测期间(例如,少于10秒)检测的新闭塞16(例如,从占用图800上失踪的物体12)可预示着场景10中的“活”物体12(例如,移动的物体12)。在一些具体实施方式中,位于场景10中的已检测的第一物体12a后的第二兴趣物体12b可被当作场景10中的闭塞16起初未被探测。闭塞16能是在场景10中不会轻易被成像传感器450、450a和450b探测到或看见的区域。在示出的实例中,机器人100的传感器系统400(例如,或是它的一部分,例如成像传感器450、450a和450b)有着视角为θv(能为0°和360°之间的任何角度)的视野区域452来查看场景10。在一些实例中,成像传感器450包括有360°视角θγ的全方位光学器件,而在其他实例中,成像传感器450、450a和450b有着小于360°的视角(例如,在大约45°和180°之间)。在实例中,在视角θγ小于360°的地方,成像传感器450、450a和450b可相对于机器人主体110旋转以实现360°的视角。在一些具体实施方式中,成像传感器450、450a和450b或它的一部分能相对于机器人主体110和/或驱动系统200移动。此外,为了检测第二物体12b,机器人100可通过在场景10周围沿着一个或多个方向驱动(例如,通过在工作面5上平移和/或旋转)来移动成像传感器450、450a和450b以获得允许检测第二物体12b的优势。机器人移动或成像传感嚣450、450a、450b或它的一部分的独立移动也可解决单目困难。可信度可分派用来检测工作区域5的物体12的位置或监控其移动。例如,当产生或更新占用图800时,控制器500可为图800上的每个物体12分派可信度。可信度能与物体12像图800上指示的一样实际位于工作区域5的可能性成正比。可信度可由许多因素确认,例如用于检测物体12的传感器的数目和类型。例如,接触式传感器430可提供最高的可信度,因为接触式传感器430通过机器人100与物体12实际接触感知。成像传感器450可提供不同的可信度,其可比进程式传感器430的可信度更高。从传感器系统400的多于一个的传感器接收的数据能聚集或积累以提供比任何单个传感器相对更高的可信度。里程计是使用来自促动器的移动数据来评定随着时间位置的变化(行进的距离)。在一些实例中,编码器安装在驱动系统200上来测量车轮旋转,因此机器人行进的距离。控制器500可使用里程计为物体位置评定可信度。在一些具体实施方式中,传感器系统400包括用来感知机器人100行进的距离的里程计和/或角速度传感器(例如,回转仪或IMU470)。回转仪是用来测量或保持定向的装置,其基于角动量守恒原理。控制器500可各自使用从里程计和/或角速度传感器接收的里程计和/或回转仪信号来确认在工作区域5里和/或占用图800上的机器人100的位置。在一些实例中,控制器500使用航位推测。航位推测是基于先前确认的位置来评定当前位置,基于随着时间过去已知或已评定的速度推进该位置,并且指引航线的过程。通过知道在工作区域5的机器人位置(例如,通过里程计、回转仪)和在工作区域5的一个或多个物体12的感知的位置(通过传感器系统400),控制器500能对在占用图800上和在工作区域5里的物体12的位置或移动评定相对较高的可信度(对比不使用里程计或回转仪)。基于车轮移动的里程计有电力噪音。控制器500可利用扫描匹配与车轮里程计连接或替换。扫描匹配的使用可提供精准度和/或减少计算量。在这种具体实施方式中,使用LIDAR和/或其他测绘方式获得的两幅局部图可与单个的图合并。两幅或更多的局部图可使用已知的扫描位置合并。作为另外一种选择,两幅或更多的局部图可使用局部扫描的几何特性合并。控制器500可从机器人100周围的环境或场景10的成像传感器450接收数据用来计算机器人移动、独立基于车轮的驱动系统200的里程计、通过视觉里程计。视觉里程计可推导使用光流来确认成像传感器450的移动。控制器500能使用基于成像传感器450的成像数据的计算移动来改正任何基于车轮的里程计的错误,因此允许改良的测绘和移动控制。如果成像传感器450不能在捕捉的图像内监控特性,视觉里程计可有低纹理或低光场景10的限制。里程计和可与那些在此描述的结合的成像系统的其他细节和特性能在美国专利7,158,317(描述“景深”成像系统)和美国专利7,115,849(描述波前编码干涉相衬成像系统)中找到,其整体内容通过引用合并于此。参照图8C和8D,当机器人进入一个将在其中工作的新建筑时,机器人可需要带领四处参观或提供用于制动导航的建筑物地图(例如,房间和走廊位置)。例如,在医院里,机器人可能需要知道每个病人房间、护士站等的位置。在一些具体实施方式中,机器人100接收例如图8C示出的平面视图810,并且能训练记住平面视图810。例如,当引导机器人100环绕建筑物时,机器人100可记录与平面视图810上的位置相对应的特定位置。机器人100可在连网板310上显示平面视图810并且当用户带领机器人100至特定位置时,用户能在平面视图810上标记此位置(例如,使用触摸屏或连网板310的其他定位装置)。用户可选择为已标记的位置输入标签,像房间名字或房间号码。在标记时,机器人100可存储标记,用在平面视图810上的点和在机器人图820上的相应的点,例如图8D示出的。如例,机器人图820可为与平面视图810相似的二维平面视图。在可供选择的具体实施方式中,机器人图820可为包括地平面的三维图,地平面与和平面视图810相似的二维平面视图相对应。使用传感器系统400,机器人100可在其四处移动时构建机器人图820.例如,传感器系统400能提供机器人100移动距离和行进方向的信息。机器人图820可包括除了平面视图810提供的墙之外的固定障碍物。机器人100可使用机器人图820来执行自动导航。例如,在机器人图820中,“墙”可能看起来不会完全竖直,因为沿着墙在已检测的各种隔间内部的相应的走廊和/或家具的已检测的包装箱。此外,旋转和分辨率区别可存在于平面视图810和机器人图820之间。参照图8E,在一些具体实施方式中,远程软件应用程序601显示允许用户在平面视图810上放置标记662的标记视图660。平面视图810可与平面视图窗口620显示的为相同的图,或可为与内部用于导航目的的为不同的图。用户、远程终端、和/或机器人可在平面视图810和/或机器人图820的特定位置上添加标记来用信息标记图位置,例如驱动障碍区、障碍物、机器人协助等等。例如,用户可拖放标记662至平面视图810的特定位置上。如在此描述的,标记可包括与点或地区相关的标记坐标、明确标记目的的标记信息、标记的类型、标记的性质、对用户和/或机器人与标记联系的说明、和/或其他与标记有关的信息,并且最后,标记可包括由与标记相对应的二维和/或三维图解或文本组成的标记注解。标记注解的一个实例为与标记有关的八角形红色停止标记包含指示机器人不可进入的区域的标记信息。标记注解可由人类和/或机器判断。标记坐标可为点、线、平面、表面、卷、和/或2.5D或混合表面。标记可由有任何数目额外的字段和/或参数的数据结构形成。例如,标记包括与时间、调度、空间坐标、和/或预定功能的触发器相关的字段。如在此使用的,术语注解包括文本、口令、或其他言语表现。因此,标记注解可为图片、图形图像、图表、hieroannotation、非言语标志。另外,标记注解可为词、字母、短语、或其他文本形式。例如,与护士站相关的标记可包括包含护士名字的文本表现的标记注解。护士名字的文本表现能为二维文本,或能为三维文本。作为一种选择,与护士站相关的标记注解能为大写字母N,或护士站的标志表现(例如,护士帽或护理标志)。标记662可包括指示有相对较好信号接收的区域的无线局域网络(WLAN)热标记662a,和指示有相对较弱信号接收的区域的WLAN冷标记662b。机器人100可使用这个信息来从一个位置导航至另一个位置,通过有相对较好无线信号接收的区域同时避开有相对较弱无线信号接收的区域。低交通量标记662c指示有相对较低交通量(人和/或机器人)的区域。机器人100可选择通过有相对较低交通量的区域的行进路线,而不是通过有相对较高交通量的区域。此外,如果机器人100必须行进穿过高交通量的区域,机器人100可执行一个或多个的特定物体检测障碍物避让(ODOA)行为以成功通过该区域而没有碰撞。停驻标记662d指示机器人插接站的位置。低电量事件可发送信号给控制器500以寻求充电。机器人100可使用以停驻标记662d标记的地图位置定位机器人插接站来充电。例如,通过应用解决平面视图810和机器人图820(图8C和8D)之间的变形,机器人100能确认与标记的布置图位置814相对应的相应机器人图位置824航行至该标记位置与机器人插接站对接。解决变形可包括确认两张使用相同的坐标系统的图之间的变形。机器人图820和平面视图810可都为二维的并且同样的,确认变形可不要求确认不同维度之间的坐标转换。一些标记662可用于指示障碍物或特定越过区域。例如,玻璃标记662e指示玻璃墙、窗户或门的位置。机器人100可使用该信息来避开标记的玻璃结构,由于红外进程式传感器可能无法检测它们。坡道标记662f指示地面坡道的位置。从远距离看,机器人100可检测坡道为障碍物,由于其看着似乎有比阈值遍历高度更高的垂直高度。当接近已标记的坡道时,机器人100可执行坡道或遍历行为以成功通过坡道。密集标记662g指示相对较窄的走廊或快速道路的位置。机器人100可避开所述区域,以便避开任何限制的情况。缓慢标记662h指示机器人驱动相对较慢的位置或区域。该位置或区域可与高交通量区域一致。躲避标记662i指示机器人100应该避开(即,不驱动通过)的位置或区域。在一些具体实施方式中,躲避标记622i可取决于操作模式。例如,躲避标记622i可能只适用于当机器人处于全自动模式操作时。远程监控期间,躲避标记622i可由机器人有效忽略。手术室的用户界面(ORUI)标记622j指示医院手术室的位置或区域。机器人100可使用该标记找到手术室来提供远程支持和/或在进入OR区域时显示特定用户界面(例如,ORUI界面)。训练标记622k能用于标记例如走廊和房间的一般位置来训练机器人100记住其环境10。手动电梯标记6221指示机器人100应该允许用户协助机器人的遍历进/出电梯的电梯的位置。手动电梯的顺利通过可基于远程用户领航或机器人-局部用户导航。关于远程用户领航,远程用户提供驱动命今给机器人100(例如,使用操纵杆)。关于机器人-局部用户导航,邻近机器人100的人可物理上触摸机器人100,并且作为对那些触摸的回应,机器人100因此移动。关于机器人对用户触摸的响应性的特性与那些在此描述的能在2011.2.22提出的申请号为13/032,390中找到,其通过整体引用合并于此。自动电梯标记622m指示机器人100可自动通过(进出)的电梯的位置。机器人100可执行阈值遍历行为512d(图5)来进出电梯,以便避免倾翻。关于机器人对用户触摸的响应性的特性与那些在此描述的能在2011.11.9提出的申请号为PCT/US11/59910中找到,其通过整体引用合并于此。保持向右标记622n指示机器人应该保持向右的地图位置或区域。用户可沿着某些走廊放置此标记,例如高交通量走廊。作为对保持向右标记622n的回应,机器人100可在标记区域驱动时执行跟随墙行为来保持沿着墙。在地图训练之后,当用户需要让机器人100去一个位置,用户既能够参考标签/标记622(例如,在连网板310上显示的位置文本框输入标签或标记)或者机器人100能在连网板310上显示平面视图810给用户,用户可在平面视图810上选择位置。如果用户选择已标记的布置图位置814,机器人100能轻易在机器人图820上确认相应的机器人图位置824并且能前进航行至选择的位置814。在一些具体实施方式中,机器人控制器500可在第一区域周围操作时执行第一行为512,然后随着有相关机器人行为修正因子的标记在第二区域周围操作时执行第二行为512.例如,当执行人跟随行为512b时,机器人控制器既可在到达标记有坡道标记662f或自动电梯标记622m的地图位置时终止该行为512b的执行也可同时执行阈值遍历行为512d。如果在平面视图810上选择的位置不是已标记的位置814,机器人100在机器人图820上确认相应的位置824.在一些具体实施方式中,机器人100使用存在的标记位置计算平面视图810和机器人图820之间的比例尺寸、原点映射和旋转,并且应用计算参数来确认机器人图位置(例如,使用仿射变换或坐标)。机器人图820可与平面视图810为不同的定向和比例。此外,布置图可不按比例并且可随地图区域有不同的变形。例如,扫描在宾馆、办公室、和医院通常看见的火灾疏散图产生的平面视图810通常不按比例绘制并且甚至能在地图的不同地区有不同的比例。机器人图820可有其自身错误。例如,机器人图820上的位置可像测量距离一样通过数车轮转动来计算,并且如果地面稍滑或转角导致额外的车轮转动,不准确的旋转计算可导致机器人100确认映射对象的不准确的位置。映射平面视图810上给出的点814至机器人图820上相应的点824的方式可包括使用存在的已标记的点812来计算平面视图810和机器人图820之间在包含布置图点的区域(例如,在阈值半径内)的局部变形(在相同的二维坐标系统)。方式进一步包括对布置图点814应用变形计算来找到相应的机器人图点824.反之亦可,如果你以在机器人图820上给出的点开始并且想要在平面视图810上找到相应的点,例如,为了询问机器人其当前位置。任何一种标记模式和数据结构都可使用。例如,标记可包含键-值对形式的特性,其可详述标记的目的、标记参数、和标记特性(通常为“标记信息”)。下面的表1提供了一个具体的实例。区域名称数据类型描述标记ID整数标记进入上述标记表的ID名称文本参数名数值文本参数值表1与地区相关的标记可有与其相关的特性,该特性详述它们的目的和影响与地区相关行为的参数。这些键-值对可使用与下面表2的实例相似的数据结构存储:表2每个标记的数据结构可包括标记坐标和标记信息,标记信息可包括标记注解(例如标记的二维和/或三维图示)。下面的表3提供了一个标记的数据结构的具体实例。区域名称数据类型描述ID整数数据库中标记的全球唯一的标识符图ID整数标记所属机器人图的标识符时间戳浮动表明标记创建时间的时间戳姿势X浮动标记在机器人图坐标系统的X坐标姿势Y浮动标记在机器人图坐标系统的Y坐标姿势Z浮动标记在机器人图坐标系统的Z坐标姿势Xr浮动标记关于X轴的旋转姿势Yr浮动标记关于Y轴的旋转姿势Zr浮动标记关于Z轴的旋转名称丈本标记的人类可读标识符注解图像2D和/或3D图示表3如在此描述的,标记可与图上的地区相关,而不是具体的点。标记信息和标记之间的关系可为多对一。下面的表4提供了一个与地区相关的标记的数据结构的具体实例。表4在一些实例中,地区的几何形状可被分解为它们组件的质心和质心的偏移量来允许许多物体的位置和旋转快速更新。当CPU资源允许时,最终坐标的限位框(关于质心的面点,由质心的位姿转换为图的坐标系统)能使用R*-tree或相似数据结构编入索引来基于几何约束快速检索。包含地区的面的点可顺时针(或逆时针)存储来促进基于射线-追踪计算程序的点-面测试。作为实例,指示慢行区的地区的标记可有如下面表5提供的数据结构。名称数值类型限速区子类型明显最大X速度0.75最大Y速度0最大θ速度0.75表5表5示出了一个慢行区标记的实例,在慢行区中基于与地区自身相关的标准限定的设置了速度限制。作为一种选择,可为所述方式限定的地区,机器人可理解该地区为慢行区。例如,在下面的表6中,机器人可理解限定为交叉路口的地区为慢行区并且降低其速度至预定速度。名称数值类型限速区子类型相交表6与图上的点或地区相关的标记可包括标记坐标、标记信息、和任何一种标记注解。另外,标记可使用任何一种数据类型补充,包括在上述表1-6中示出的。在此涉及的术语标记信息和标记注解为单独的成分。然而,根据各种具体实施方式,标记注解可为标记信息的一部分。确切的说,数据结构可包括或可不包括明确的标记注解字段。相反,数据结构的标记信息字段可包含标记注解。图8F提供了使用平面视图810和机器人图820操纵机器人100在环境周围导航的操作的示例性布置800f。该操作包括接受802f与机器人100的环境相对应的平面视图810,移动804f环境内的机器人100至平面视图810上的布置图位置812,记录806f与环境相对应的并且由机器人100产生的机器人图820上的机器人图位置822,使用记录的机器人图位置822和相对应的布置图位置812来确认808f机器人图820和平面视图810之间的变形(二维的),并且应用810f确认的目标布置图位置814的变形来确认相应的表面机器人图位置824,因此允许机器人航行至平面视图810上选择的位置814.在一些具体实施方式中,该操作包括使用标记的位置确认比例尺寸、原点映射、和平面视图810和机器人图820之间的旋转,并且决定与选择的目标布置图位置814相对应的机器人图位置。该操作可包括对确认的比例尺寸、原点映射和旋转应用仿射变换来决定机器人图位置。任何上述操作可为了增加准确度和/或效率重复任意次数。例如,移动804f环境内的机器人100和记录806f机器人图位置可重复多次来为随后的布置图与机器人图之间的转换和计算汇集充足的相关点。在此结合的其他详述和特性能在2011.11.16提出的PCT申请号:PCT/US11/60935中找到,其通过整体引用合并于此。参照图9A和9B,在一些具体实施方式中,远程软件应用程序601在图窗口620显示混合三维成像图622b(混合图)。混合图622b可为远程视频输入窗口610显示的远程视图612和例如显示在平面视图窗口620的二维的、自上而下的图622a(图6D)的平面视图810的混合。图9A示出了用户在机器人位于走廊时可看见的远程视频视图。图9B示出了在其上平面视图810被部分覆盖和修正以适合远程视图612的混合图622b,指示在机器人100视野区域内地区的房间号码和/或房间类型。当观看实时视频输入时,用户可将光标放置在窗口上并且开始向上移动涡轮。在转换过程期间,投影视频视图(来着机器人100上的摄影机320)在远程视频视图612和图622之间逐步转换。图622在开始至测绘投影远程视频视图612的转换时是完全变形的,并且在转换结束时逐步恢复至其未变形的视图。所以如果鼠标滚轮为30%上滚,那么用户会看见包含70%视频和30%>图的未消除的图像,并且视频部分为30%>未变形,同时图为70%变形。该具体实施方式允许单个视频平稳的表现投影实时远程视频视图612和图622。为了提供混合图622b,远程软件应用程序601可使用记录的机器人图820上的机器人图位置822和相应的布置图位置812来确认远程视图612和平面视图810之间的变形(二维坐标和三维坐标之间),并且应用确认的变形来使平面视图810适合远程视图612。在一些具体实施方式中,确认变形包括确认平面视图810和远程视图612之间的比例尺寸、原点映射和旋转,例如,通过应用仿射变换来确认比例尺寸、原点映射和旋转。确认二维平面视图和三维视频输入之间的变形可包括确认不同坐标系统之间的坐标转换。参照图6D和10A-10E,在一些具体实施方式中,用户界面605提供预见命令624,其导致呈现预见视图612a显示在图窗口620、专门的独立窗口、或一些其他窗口。当驱动机器人100时,用户可引用导致机器人100停止物理移动的预见命令624,同时远程软件应用程序601生成和显示呈现预见视图612a,其提供建议机器人驱动路线的投影视图,不然机器人100会继续沿着其驱动路线移动。其可通过使用例如墙的位置的图数据和组建基于机器人100的实际位置的投影“虚拟现实”视图来完成。例如,远程软件应用程序601可使用平面视图810、机器人图820、和/或存储的图像数据701来组建预见视图612a。关于机器人系统使用例如图7示出的实例中的云计算服务720,远程软磁应用程序601和随意机器人100可与云计算服务720联系,这样可组建基于存储的图像数据701、三维图705、和/或二维高度图707(或作为一种选择的2.5D混合图)的预见视图612a,然后提供预见视图612a以呈现在图窗口620上。该具体实施方式允许远程软件应用程序601利用云计算的可升级的计算机处理和数据存储能力(例如,云计算720能随意升级来处理数据并在之后降级),因此为计算装置执行远程软件应用程序601减少了处理和存储器要求。图10A示出了远程软件应用程序601的远程视频输入窗口610的示例性远程视图612.图10B示出了显示在图窗口620上的互补的图622。图622如由随着机器人摄影机320的摄影机视野区域322的机器人图标650指示的一样提供机器人100的当前位置。图10C和10E提供显示在远程视频输入窗口610上的示例性预见视图612a。远程视频输入窗口610可继续在子母画面窗口显示来自机器人摄影机320的远程视图612,例如,放置在远程视频输入窗口610的角落。图10D和10F提供显示在图窗口620上的示例性图622.当执行预见命令时,远程软件应用程序601可随着机器人摄影机视野区域322在机器人当前位置上呈现机器人图标650.另外或作为另一种选择,远程软件应用程序601可在平面视图窗口620上随着预期的预见摄影机视野区域322a呈现虚拟的机器人图标650a沿着预见路线移动。在一些具体实施方式中,当用户使用与远程软件应用程序601联系的操纵杆沿着走廊驱动机器人100时,用户可引用预见命令624(例如,通过选择在用户界面605上相应的按钮或操纵杆)。例如,在离走廊的转弯50英尺远的位置,用户可引用预见命令624,导致预见视图612a的生成并且停止机器人100沿着走廊的进一步移动。然而,用户可继续在预见模式虚拟移动机器人100.用户界面605可显示在相同位置的相同走廊的预见视图612a(例如,三维模式)。当用户在预见模式驱动前进,继续50英尺,左转,并继续驱动,用户能沿着三维模式/预见视图612a的路线看见房间和其他走廊的位置。在一些实例中,关于“虚拟”驱动的第一个30英尺,远程软件应用程序601可显示实际视图(来自固定的实物机器人,进一步放大和投影-变形以匹配虚拟位置)和三维模式/预见视图612a的混合。图10G提供了执行远程软件应用程序601的操作的示例性布置1000.该操作包括开启1002预见模式(也被称为飞行模式)和核对1004机器人100的实际定位,例如机器人100的当前姿势和/或坐标。机器人100可基于从其传感器系统400接收的传感器信号确认其定位并且在之后发送该定位至远程软件应用程序601和/或云计算服务720.该操作进一步包括产生1006机器人100的虚拟定位和/或姿势。远程软件应用程序601或云计算服务720可使用与机器人100和图像数据701(图7)(例如,测量体积的点状图像数据)联系的动态模式570(图5)来生成虚拟定位和/或姿势。该操作可包括访问1008与确认的虚拟机器人定位相对应的三维呈现数据并且生成1010机器人100和/或机器人100周围局部环境的三维呈现。这样可导致访问的局部或远程存储在云贮存器722的图像数据701(例如,测量体积的点状图像数据)和/或三维图705来组建局部三维模式/预见视图612a,其可由远程软件应用程序601显示在远程视频输入窗口610上。此外,这样可导致生成的机器人100的三维模式由虚拟机器人图标650a和预期的预见摄影机摄影区域322a示出在图窗口620上。该操作可包括更新1012显示的预见视图612a或第一人称视图(POV)并且当机器人100在预见模式虚拟操作时更新机器人100的虚拟定位/姿势。步骤1008-1014能重复(例如,在周期基础上)直至终止1016预见/飞行模式。参照图11A,在一些具体实施方式中,远程软件应用程序610的用户界面605在远程视频输入窗口610(或其他窗口)上显示远程导航视图612b。远程导航视图612b可让可航行的区域616呈现在远程视图612的实时视频输入上。用户可在远程视图612和远程导航视图612b之间切换。可航行区域616可基于平面视图810和/或机器人图820被确认。可航行区域616可表现为除障碍物之外的有着机器人摄影机320和450的视野区域的封闭区域。此外,可航行区域616可由颜色或其他与用户联系的信号来填充,可航行区域无障碍物或其他妨碍。布置图上的可航行区域可基于机器人的内部障碍物图的信息强调。在一个具体实施方式中,可航行区域可在图像上辨认为白色像素。机器人可返回其在机器人图上的位置和3D深度摄影机的位置和定向。处理器可使用机器人位置和头部摄影机的运动情况(例如,平移和倾斜角度)来确认视频屏幕上表现地平面的像素。换句话说,处理器可利用机器人位置和视频输入的投影来为视频输入上的每个地平面像素计算坐标。白色像素标明的可航行区域可在之后覆盖在视频输入的地平面像素上。因此,机器人和/或控制机器人的用户能通过跟随白色像素来辨认可航行区域。在可供选择的实施方式中,也能使用任何颜色的像素或其他辨认标记。可供选择的数据结构或标记能用于替换白色像素。具体的,来自机器人的POV的可航行的地平面像素的坐标能由任何一种方法标记,只要机器人设计用于识别它们。用户可在可航行区域616选择机器人目标618,这样导致远程软件应用程序601向机器人100发出驱动命令以移动至与选择的机器人目标618相对应的位置。在示出的实例中,用户界面605的远程视频输入窗口610提供了机器人100在医院房间的远程导航视图612b。远程软件应用程序601可使用平面视图810、机器人图820、三维图705、二维(或2.5D混合)高度图707、和/或存储的图像数据701来决定远程导航视图612b上的选择的机器人目标618和相应的机器人图位置824之间的变形(在相同的维度内和/或在不同维度之间)。远程软件应用程序601可在之后向机器人100发出驱动命令来自动或半自动操纵至机器人图位置824,使用其传感器系统400和行为系统510a来避开任何障碍物,例如移动的人在一个实例中,图可从机器人API调度返回为图像,例如PNG、JPG、或TIFF图像。机器人能处理图像以检测形成图像中的障碍物的轮廓的像素(例如,黑色像素)。适合计算程序的曲线能用于处理形成障碍物的轮廓的像素。从而产生的曲线能在之后用于生成障碍物图。可做另外的处理来进一步提高障碍物检测和/或提高曲线适合检测的障碍物轮廓的准确性。例如,如果曲线闭合并且形成与圆相似的形状,障碍物图能简单的使用圆作为代替。类似的想法能应用于像矩形或椭圆形的形状、人物、面容、和/或那些从各种视角接近已知物体形状数据库的物体。用户界面605可提供在传感器视野区域442和452内(例如,在三维图像传感器视野区域452和/或激光扫描仪视野区域442内)显示接近障碍物的进程式传感器窗口670。在一些具体实施方式中,用户可使用躲避标记662和662i来在远程视频输入窗口610和/或平面视图窗口620(不显示)上标记保护地区/区域。保护区域可由机器人100当作物体12处理,并且因此,保护区域可在自动导航期间被避开。保护区域能用于协助在易损设备周围产生安全距离,或为了确保机器人避开其他区域。用户可放置躲避标记662和662i在平面视图810上的标记视图660或远程导航视图612b上。此外,用户可放置其他标记662在远程导航视图612b上。远程软件应用程序601可决定远程导航视图612b和平面视图810和/或机器人图820之间的变形并且因此更新机器人图820.例如,确认平面视图和视频输入之间的变形可包括产生在任何导航视图612b、平面视图810、和/或机器人图的坐标点之间的转换测量。与在视频输入的地平面上覆盖受限地区相似,二维图的地平面可有效映射坐标至由机器人提供的视频输入的已检测的地平面。图11B示出了机器人导航(例如,半自动)至选择的机器人目标618的方法操作的示例性布置1100的流程图。该方法包括在机器人100的视野区域322、442和452内辨认1102可航行区域616.可航行区域616的辨认可使用机器人100的传感器系统400完成。该方法也包括在用户界面605上视觉指示1104可航行区域616,例如通过在远程导航视图612b上显示封闭区域(例如,强调的边界、用颜色或图案填充)。该方法可包括接收1106用户对机器人目标618的选择和确认1108机器人目标618是否在辨认出的可航行区域616内。如果机器人目标在辨认出的可航行区域616外,该方法包括提示1110用户在可航行区域616内的有效机器人目标618.如果机器人目标618在辨认出的可航行区域616内,该方法可包括确认1112到机器人目标618的路线。这样可引起确认远程导航视图612b和机器人图820之间的变形并且在之后决定与选择的机器人目标618相对应的机器人图位置824.该方法包括允许1114机器人100航行(自动或半自动)至机器人目标618.图11C和11D示出了示例性远程导航视图612,在其中用户选择超出可航行区域616或在障碍物1120上的机器人目标618(实际的或由机器人100感知的)。在图11C示出的实例中,用户在感知的障碍物1120a和坡道1122上选择机器人目标618.从远距离来看,机器人传感器系统400可辨认坡道1122为障碍物,因为从远距离来看坡道1122可有在机器人100阈值遍历高度之上的感知高度。此外,机器人行为系统510a可执行ODOA行为512c来回应传感器事件的引起,其原因为传感器系统400的传感器信号指示障碍物有着比阈值遍历高度更高的高度。使用平面视图810和/或机器人图820,机器人100可确认。尽管坡道1122在可航行区域616内,远程软件应用程序601可决定在坡道1122上的机器人目标618为不安全的停止位置。远程软件应用程序601可显示警告对话框1130,表明选择的机器人目标为不安全的停止位置。如例子所示,警告对话框1130指示用户选择了坡道1122作为机器人目标618并且提供了就在坡道1122前面的可供选择的机器人目标619。将机器人100停在坡道1122上对于机器人100附近的人和其自身都可有危险,如果机器人倾翻或滚下坡道1122.通过决定机器人目标618在坡道1122上,远程软件应用程序601能禁止这样的机器人目标618和/或提供安全可供选择的目标619,这种情况下在坡道1122前面。参照图11D,当用户选择实际障碍物1120b时,远程软件应用程序601可显示警告对话框1130,表明选择的机器人目标618在可航行区域616外或为障碍物1120.如例子所示,警告对话框1130指示用户选择了障碍物1120b作为机器人目标618并且提供了就在障碍物1120b前面的可供选择的机器人目标619。参照图12,在一些具体实施方式中由远程软件应用程序601的用户界面605显示的远程导航视图612b允许用户特定至可航行区域616内选择的机器人目标618的机器人路径652。用户可使用多种输入装置特定机器人路径652.例如,在触屏显示器上,用户可从指示当前机器人位置的机器人图标650拖动他/她的手指或笔端至机器人目标618。在另外的例子中,用户可沿着的特定的机器人路径652拖动机器人图标650(例如,使用鼠标或触摸手势)至机器人目标618。如例子所示,用户可在用户界面605上选择设置路径按钮1202允许用户来指示在可航行区域616内执行的手势应理解为机器人路径652。用户可在远程视频输入窗口610内追踪机器人路径652。相似的,用户可选择平面视图810上的机器人路径652像图窗口620上的二维图622a一样显示。在设置机器人路径652之后,用户可按下出发按钮1204来让机器人100活动。相似的,停止按钮1208可用于停止机器人100的活动。清除路径按钮1206可移除或消除从远程导航视图612b设置的机器人路径652。显示窗口可包括由鼠标滑过显示的飞出图标面板。例如,图标面板可从窗口的左上方“飞”出。图标面板可允许用户选择手动驱动、点击驱动、和头部活动图标。在一个具体实施方式中,该用户可使用空格键切换图标。手动驱动可允许用户点击目标和/或点击并拖动路径。在图上绘出路径之后,用户可右击并从弹出菜单中选择“保存路径”。它们能给路径命名。之后用户可“加载路径”,并且机器人将航行至路径的起始点,然后沿着到目标的特定路径航行。路径可作为标记数据结构存储,包括标记坐标和标记注解。标记路径包括沿着路的多个停站。当绘制路径时,用户可沿着路径指示站点。在一些具体实施方式中,站点可由包括停止标志的标记注解表现。后来,当遍历路径时,一旦到达站点,机器人可闪现“停止”按钮并且路径可变的更亮和/或发光。在这个点,用户可执行咨询并且做局部驱动,之后点击“出发”来重返路径。因此,医生能保存一条途径作为他的夜间巡视,以优选的顺序和预先安排的路线巡视所有房间和站点。在头部模式中,用户可在视频输入的一部分绘出框或轮廓来集中机器人的头部(上部)至框或框内的物体的中心。另外,用户可点击位置来变化机器人头部(上部)和/或整个机器人的航向。各种按钮和外设控制切换键可独立用于控制机器人的基部(下部)和头部(上部)。例如,在头部模式时按住换档键可使屏幕上的光标变为手形图标并且允许用户抓住且拖动头部的视角。在一些具体实施方式中,星形图标可用于控制机器人的航行。该星形图标可显示在任何一种视图并且可由用户选择性的活动来变化机器人的方向和/或速度。除星形图标之外的可供选择的图标也可用。返回到图12,虚拟操纵杆窗口680可提供其他输入装置来特定理想路径652或手动控制机器人100.虚拟操纵杆窗口680可显示机器人定向指示器682和航行引导684.用户可使用航行引导684来控制机器人100的方向的速度。虚拟操纵杆可通过使用可没有通常有的鼠标或常用的操纵杆的装置来协助机器人100的控制,例如平板电脑。“缝合”视频图像可显示在虚拟操纵杆窗口680上。“缝合”视频和图像可使用在机器人100前方的面朝向下实时摄影机320、450和在机器人100后方的面朝向下实时摄影机生成。用户可在机器人活动指示器686上抓住(例如,使用鼠标或触摸手势)并拖动来特定机器人活动的方向和驱动速度。从虚拟操纵杆窗口680驱动机器人100的优点多于使用远程视频输入窗口610来基于鼠标或虚拟操纵杆驱动。特别的,该社团可减少镜头变形、深度信息的缺少、和基于机器人头部160旋转的感知问题,其可为用户在使用远程视频输入窗口610上显示的视频输入来驱动机器人100时所经历。除了允许用户在远程视频输入窗口610内特定理想路径之外,用户可特定显示在图窗口620的图622上的路线路径。在平面视图窗口620特定理想路径652可允许机器人100航行更远的距离,并且因此可让用户在机器人100航行中时自由执行其他的任务。各种控制也可提供来操纵图窗口620示出的图622的缩放和显示区域。理想的缩放可使用滑动器1120来特定,并且理想区域可使用区域平移控制1212来显示。因此,非专业用户可能够使用任何一种航行方法和控制的组合来从一个位置航行至另一个位置。例如,在长途行进中,用户可点击平面视图上的目标并且机器人可自动航行至选择的位置。在中距行进中,用户可在视频窗口选择机器人视野区域内的位置为目标。在短途行进中,用户可使用鼠标、操纵杆、虚拟操纵杆、或元操纵杆来手动控制机器人的航行路径、旋转、头部活动、和类似物。图13示出了有着最大化远程视频输入窗口610的远程软件应用程序601的示范用户界面605,该远程视频输入窗口610显示接收超标记1310和/或可由用户选择的环境敏感命令的远程航行视图612b。用户界面605包括局部视频窗口630和覆盖在远程视频输入窗口610上的平面视图窗口620。如例子所示,平面视图窗口620显示三维(三维的)图622c。三维图622c可由用户利用来导致机器人100半自动航行至三维图612c上选择的机器人目标618.在一些具体实施方式中,虚拟三维网格1302显示在远程航行视图612b上。使用决定的平面视图810和机器人图820之间的变形,远程软件应用程序601能决定在实时视频输入的地表面的位置覆盖三维图622c。用户可选择方格1304作为在虚拟网格1302上的机器人目标618来导致机器人100自动航行至选择的方格1304.虚拟三维网格1302可允许在机器人100定位上提高准确度。如例子所示,许多超标记(标记)1310提供对用户显示和可用的环境-敏感动作。该环境-敏感动作包括接近命令1312和跟随命令1314.这些环境-敏感动作可在机器人100的视野区域322、442和452内辨认人物时生成。用户可引用接近命令1312来安置机器人100至人1330的前方。接近命令1312可通过机器人行为系统510a来导致接近行为512a(图5)的执行,借此机器人100使用其传感器系统400(例如,使用面部识别)来辨认人1330并且驱动去面对辨认的人1330.用户可引用跟随命令1314来驱动机器人100在人1330的后方并且隔3英尺的距离跟随。跟随命令1314可通过机器人行为系统510a导致跟随人行为512b(图5)的执行,借此使用其传感器系统400(例如,使用面部识别)辨认人1330并且驱动跟随辨认的人1330.在一些例子中,机器人100可使用面部识别程序在其视野区域322、442和452内检测人。标签1340可显示以辨认人。例如,信息可包括名字、职称、职业、地址、营业地址、电子邮件地址,网页地址、用户手册等等。远程软件应用程序601可决定显示的二维图622a和由机器人摄影机320捕捉的第一人称视频输入之间的变形。决定所述变形可包括决定二维图和三维“图”之间的坐标转换。当用户放置标记662和/或超标记(可包含标记)1310至远程视频输入窗口610的远程视图612或图窗口620的二维图622a上时,远程软件应用程序601可对与标记662和/或超标记1310相关的标记图坐标应用变形来决定各自相对应的视频坐标或平面视图坐标,并且使用决定的视频或图视图坐标各自覆盖与标记662或超标记1310相关的标记注解至显示的远程视图612(即,第一人称视频输入)或图622上。在许多具体实施方式中,标记注解的三维复现可基于远程机器人的当前位置和标记关于视频输入的投影动态再复现。因此,当机器人的位置和/或实时视频输入的投影变化时,例如当机器人的头部(上部)平移或倾斜时,标记注解可动态再复现。例如,与坡道相对应的标记注解可在视频输入中相对于地面被覆盖。相似的,与在墙上的物体相关的标记注解可相对于物体或墙被覆盖。如在此描述的,标记可包括包含机器人动作修正因子的标记信息。标记可由机器人操作器、局部终端、或远程机器人理解并且导致机器人执行预定动作。例如,机器人动作修正因子可指示机器人不要进入特定区域、慢速行进通过某些区域、快速行进通过某些区域、格外小心、和/或执行其他动作。一般的标记可包括任何一种信息,例如无线通讯信号的可用性,远程机器人应行进的速度,兴趣点的位置,人的位置,插接站的位置,休息区域的位置,玻璃墙的位置,坡道的位置,物体的位置,通过密集区域的最优路线,通过拥挤区域的最优路线,和远程机器人应该执行的动作。标记可由用户创建,终端自动创建,机器人自动创建,和/或为回应终端和/或机器人收集的历史数据创建。机器人可包括设计用于辨认有沿着航行路径遇到的标记坐标的标记的标记辨认系统。机器人可在当标记坐标在机器人的局部感知空间内和/或标记坐标涉及客观的、计划好的航行路径或航行路径的计划时“遇到”标记。因此,标记辨认系统可沿着航行路径“遇到”标记,即使机器人还没有接近和/或可能绝不会接近标记的标记坐标。机器人和/或远程终端为机器人决定航行路径时可考虑能影响航行路径的标记或潜在标记。因此,标记辨认系统可用于在决定航行路径期间辨认有着估计会沿着潜在航行路径的标记坐标的标记。例如,一些潜在航行路径可用于到达理想目标并且选择将使用的航行路径可依赖于涉及每条潜在航行路径的标记。在多条潜在航行路径之间的机器人选择可辨认相关标记来决定哪条航行路径将提供最好的无线连通性。其他因素,例如坡道、电梯、距离、拥挤、物体,如示范用户界面605所示,仪表盘窗口640提供电池充电状态、无线信号强度指示器、和机器人轮廓,该轮廓在需要维修时有一部分会发亮。选项窗口690允许用户与插接站断开或停驻机器人并且设置软件和/或机器人选项。参照图14,在一些具体实施方式中,当执行跟随人行为512b时,机器人100可检测、追踪、和跟随人1330.既然机器人100能使用颈部150平移和倾斜头部160,机器人100能以第二三维图像传感器450b为参照物来保持在人1330上的相应的视野区域452。此外,既然头部160能比基部120相对较快的活动(例如,使用驱动系统200),头部160(和相关的第二三维图像传感器450b)能比通过适当的转动机器人100更快的追踪人1330。机器人100能向人1330驱动来保持人1330在阈值跟随距离范围DF内(例如,与传感器视野区域相对应)。在一些例子中,机器人100在追踪人1330时转动为面朝向人/用户1330。机器人100可使用速度命今和/或路标命令来跟随人1330。关于人物识别和人物跟随的另外的说明书和特性能在2011年5月6日递交的PCT申请第PCT/US11/35488号中找到,其通过整体引用合并于此。图15A和15B示出了可在平面视图窗口620上显示的可供选择的三维图622c和二维图622a,平面视图窗口620包括与各种信息相关的超标记1310并且其可用于导致机器人自动航行至特定目标。超标记1310可包括各种涉及病人的位置或信息的信息。用户可添加标签1502或记号1504,例如个人笔记、共享笔记、草图、绘画等等。机器人位置1510也可辨认。用户可特定机器人目标1512,例如护士站。机器人100可自动航行至特定机器人目标1512。远程软件应用程序601可在远程视频视图612和/或图622上显示信息,指示兴趣的物理区域。例如,附加灯泡上看为“Pharma”的小箭头可指示药房的位置。所述灯泡可包含标记。例如,标记可包括指示词“Pharma”应该显示的地方的标记坐标;标记信息,例如涉及药房的相关信息;和标记注解,例如词“Pharma”二维和/或三维的图示。在一些例子中,用户能通过放置鼠标在其上或在该区域做手势来决定哪些信息是对附近房间有用的,导致任何相应的可用信息显示。有了这些信息,用户能通过在远程航行视图612b(图12)上选择机器人目标618来快速选择去往目标(例如,药房)。例如,根据一个例子,机器人或远程终端能检索与机器人图联系的标记对应的标记坐标。使用机器人定位可辨认十分接近机器人的标记。在机器人视野区域内的标记可使用机器人头部(上部)的定向来辨认。机器人和/或远程终端能在之后为所有视频屏幕上的像素计算一连串的坐标并且提出与每个在视线内的标记相关的标记注解,所述视线基于机器人的位置和由机器人当前头部定向(平移和/或倾斜)提供的投影。根据一些具体实施方式,Denavit-Hartenberg参数(DH参数)可用作视频输入和图平面视图之间空间连接的标准坐标系统。再次参照图8E,用户界面605的标记视图600允许用户放置标记662在平面视图810上来指示兴趣的位置和/或以信息标记平面视图810,例如障碍物、建议的机器人行进路线等等。也是参照图13,用户可放置超标记1310在远程航行视图612b上以环境敏感信息来标记位置。图数据源1620可连同布置图和/或机器人图信息一起存储标记和超标记信息(例如,位置,标记标识符,标记内容)。如在此使用的,超标记可表现为标记并且如在此描述的与标记使用相似的数据结构。除了或备选的允许用户放置标记662和超标记1310在用户界面605,用户可在机器人100操作期间进入用户-特定超标记1310.用户可引用允许超标记1310插入当前机器人位置的命令。另一命今可允许超标记1310的移除。进一步的,其他用户(例如,护士)可允许添加超标记1310,其可对机器人100的一个用户示出。“护士图应用程序”可显示允许暂时超标记1310的安置的自上而下图或标记视图660,例如,为即将登入的医生辨认兴趣房间。此外,一些超标记1310可为用户-特定和/或时间-特定。例如,在房间的一个中风病人可正显示出恶化标记。护士能检索“护士图应用程序”在图上找到所述房间并且键入超标记1310。该护士可如下填写超标记:超标记-名称=“中风病人恶化”,用户特定=“Reynolds医生”,持续时间=1小时。因此,如果Reynolds医生在接下来的一个小时内登入,他就会看见在图上与病人房间相关的超标记1310,另外还指示着“中风病人恶化”。在接近侧翼时,他也可看见超标记1310突然出现在视频流里正指向所述房间,标注为“中风病人恶化”。没有其他的医生会看见那些标签,并且Reynolds医生只能在第一个小时期间看见它们。医生也可直接在局部或远程站界面606、608设置暂时标记和提出超标记1310来协助他/她的工作计划。在一些例子中,医生可在会议开始时为几个病人房间分配号码。之后在会议期间,他/她可在显示的图622和突然出现的超标记1310上看见号码来提醒他/她巡视病人614的次序。医生可添加能在会议的余下或下一次回来时看见的笔记,例如,在一个病人上的“在会议结束后回来”,或“写处方”或“下午4点再次检查”。另外,“智能”超标记1310可自动显示。例如,护士可登记即将进入的病人的照片至数据库(例如,存储在本地和/或云贮存器722上)来与他们的电子医疗记录互相对照。远程软件应用程序601可在由机器人摄影机320捕捉的视频流上执行面部识别计算程序来辨认病人614、1330,其能与数据库互相对照。在识别病人面部时,远程软件应用程序601可自动停止并且显示病人的电子医疗记录。再次参照图14,在一些具体实施方式中,每个病人614,1330收到射频识别(RFID)芯片497,例如在袖口上。机器人100可有与控制器500联系的RFID读取器作为其传感器系统400的一部分来通过RFID芯片识别附近的病人。远程软件应用程序601可在病人进入机器人100的RFID范围内(例如,6英尺)时显示相应的超标记。超标记1310可能会漂浮在空中,因为RFID并不是方向特定的。另选的混合方法可使用计算机视觉技术通过辨认人类的面部来辨认机器人100视野区域322内病人614、1330的存在,并且在之后假定所述RFID匹配属于所述病人并且在病人614、1330上定位超标记1310.参照图16A-16D,在一些例子中,机器人系统1600包括一个或多个与桥602联系的远程机器人100,该桥602与局部机器人终端服务器604a和远程终端服务器604b(例如,像云计算服务720(图7))联系。局部机器人终端服务器604a与本地技术人员计算装置606联系并且远程终端服务器604b与远程操作者计算装置608联系。机器人系统1600也包括一个或多个用来存储从机器人传感器系统400接收的传感器数据和/或用户互相影响数据的数据源1610,例如用户通过连网板310和/或用户界面605获得的信息。如例子所示,机器人系统1600包括至少一台用来存储传感器数据的机器人传感器数据源1610a和至少一台用来存储用户互相影响数据的头部数据源1610b。数据源1610可位于机器人100,云贮存器722(图7),局部机器人终端服务器604a和/或远程终端服务器604b上。图数据源1620能为平面视图810、机器人图820、标记662信息、和/或超标记1310信息存储信息,例如存储在机器人100、云贮存器722、局部机器人终端服务器604a和/或远程终端服务器604b上的数据库。图数据源1620可为单个的数据库或数据源1610的联合,例如机器人传感器数据源1610a和头部数据源1610b。远程软件应用程序601和/或机器人100(例如,控制器500)可进入图数据源1620来执行实时或离线的一致性处理,提供用户界面反馈,执行航行程序,提出图622等。在一些具体实施方式中,控制系统510在机器人100的控制器500上执行接近一个或多个的数据源1610来发出可由行为系统510a识别的事件,例如机器人传感器数据源1610a,头部数据源1610b,和/或图数据源1620.为回应提出的事件,行为系统510a可执行一个或多个影响命令选择的行为512,该命令由机器人资源530(图5)的资源控制判优器560执行。在图16C示出的例子中,机器人控制系统510与图数据源1620联系来进入一致性矩阵/数据库,其可存储一致性处理信息,例如实时传感器/标志数据1622a,操作器命令1622b,局部感知空间数据1622c(例如,从三维图像传感器450接收的测量体积的点状数据),占用位图数据1622d(例如,机器人图820),地面平面数据1622e(例如,平面视图810),和最终用户标记表1622f(例如,存储x,y,z坐标和标记区域),和/或机器人行为标记表1622g(例如,存储x,y,z坐标和标记区域)。也是参照图5,行为系统510a的行为512可基于提出的事件评价机器人动作的可能结果,例如传感器系统400的传感器事件和通过放置存储在标记表1622f和1622g的标签662和1310提出的标记事件(例如,其可模拟传感器事件)。因此,动作选择引擎580可基于行为评价选择有着最好结果的可行机器人动作。结果,机器人100可以一种方式自动操作,该方式考虑通过远程软件应用程序601接收的标记662和1310.再次参照图11C示出的坡道例子,当机器人100接近坡道1122,机器人控制系统510可基于从传感器系统400接收的传感器信号感知坡道1122为障碍物1120.为了辨别感知障碍物1120a和实际障碍物1120b,控制系统510可需要进入存储机器人数据和用户数据的公用数据库,例如图数据源1620.使用图数据源1620,控制系统510能决定检测的坡道1122是感知障碍物1120a而不是实际障碍物1120b。此外,控制系统510可与远程软件应用程序601联系来接收用户输入关于用户是否感知坡道1122为实际障碍物1120b,和/或接收可供选择机器人路径652和/或可供选择的机器人目标619.远程软件应用程序601能使用图数据源1620来决定二维图622a,810和三维图622c之间,远程视图612的实时视频输入和二维和/或三维图622a、622c之间的变形以提供混合图622b(图9B)。此外,远程软件应用程序601能使用图数据源1620来提出在平面视图窗口620(图10C)的导前视图612a。再次参照图12,在另外的具体实施方式中,当用户在二维图622a,混合图622b,三维图622c,和远程视图610之中的一个上选择机器人路径652时,远程软件应用程序601能使用图数据源1620来决定任何图622和远程视图612之间的变形,并且在执行到目标618的驱动命令时通过机器人控制器500对选择的机器人路径应用变形来为用户决定在机器人图820上的一连串相对应的机器人路径图坐标。此外,远程软件应用程序601可应用决定的变形来决定相对应的一连串机器人路径坐标以在任何图622和远程视图612上显示机器人路径652.图数据源1620可存储决定的变形和/或一连串机器人路径坐标以在任何图622和远程视图612上显示机器人路径652.因此,应广泛理解在此使用的术语“变形”涉及决定空间坐标错误,从一个坐标系统到另一个坐标系统的转换的区别,包括不同维度的坐标系统之间的转换。例如,机器人和/或远程终端可至少决定一部分二维平面视图和由机器人生成的二维图之间的变形,例如那些使用各种机器人传感器或激光扫描仪生成的二维图。因此,机器人和/或终端可决定三维图或视频输入和二维平面视图之间的变形。此外,决定变形可涉及第一人称视图,第三人称视图,平面图视图,混合图视图之间的,和/或在相同坐标系统内任何两个不同坐标系统或投影之间的坐标转换。再次参照图13,在一些具体实施方式中,当用户放置标记662或超标记1310在像图窗口的图622一样显示的平面视图810上时,远程软件应用程序601在显示图622的电子显示器上决定用户选择位置并且在图622上覆盖与标记662,1310相关的注解。远程软件应用程序601也可决定平面视图810和远程视图610(即,由机器人摄影机320捕捉的第一人称视频)之间的变形并且对在平面视图810上的标记662,1310的坐标应用变形来决定远程视图610的相对应的视频坐标。与标记662,1310相关并且由图数据源1620存储的标记注解能使用决定的视频坐标通过远程软件应用程序601显示在远程视图610上。参照图17,在一些具体实施方式中,用户界面605在例如远程视频输入窗口610和/或图窗口620上提供增强覆盖1710,所述增强覆盖1710允许用户相对于机器人基部120设想机器人头部160的位置。增强覆盖1710可允许用户认识机器人传感器系统400相对于完全360°视野区域的当前视野区域322,442和452,其在示出的例子中由弧1720指示。这样允许用户为在当前视野区域322,442和452外的旋转(例如,头部160和/或基部120)做出选择.用户可在由第一和第二环1722和1724明确的区域内点击来旋转虚拟的头部1728至所述点。当用户旋转虚拟头部1728时,机器人头部160可实时活动,而远程软件应用程序601也实时更新来自机器人摄影机320并且显示在远程视频输入窗口610的远程视图612上的实时视频输入。如例子所示,增强覆盖1710有与机器人基部120对应的虚拟基部1726和与机器人头部160对应的虚拟头部1728,其相对于与机器人当前姿势对应的虚拟基部1726安排为有一定角度/定向。在一些例子中,虚拟基部1726和虚拟头部1728中的一个表现为静止,然而另一个相对于静止的一个自由活动。如果用户在由第一和第二环1722和1724明确的区域内点击来旋转在当前视野区域1720外的头部1728,机器人100可旋转头部160和/或基部120来完成用户的命令。在一些例子中,根据用户命令旋转头部160之后,基部120可旋转并且头部160可在之后活动到中心位置。如果用户在之后试图基于先前的旋转改变机器人100的位置,所述位置的变化可成为问题。为了减轻所述问题,某些具体实施方式可利用系统来减少基部旋转的要求以适应头部旋转。例如,当虚拟头部1728转动到一定角度时可开始反向移动。如果机器人头部160以指定间隔保持所述角度,系统可慢速旋转基部120以相对于基部120集中头部160,然而同时以相同速度向相反方向旋转头部160。这样保持了当前对象在视野内,同时也确认了头部160和基部120如今呈直线并且参考的前一帧由用户看向的地方支配。进一步的,如果用户希望继续在所述方向看的更远,头部160的完全平移活动范围可用。图8示出了用来回应用户命令的例如在远程软件应用程序601的示范一连串机器人事件.在初始状态下,机器人100可收到驱动命令从一个位置活动到另一个位置。该命令可为操作器发起的,行为发起的(例如,在控制器的控制系统上执行的行为),或计划者发起的(例如,预先计划好的任务或程序)。在这个例子中,该命令包括向相反方向活动至新目标的新航向。为回应该命令,机器人100可向平移极限转动其头部(左或右)。到达平移极限之后,机器人100可旋转基部120(例如,holonomicallyinplace)来允许为了让头部向新航向旋转的头部160的活功。术语“平移极限”指的可能是当机器人的上部相对于机器人的下部不能物理旋转时的一点,在该点,上部相对于下部方向偏离了预定旋转角度的数字,并且/或术语“平移极限”可为上部相对于下部偏离的角度数字和上部相对于下部偏离的时间长度的函数。在一些例子中,机器人100继续旋转基部120,以致前进驱动方向F与新航向相同,因此为头部160提供了相对等同的左/右平移能力。机器人100旋转基部时,其可同时旋转头部160以便面对新航向并且任意以致头部160上的传感器320,450,450b的视野区域322,452能指向新航向。在一些具体实施方式中,机器人100一起转动基部120和头部160,以便允许头部160相对更快的面对新航向。如果基部120旋转过度,头部160能反向平移来恢复对齐。图19示出了示范远程视图612,在其上远程软件应用程序601覆盖从机器人100接收的远程视频输入上的屏幕指示器1910.屏幕指示器1910可在鼠标光标1912附近显示并且可表现当前的头部活动范围。当用户向着远程视频视图612的左侧或右侧活动鼠标光标1912时(点击的可能意图为活动头部以指向那里),开启的屏幕指示器1910可显示在光标1912上方来指示保持所述方向头部活动的多少(例如,多少头部160的活动保持范围可用)。高亮边框1920可加亮在远程视频视图612内的兴趣区域。用户可在一部分远程视频视图612上兴趣区域的周围创建高亮边框1920,例如,通过在屏幕上拖动和投落边框和/或通过在兴趣区域周围点击和拖动打开边框。作为回应,远程软件应用程序601可导致机器人头部160活动以集中在高亮边框1920中。此外,摄影机320可放大来匹配高亮边框1920的尺寸。参照20A-20B,在一些具体实施方式中,如果机器人100意外的失去通讯连接(例如,失去无线信号),机器人100可停止或继续驱动至其目标。当远程机器人活动穿过环境时,通讯可被扰乱,例如,当机器人100在各种无线接入点之间转换和/或在数据传输遇到扰乱时可导致弱的信号强度。通过继续自动航行,通讯可在机器人到达理想目标时恢复。当机器人100经历失去通讯连接时,机器人100可参考最后一个可信的定位/姿势(例如,由控制器500本地存储)和/或当前决定的定位/姿势(例如,基于机器人传感器系统400)来继续航行至目标。如果机器人路径为计划好的路径,机器人100可重返计划好的路径到达目标。另一方面,如果用户远程监控机器人100到达目标,机器人100可跟随计划好的路径到达有通讯连接(例如,无线电频率和/无线)的最近/最后的可信位置。作为一种选择,机器人100可沿着最短的路径(即,新路径)驱动到达有通讯连接的最近/最后的位置。到达最近/最后的可信位置之后,机器人100可确认通讯连接是否已重建并且如果已重建,是否已到达目标。如果通讯连接还未重建,机器人100可同步其视频记录(和传感器系统400的任何其他传感器数据)来活动至控制器500存储的下一个可信位置。此外,如果还未到达目标但是通讯连接已重建,控制器500可执行避风港对策,其可引起持续记录传感器数据和显示新的机器人端用户界面(例如,在连网板310上),该界面指示因为失去通讯连接会议已终止。机器人100可通过重新评估和/或执行路径计划活动至最后的可信位置(使用ODOA)来提高其连接恢复几率。机器人100也可活动其天线490a,490b(图2和4C)以可能获得更好的通讯接收。机器人100可使用移动ad-hoc网络(MANET),其为由无线链路连接的移动设备的网络基础设施的自配置。在一些例子中,机器人可通过标记事情通讯的位置和任何重建通讯的位置来提高机器人图820的完整和准确性。机器人100可使用站点航行来活动至已知有连通性的区域(WLAN热区域或强信号区域)。站点是在物理空间上辨认点的一连串坐标。机器人100可使用建立在机器人图820上的站点来操作到达目标。另外的避风港策略可包括基于机器人图820计划到达最近的最低交通量区域的路径或活动至最近的充电/插接站。在一些例子中,机器人100可向着另一个最近的机器人100活动,其可使用多根天线490a,490b用作多输入和多输出(MIMO)来充当Wi-Fi桥602.在此描述的各种系统和技术的具体实施方式能在数字电子电路,集成电路,特别设计的特定应用集成电路(ASICs),计算机硬件,固件,软件,和/或它们的组合中实现。这些不同的具体实施方式能包括在可在可编程系统上执行和/或说明的一个或多个计算机程序上的具体实施方式,该可编程系统包括至少一个可为专用或通用目的的可编程处理器,其耦合以接收数据和指令,并传输数据的指令;存储系统;至少一个输入装置;和至少一个输出装置。这些计算机程序(也称为程序,软件,软件应用程序或编码)包括可编程处理器的机器指令,并且能在高层次程序实现和/或面向对象的编程语言,和/或组装/机器语言。如在此使用的,术语“机器可读介质”和“计算机可读介质”是指任何计算机程序产品,仪器和/或装置(例如,磁盘,光盘,存储器,可编程逻辑装置(PLDs)),用于为可编程处理器提供机器命令和/或数据,包括接收机器指令作为机器可读信号的机器可读介质。术语“机器可读信号”是指任何用于为可编程处理器提供机器指令和/或数据的信号。在本说明书中描述的主题的具体实施方式和功能操作能实现在数字电子电路,或计算机软件,固件或硬件中,包括在本说明书中所公开的结构和其结构等同物,或者它们中的一个或多个的组合。在本说明书中描述的主题的具体实施方式能实现为一个或多个计算机程序产品,即一个或多个编码在计算机可读介质上的计算机程序指令的模块,其通过数据处理仪器执行,或控制其操作。该计算机可读介质能为机器可读存储装置,机器可读存储基底,内存装置,影响机器可读传播信号的问题的组合物,或它们中的一个或多个的组合。术语“数据处理仪器”包括所有用于处理数据的仪器,装置和机器,包括例如可编程处理器,计算机,或者多个处理器或计算机。该仪器除了硬件之外能包括为讨论中的计算机程序创建执行环境的编码,例如,构成处理器固件,协议栈,数据库管理系统,操作系统的编码,或它们中一个或多个的组合。传播的信号是人工生成的信号,例如,机器生成的电,光,或电磁信号,其生成用于为信息编码以传输到合适的接收仪器。计算机程序(也称为程序,软件,软件应用程序,脚本,或编码)能以任何形式的编程语言编写,包括编译或解释语言,并且它能以任何形式部署,包括作为一个独立的程序或作为一个模块,组件,子程序或其他适于在计算环境中使用的单元。计算机程序不必要对应于文件系统里的文件。程序能存储在保存其他程序或数据(例如,存储在标记语言文档中的一个或多个脚本)的文件的一部分中,专用于讨论中的程序的单个文件中,或者在多个协调文件中(例如,存储一个或多个模块,子程序或编码的文件)。计算机程序能部署在一台计算机上执行,或在位于一个地点或分布在多个站点和通信网络互连的多台计算机上执行。在本说明书中描述的过程和逻辑流程能由一个或多个执行一个或多个计算机程序的可编程处理器执行,通过操作输入数据和生成输出来执行功能。该过程和逻辑流程也能由专用逻辑电路执行,并且仪器也能实现为专用逻辑电路,例如,现场可编程门阵列(FPGA)或ASIC。适于计算机程序执行的处理器包括,例如,通用和专用微处理器,和任何种类的数字计算机的任何一个或多个处理器。通常,处理器会从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本要素是用于执行指令的处理器和一个或多个用于存储指令和数据的存储装置。通常,计算机也将包括一个或多个用于存储数据的大容量存储装置,或者可操作地耦合以从其中接收数据或传输数据至其中,或两者都有,所述装置如,磁盘,磁光盘,或光盘。然而,计算机不必具有这样的装置。此外,计算机可以嵌入另一个设备中,例如,移动电话,个人数字助理(PDA),移动音频播放器,全球定位系统(GPS)接收器,仅举几例。适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器,媒体和存储器装置,包括例如半导体存储器装置,例如EPROM,EEPROM和闪存装置;磁盘,例如,内部硬盘或可移动磁盘;磁光盘;CD-ROM和DVD-ROM磁盘。该处理器和存储器能由专用逻辑线路补充,或组成。在本说明书中描述的主题的具体实施方式能实现在计算系统中,该计算系统可为包括后端组件,例如数据服务器的计算系统;可为包括中间组件,例如,一个应用程序服务器的计算系统;或可为包括前端组件,例如,具有图示用户界面或网络浏览器的客户端计算机的计算系统,通过图示用户界面或网络浏览器用户能与在本说明书中描述的主题的具体实施方式互相影响,或包括任何所述后端,中间,或前端组件的一个或多个的组合的计算系统。系统的组件能通过任何形式或介质的数字数据通讯互相连接,例如,通讯网络。通讯网络的例子包括局域网络(LAN)和广域网络(WAN),例如,因特网。计算系统能包括客户端和服务器。客户端和服务器通常都远离对方并且通常通过通讯网络互相影响。客户端和服务器的关系凭借运行在各自计算机上的计算机程序产生,并且彼此具有客户端-服务器关系。虽然本说明书包含许多细节,这些不应该被解释为对本发明范围的限制或哪些可被要求,而是作为本发明独有的具体实施方式的特定功能的说明。本说明书中某些在单独具体实施方式内容中描述的特性也能在单个具体实施方式的组合中实现。相反的,在单个具体实施方式的内容中描述的各种特性也能在分离的多个具体实施方式中或任何合适的子组合中实现。此外,尽管特性可能如上所述作用以某些组合进行,并且甚至最初如此要求,来自所述的组合的一个或多个特性能在一些实例中从组合中删去,并且所述组合可指定为子组合或子组合的变体。相似的,尽管操作以特定的次序描绘在附图上,这不应该被理解为要求所述操作以示出的特定次序或按顺序执行,或所有示出的操作都要执行,以达到理想的结果在某些情况下,多任务和并行处理可能是有利的。此外,在上述的具体实施方式中的各种系统组件的分离不应被理解为在所有具体实施方式中都要求所述分离,并且应当理解所描述的程序组件和系统通常能被一起集成在单个的软件产品或封装成多个软件产品。已描述了许多具体实施方式。然而,应理解在不脱离本公开的精神和范围下可进行各种修改。因此,其它具体实施方式也在以下权利要求的范围之内。例如,权利要求中所述的动作能以不同的次序执行,并且仍然能达到理想的结果。当前第1页1 2 3 当前第1页1 2 3 
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1