三维场景定位方法和装置与流程

文档序号:11208819阅读:780来源:国知局
三维场景定位方法和装置与流程

本申请涉及混合现实技术领域,尤其涉及一种三维场景定位方法和装置。



背景技术:

混合现实技术(mixedreality,mr)是一种实时地计算摄影机影像的位置及角度并在影像上叠加图像、视频、3d模型的技术,这种技术的目标是在屏幕上把虚拟世界叠加在现实世界并进行互动。目前市场上已经比较成熟的mr技术产品包括微软的全息眼镜hololens,因特尔的vr(virtualreality,虚拟现实)/ar(augmentedreality,增强现实)一体头显alloy等。

微软的hololens采用了四颗摄像头即两组双目摄像头作为传感器,结合头盔正中央的tof(timeofflight,飞行时间)传感器实现当前场景的三维重建。因特尔的alloy工作原理与hololens类似,不过它采用因特尔自己开发的realsense3d结构光实感摄像头作为传感器。除了一对双目摄像头以外还内置了两套结构光深度摄像头,能够直接采集深度图像恢复三维场景。

上述mr头显设备,均是由头盔上集成的专用彩色和深度传感器采集真实世界的图像和深度数据,而没有采用集成度更高的单目,双目视觉传感器,其原因是现有的单目和双目传感器无法实现密集和高精度的三维重建,而且对于计算资源要求很高,无法集成在移动终端设备上。此外,上述两款设备之间无法共享三维地图数据,也就是说hololens构建的三维场景无法用alloy设备体验,反之亦然。另外,在高精度3d地图导航应用领域,往往高精度3d地图街景扫描设备复杂,体积庞大和昂贵,普通消费者不便携带这些专业的设备去定位和导航。



技术实现要素:

本申请的实施例提供一种三维场景定位方法和装置,用于共享三维地图数据。

为达到上述目的,本申请的实施例采用如下技术方案:

第一方面,提供了一种三维场景定位方法,包括:

根据当前场景的第一视觉信息以及与所述第一视觉信息对应的深度信息生成三维地图数据,所述三维地图数据中包括三维场景模型;对当前场景的第二视觉信息进行特征提取得到第二视觉特征;根据所述第二视觉特征与所述三维地图数据的映射关系,在所述第二视觉信息上加载对应的三维场景模型,实现所述第二视觉信息在所述三维场景模型中的定位。

第二方面,提供了一种三维场景定位装置,包括:

生成单元,用于根据当前场景的第一视觉信息以及与所述第一视觉信息对应的深度信息生成三维地图数据,所述三维地图数据中包括三维场景模型;

提取单元,用于对当前场景的第二视觉信息进行特征提取得到第二视觉特征;

定位单元,用于根据所述第二视觉特征与所述三维地图数据的映射关系,在所述第二视觉信息上加载对应的三维场景模型,实现所述第二视觉信息在所述三维场景模型中的定位。

第三方面,提供了一种计算机存储介质,用于储存为三维场景定位装置所用的计算机软件指令,其包含执行第一方面所述的三维场景定位方法所设计的程序代码。

第四方面,提供了一种计算机程序产品,可直接加载到计算机的内部存储器中,并含有软件代码,所述计算机程序经由计算机载入并执行后能够实现第一方面所述的三维场景定位方法。

第五方面,提供了一种三维场景定位装置,包括:存储器、通信接口和处理器,所述存储器用于存储计算机执行代码,所述处理器用于执行所述计算机执行代码控制执行第一方面所述三维场景定位方法,所述通信接口用于所述三维场景定位装置与外部设备的数据传输。

本申请实施例提供的三维场景定位方法和装置,通过根据第一视觉信息以及与所述第一视觉信息对应的深度信息生成三维地图数据;对第二视觉信息进行特征提取得到第二视觉特征;根据第二视觉特征与三维地图数据的映射关系,在第二视觉信息上加载对应的三维场景模型,实现第二视觉信息在三维场景模型中的定位。使得根据第一视觉信息和对应深度信息生成的三维地图数据可以用于第二视觉信息的定位,实现了三维地图数据的共享。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本申请实施例提供的三维场景定位系统的结构示意图;

图2为本申请实施例提供的第一视觉采集设备的结构示意图;

图3为本申请实施例提供的服务器的结构示意图;

图4为本申请实施例提供的第二视觉采集设备的结构示意图;

图5为本申请实施例提供的一种三维场景定位方法的流程示意图;

图6为本申请实施例提供的另一种三维场景定位方法的流程示意图;

图7为本申请实施例提供的更新视觉特征库以及进行三维场景重建得到三维场景模型的流程示意图;

图8为本申请实施例提供的一种三维场景模型结果的示意图;

图9为本申请实施例提供的得到第二视觉采集设备的实时位姿的流程示意图;

图10为本申请实施例提供的对orb特征进行特征匹配的结果的示意图;

图11为本申请实施例提供的对整体灰度分布特征进行特征匹配的结果的示意图;

图12为本申请实施例提供的对orb特征进行三维场景定位的结果的示意图;

图13为本申请实施例提供的对整体灰度分布特征进行三维场景定位的结果的示意图;

图14为本申请实施例提供的另一种三维场景定位方法的流程示意图;

图15为本申请实施例提供的对三维密集点云与vslam稀疏点云配准对齐以重建三维场景模型的流程示意图;

图16为本申请实施例提供的vslam稀疏点云和三维密集点云融合形成三维点云的示意图;

图17为本申请实施例提供的根据实时位姿和三维场景模型对第二视觉采集设备进行定位的示意图;

图18为本申请实施例提供的一种三维场景定位装置的结构示意图;

图19为本申请实施例提供的又一种三维场景定位装置的结构示意图;

图20为本申请实施例提供的另一种三维场景定位装置的结构示意图。

具体实施方式

下面结合附图,对本申请的实施例进行描述。

本申请实施例提供了一种三维场景定位系统,参照图1中所示,包括:第一视觉采集设备11、服务器12、第二视觉采集设备13。

第一视觉采集设备11包括具有专用的彩色和深度传感器器件的移动设备,例如rgb-d(redgreenblue-depth,红绿蓝——深度)设备、rgb-tof(redgreenblue-timeofflight,红绿蓝——飞行时间)设备、微软的kinect或者因特尔的realsense、三维激光雷达设备等,可以同时采集当前场景的视觉信息和深度信息。参照图2中所示,该第一视觉采集设备11可以包括彩色和深度传感器1101、处理器1102、存储器1103和通信接口1104,它们通过总线方式进行连接。其中,存储器1103用于存储供处理器1102执行的代码以及数据等,由处理器1102控制彩色和深度传感器1101采集当前位置的视觉信息和深度信息后经过初步处理,然后通过通信接口1104以有线或无线方式发送给服务器12。

服务器12用于存储三维场景模型,以实现不同设备之间共享三维场景模型。参照图3中所示,服务器12包括:处理器1202、存储器1203和通信接口1204,它们通过总线方式进行连接。其中,存储器1203用于存储供处理器1202执行的代码以及数据等,通信接口1204用于以有线或无线方式与第一视觉采集设备11和第二视觉采集设备13进行通信。

第二视觉采集设备13包括任意带有普通视觉传感器的移动设备,例如具有普通单目或者双目摄像头的手机、平板电脑、ar/mr眼镜等设备,可以采集当前场景的视觉信息。参照图4中所示,该第二视觉采集设备13可以包括视觉传感器1301、处理器1302、存储器1303和通信接口1304,它们通过总线方式进行连接。其中,存储器1303用于存储供处理器1302执行的代码以及数据等,由处理器1302控制视觉传感器1101采集当前位置的视觉信息,并且控制通过通信接口1104以有线或无线方式从服务器12接收三维场景模型。

本申请实施例所述的视觉信息包括当前图像帧的rgb图像帧或灰度色阶图像帧,深度信息包括景深。本申请实施例所述的位姿指视觉采集设备的位置和姿态。本申请实施例所述的三维场景模型包括具有三维坐标点的点云。本申请实施例所述的点云是指通过测量仪器得到的当前场景中物体表面的点数据集合,对于点数量比较少并且点与点的间距比较大的点云称为稀疏点云,对于点数量比较大并且比较密集的点云称为密集点云。

本申请实施例提供了一种三维场景定位方法,参照图5中所示,包括:步骤s101-s103。

s101、根据当前场景的第一视觉信息以及与所述第一视觉信息对应的深度信息生成三维地图数据,三维地图数据中包括三维场景模型。

第一视觉信息以及对应的深度信息可以在一个设备上获取,也可以在不同设备上获取,但要保证数据的一一对应关系,优选的采用如上所述的第一视觉采集设备来获取,以便根据视觉信息和深度信息形成三维地图数据。

生成三维地图数据的过程可以直接在上述第一视觉采集设备上实现也可以由服务器来实现,本申请实施例在此不做限定。

三维地图数据可以存储于服务器上,使得其他用于定位的设备可以共享该三维地图数据。

s102、对当前场景的第二视觉信息进行特征提取得到第二视觉特征。

获取第二视觉信息的设备可以与获取第一视觉信息的设备不同,由于第一视觉信息用于生成三维地图数据,因此其精度要求较高,可以由专用的视觉采集设备例如如上所述的第一视觉采集设备来获取。而第二视觉信息仅用于根据上述三维地图数据进行定位,因此其精度要求较低,可以为如上所述的第二视觉采集设备来获取。

对视觉信息可以进行多种特征提取,例如提取角点特征、直线特征、形状特征或vslam特征等。对第二视觉信息进行特征提取的过程可以直接在上述第二视觉采集设备上实现也可以由服务器来实现,本申请实施例在此不做限定。

s103、根据第二视觉特征与三维地图数据的映射关系,在第二视觉信息上加载对应的三维场景模型,实现第二视觉信息在三维场景模型中的定位。

可以将第二视觉特征与三维地图数据中不同三维场景模型进行映射匹配,在显示第二视觉信息时同时显示对应的三维场景模型,实现混合现实,同时实现第二视觉信息在三维场景模型中的定位。

本申请实施例提供的三维场景定位方法,通过根据第一视觉信息以及与所述第一视觉信息对应的深度信息生成三维地图数据;对第二视觉信息进行特征提取得到第二视觉特征;根据第二视觉特征与三维地图数据的映射关系,在第二视觉信息上加载对应的三维场景模型,实现第二视觉信息在三维场景模型中的定位。使得第二视觉信息根据第一视觉信息和对应深度信息生成的三维地图数据可以用于第二视觉信息的定位,实现了三维地图数据的共享。

本申请实施例提供了另一种三维场景定位方法,参照图6中所示,该方法包括:步骤s201-s114。

s201、第一视觉采集设备采集当前场景的第一视觉信息和对应的深度信息。

第一视觉采集设备每次采集当前帧图像时会同时获取对应的深度信息即景深。

s202、第一视觉采集设备对第一视觉信息进行特征提取得到第一视觉特征。

根据图像特征的描述方式不同,可以选择不同方式提取视觉特征后汇集为视觉特征库。视觉特征库可以包括角点特征、直线特征、形状特征等。

对于角点特征描述方式来说,视觉特征库可以包括关键帧orb(orientedbinaryrobustindependentelementaryfeatures,面向二进制鲁棒独立基本特征)特征库,第一视觉采集设备对第一视觉信息提取orb特征得到第一视觉信息的orb特征。

对于线性描述方式来说,可以对第一视觉信息提取整体灰度分布信息,比较常用的特征提取和定位方法包括lsd-slam(largescaledirectsimultaneouslocalizationandmapping,大尺度直接即时定位与地图构建),本申请实施例在此不赘述。

s203、第一视觉采集设备将第一视觉特征与视觉特征库进行特征匹配计算得到第一视觉信息的旋转矩阵和位移矩阵,根据第一视觉信息的旋转矩阵和位移矩阵计算得到第一视觉信息的实时位姿,并且用第一视觉特征更新视觉特征库。

将第一视觉信息的orb特征与现有的关键帧orb特征库进行匹配,计算得到第一视觉信息的旋转矩阵和位移矩阵,从而根据第一视觉信息的旋转矩阵和位移矩阵计算得到第一视觉采集设备采集第一视觉信息时的实时位姿。同时判定是否需要用第一视觉信息对关键帧orb特征数据库进行更新。即是否将第一视觉信息加入关键帧orb特征库,或者是否将第一视觉信息替换关键帧orb特征库中的某一帧。例如,可以比较第一视觉信息与关键帧orb特征数据库的公共特征点数目是否小于预设门限,如果小于则将第一视觉信息加入关键帧orb特征库。

s204、根据深度信息以及第一视觉信息的实时位姿进行三维场景重建得到三维场景模型。

对于角点特征描述方式来说,参照图7中所示,对第一视觉采集设备的实时位姿和深度信息进行三维场景重建得到三维场景模型具体包括:

s2041、利用计算的实时位姿以及采集的深度信息进行三维场景重建以生成第一视觉信息的三维点云。

三维场景重建得到的三维点云效果如图8中所示(图中去除了颜色信息)。

s2042、对第一视觉信息的三维点云进行融合、去噪、删除重复点等运算最终得到三维场景模型。

步骤s202-s204对应于步骤s101。

s205、第一视觉采集设备将更新的视觉特征库和三维场景模型发送给服务器进行存储。

此时三维地图数据包括视觉特征库和三维场景模型。

s206、服务器从第一视觉采集设备接收视觉特征库和三维场景模型。

s207、第二视觉采集设备对第二视觉采集设备的视觉传感器进行标定以得到第二视觉采集设备的视觉传感器的相机参数,并根据相机参数对第二视觉采集设备的视觉传感器进行矫正。

用户在使用第二视觉采集设备采集视觉信息之前,需要对该设备进行标定以确定视觉传感器的相机参数,相机参数包括主点、焦距和畸变校正参数等参数信息,其中畸变校正参数用于标识第二视觉采集设备的视觉传感器拍摄图像时产生的图像畸变。主点、焦距等参数用于对相机进行对焦。首先选定第二视觉采集设备的摄像头类型(深度、双目或单目),然后用第二视觉采集设备对摄像头标定图案拍摄多张(例如20至30张)不同角度的照片。通过对标定图案的检测和配准,计算出该第二视觉采集设备所采用视觉传感器的相机参数,然后用该相机参数对应视觉传感器进行矫正即得到经矫正的第二视觉采集设备。

s208、服务器将视觉特征库和三维场景模型发送给第二视觉采集设备。

s209、第二视觉采集设备从服务器接收视觉特征库和三维场景模型。

s210、第二视觉采集设备采集当前场景的第二视觉图像信息。

s211、第二视觉采集设备对第二视觉图像信息进行特征提取得到第二视觉特征。

对于角点特征描述方式来说,对第二视觉信息提取orb特征得到第二视觉信息的orb特征作为第二视觉特征。对于直线特征描述方式来说,对第二视觉信息提取整体灰度分布信息得到第二视觉信息的整体灰度分布特征作为第二视觉特征。

步骤s211对应于步骤s102。

s212、根据第二视觉特征、视觉特征库得到第二视觉采集设备采集第二视觉信息时的实时位姿。

参照图9中所示,步骤s212具体包括:

s2121、根据视觉特征库对第二视觉特征进行特征匹配。

示例性的,对于角点特征描述方式来说,根据关键帧orb特征库对第二视觉信息的orb特征进行特征匹配。示例性的,参照图10中所示为orb特征进行特征匹配的一种示例,其中的小方框为orb特征点。参照图11中所示为整体灰度分布特征进行特征匹配的一种示例。

s2122、对经特征匹配的第二视觉特征进行pnp(perspectivenpointproblem,透视n点问题)位姿计算得到第二视觉信息的实时位姿。

示例性的,对于角点特征描述方式来说,对经特征匹配的第二视觉信息的orb特征进行pnp位姿计算得到第二视觉采集设备的实时位姿。

s213、根据第二视觉信息的实时位姿与三维地图数据中对应的三维场景模型的映射关系,在第二视觉信息上加载三维场景模型,以实现第二视觉信息在三维场景模型中的定位。

示例性的,参照图12中所示为对orb特征进行三维场景定位的结果的示意图,图中的星型符号表示定位位置。参照图13中所示为对整体灰度分布特征进行三维场景定位的结果的示意图,图中的白色箭头表示定位位置和方向。步骤s212-s213对应于步骤s103。

本申请实施例提供的三维场景定位方法,第一视觉采集设备用当前场景的第一视觉信息更新视觉特征库并获取第一视觉采集设备的实时位姿,对第一视觉采集设备的实时位姿和与第一视觉信息对应的深度信息进行三维场景重建得到三维场景模型,然后将视觉特征库和三维场景模型发送给服务器;第二视觉采集设备从服务器获取视觉特征库和三维场景模型,然后对第二视觉信息提取视觉特征信息,根据视觉特征信息和视觉特征库得到实时位姿,根据实时位姿和三维场景模型实现定位,实现了第一视觉采集设备与第二视觉采集设备之间共享三维场景模型和视觉特征库,达到了共享三维地图数据的目的。

并且,本申请实施例可以实现高精度的三维地图数据共享,在离线的三维场景重建阶段,利用具有专用的彩色和深度传感器的视觉采集设备实现密集的三维重建,甚至可以通过高速计算单元进行智能地融合、去噪、删除重复点等运算,优化生成的三维点云数量,使得三维重建点云精度更高,以满足mr应用中的图形渲染要求。同时,将提取出这些高精度点云的视觉特征信息做为共享数据。在在线视觉采集设备定位阶段,可以使用任意视觉采集设备的视觉传感器(包括单目,双目摄像头等)进行定位,极大地拓展了mr的应用平台,成本大为降低,更易普及。

对于第一视觉信息包括第三视觉信息和第四视觉信息时,本申请实施例提供了又一种三维场景定位,参照图14中所示,包括:

s301、第一视觉采集设备采集当前场景的第三视觉信息和对应的深度信息。

s302、第一视觉采集设备对第三视觉信息和对应的深度信息进行三维场景重建以生成三维密集点云,或者对深度信息进行三维场景重建以生成所述三维密集点云。

例如在室内可以采用具有专用的彩色和深度传感器器件的移动设备(例如rgb-d,微软的kinect或者因特尔的realsense)采集rgb图像和其对应的深度图像数据形成三维密集点云(x,y,z)rgbd,在室外可利用三维激光雷达扫描深度信息形成三维密集点云(x,y,z)radar。

s303、第一视觉采集设备将三维密集点云发送给服务器。

s304、服务器从第一视觉采集设备接收三维密集点云。

s305、第二视觉采集设备采集当前场景的第四视觉信息。

s306、第二视觉采集设备对当前场景的第四视觉信息进行三维场景重建以生成vslam(visualsimultaneouslocalizationandmapping,视觉即时定位与地图构建)稀疏点云。

需要说明的是,第四视觉信息也可以为第三视觉信息,此时,由第一视觉采集设备对第三视觉信息进行三维场景重建以生成vslam稀疏点云。

vslam稀疏点云中的每个三维点(x,y,z)vslam对应视觉信息的特征信息fvslam(例如角点特征、直线特征或者形状特征等)。

s307、第二视觉采集设备将vslam稀疏点云发送给服务器。

s308、服务器从第二视觉采集设备接收vslam稀疏点云。

s309、服务器对三维密集点云与vslam稀疏点云配准对齐以重建三维场景模型。参照图15中所示,具体包括步骤s3091-s3093:

s3091、对vslam稀疏点云提取点云特征得到vslam稀疏点云特征,对三维密集点云提取点云特征得到三维密集点云特征。

示例性的,点云特征可以采用常见的点特征直方图(pointfeaturehistograms,pfh)、快速点特征直方图(fastpointfeaturehistograms,fpfh)、视点特征直方图(viewpointfeaturehistogram,vfh),方向直方图签名(signatureofhistogramsoforientations,shot)等等。

s3092、对vslam稀疏点云特征和三维密集点云特征进行三维点云配准计算得到vslam稀疏点云与三维密集点云之间的转换关系rt。

s3093、根据vslam稀疏点云与三维密集点云之间的转换关系将vslam稀疏点云与三维密集点云三维密集点配准对齐以重建三维场景模型。此时三维地图数据为三维场景模型。

最终,位于不同坐标系下的vslam稀疏点云和三维密集点云最终融合在一起形成一个三维点云,示例性的如图16中所示,vslam稀疏点云1601与三维密集点云1602融合成新的三维点云1603。步骤s302、s306、s309对应于步骤s101。

s310、服务器将三维场景模型发送给第二视觉采集设备。

s311、第二视觉采集设备从服务器接收三维场景模型。

s312、第二视觉采集设备采集第二视觉信息。

s313、第二视觉采集设备对第二视觉信息提取vslam视觉特征,vslam视觉特征中包含第二视觉采集设备采集第二视觉信息时的实时位姿。步骤s313对应于步骤s102。

s314、第二视觉采集设备根据第二视觉信息的实时位姿与三维地图数据中对应的三维场景模型的映射关系,在第二视觉信息上加载三维场景模型,以实现第二视觉信息在三维场景模型中的定位。

例如将当前设备的视角映射到三维场景模型中,在第二视觉采集设备上即可呈现高精度的三维地图环境信息。示例性的,参照图17中所示,可以将实时采集的第五视觉信息1701与对应的虚拟的三维场景模型1702显示在同一界面中。

另外,根据定位的结果,还可以进行路径规划和3d导航应用,最终呈现给用户或者客服。步骤s314对应于步骤s103。

本申请实施例提供的三维场景定位方法,第一视觉采集设备对第三视觉信息和对应的深度信息进行三维场景重建以生成三维密集点云,并将三维密集点云发送给服务器;第二视觉采集设备对第四视觉信息进行三维场景重建以生成vslam稀疏点云,并将vslam稀疏点云发送给服务器;由服务器对三维密集点云与vslam稀疏点云配准对齐以重建三维场景模型;第二视觉采集设备从服务器获取三维场景模型,对第五视觉信息提取vslam视觉特征,vslam视觉特征中包含第二视觉采集设备的实时位姿,然后根据第二视觉采集设备的实时位姿和三维场景模型对第二视觉采集设备进行定位,实现了第一视觉采集设备与第二视觉采集设备之间共享三维场景模型,达到了共享三维地图数据的目的。

本申请实施例可以根据上述方法示例对各设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。

在采用对应各个功能划分各个功能模块的情况下,图18示出了上述实施例中所涉及的三维场景定位装置的一种可能的结构示意图,三维场景定位装置10包括:生成单元1011、提取单元1012、定位单元1013、标定单元1014。生成单元1011用于支持三维场景定位装置执行图5中的过程s101,图6中的过程s202-s204,图7中的过程s2041和s2042,图14中的过程s302、s306、s309,图15中的过程s3091-s3093;提取单元1012用于支持三维场景定位装置执行图5中的过程s102,图6中的过程s211,图14中的过程s313;定位单元1013用于支持三维场景定位装置执行图5中的过程s103,图6中的过程s212和s213,图9中的过程s2121和s2122,图14中的过程s314;标定单元1014用于支持三维场景定位装置执行图6中的过程s207。其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。

在采用集成的单元的情况下,图19示出了上述实施例中所涉及的三维场景定位装置的一种可能的结构示意图。三维场景定位装置10包括:处理模块1022和通信模块1023。处理模块1022用于对三维场景定位装置的动作进行控制管理,例如,处理模块1022用于支持三维场景定位装置执行图5中的过程s101-s103。通信模块1013用于支持三维场景定位装置与其他实体的通信,例如与图1中示出的功能模块或网络实体之间的通信。三维场景定位装置10还可以包括存储模块1021,用于存储三维场景定位装置的程序代码和数据。

其中,处理模块1022可以是处理器或控制器,例如可以是中央处理器(centralprocessingunit,cpu),通用处理器,数字信号处理器(digitalsignalprocessor,dsp),专用集成电路(application-specificintegratedcircuit,asic),现场可编程门阵列(fieldprogrammablegatearray,fpga)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,dsp和微处理器的组合等等。通信模块1023可以是收发器、收发电路或通信接口等。存储模块1021可以是存储器。

当处理模块1022为处理器,通信模块1023为收发器,存储模块1021为存储器时,本申请实施例所涉及的三维场景定位装置可以为图20所示的三维场景定位装置。

参阅图20所示,该三维场景定位装置10包括:处理器1032、收发器1033、存储器1031、总线1034。其中,收发器1033、处理器1032、存储器1031通过总线1034相互连接;总线1034可以是外设部件互连标准(peripheralcomponentinterconnect,pci)总线或扩展工业标准结构(extendedindustrystandardarchitecture,eisa)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

结合本申请公开内容所描述的方法或者算法的步骤可以硬件的方式来实现,也可以是由处理器执行软件指令的方式来实现。本申请实施例还提供一种存储介质,该存储介质可以包括存储器1031,用于储存为三维场景定位装置所用的计算机软件指令,其包含执行三维场景定位方法所设计的程序代码。具体的,软件指令可以由相应的软件模块组成,软件模块可以被存放于随机存取存储器(randomaccessmemory,ram)、闪存、只读存储器(readonlymemory,rom)、可擦除可编程只读存储器(erasableprogrammablerom,eprom)、电可擦可编程只读存储器(electricallyeprom,eeprom)或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于asic中。另外,该asic可以位于三维场景定位装置中。当然,处理器和存储介质也可以作为分立组件存在于三维场景定位装置中。

本申请实施例还提供一种计算机程序,该计算机程序可直接加载到存储器1031中,并含有软件代码,该计算机程序经由计算机载入并执行后能够实现上述的三维场景定位方法。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1