多引擎可视化数据流实现方法、装置、设备及存储介质与流程

文档序号:31676939发布日期:2022-09-28 02:31阅读:102来源:国知局
多引擎可视化数据流实现方法、装置、设备及存储介质与流程

1.本技术属于多引擎可视化数据流技术领域,尤其涉及一种多引擎可视化数据流实现方法、装置、设备及计算机可读存储介质。


背景技术:

2.可视化数据流引擎一般是依托于开源大数据计算引擎完成计算任务,其运行流程如图1所示:先是前端生成配置,然后后端传递配置给可视化数据流引擎。其中,可视化数据流引擎对其依次进行如下步骤:(1)获取并解析配置;(2)根据配置生成开源计算引擎作业;(3)提交并管理开源计算引擎作业。最后,利用开源计算引擎运行作业。
3.但是,目前的可视化数据流方案至少存在以下缺点:只能接入一种开源计算引擎,无法接入多个开源计算引擎,限制了数据处理的灵活性。因此,如何提高数据处理的灵活性是本领域技术人员亟需解决的技术问题。


技术实现要素:

4.本技术实施例提供一种多引擎可视化数据流实现方法、装置、设备及计算机可读存储介质,能够提高数据处理的灵活性。
5.第一方面,本技术实施例提供一种多引擎可视化数据流实现方法,包括:
6.获取配置文件和目标数据;
7.解析配置文件,得到对应的配置属性信息;其中,配置属性信息至少包括至少两种开源计算引擎的标识;
8.根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎;
9.利用至少两种开源计算引擎对目标数据进行数据处理。
10.进一步地,配置属性信息还包括至少两种数据结构的标识;在解析配置文件,得到对应的配置属性信息之后,方法还包括:
11.基于至少两种数据结构的标识,确定对应的至少两种数据结构;
12.利用至少两种数据结构对目标数据进行数据分析。
13.进一步地,配置属性信息还包括数据流标识、数据流名称和数据流步骤;
14.其中,每个数据流步骤包括步骤的输入标识、步骤的输出标识、步骤所用开源计算引擎的标识、步骤所用数据结构的标识;
15.其中,步骤所用开源计算引擎的标识为至少两种开源计算引擎的标识中的一种;步骤所用数据结构的标识为至少两种数据结构的标识中的一种。
16.进一步地,利用至少两种开源计算引擎对目标数据进行数据处理和利用至少两种数据结构对目标数据进行数据分析,包括:
17.在第一数据流步骤,利用第一开源计算引擎对第一目标数据进行数据处理,利用第一数据结构对数据处理后的第一目标数据进行数据分析;
18.在第二数据流步骤,利用第二开源计算引擎对第二目标数据进行数据处理,利用
第二数据结构对数据处理后的第二目标数据进行数据分析;
19.其中,第一开源计算引擎和第二开源计算引擎为不同种开源计算引擎;第一数据结构和第二数据结构为不同种数据结构。
20.进一步地,第一开源计算引擎和第二开源计算引擎为spark引擎、flink引擎中不同种开源计算引擎。
21.进一步地,第一数据结构和第二数据结构为dataframe数据结构、dataset数据结构中不同种数据结构。
22.进一步地,获取配置文件,包括:
23.在前端设备生成配置文件后,通过后端设备传递配置文件以获取配置文件。
24.第二方面,本技术实施例提供了一种多引擎可视化数据流实现装置,包括:
25.获取模块,用于获取配置文件和目标数据;
26.解析模块,用于解析配置文件,得到对应的配置属性信息;其中,配置属性信息至少包括至少两种开源计算引擎的标识;
27.接入模块,用于根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎;
28.数据处理模块,用于利用至少两种开源计算引擎对目标数据进行数据处理。
29.进一步地,配置属性信息还包括至少两种数据结构的标识;装置还包括:
30.确定模块,用于基于至少两种数据结构的标识,确定对应的至少两种数据结构;
31.数据分析模块,用于利用至少两种数据结构对目标数据进行数据分析。
32.进一步地,配置属性信息还包括数据流标识、数据流名称和数据流步骤;
33.其中,每个数据流步骤包括步骤的输入标识、步骤的输出标识、步骤所用开源计算引擎的标识、步骤所用数据结构的标识;
34.其中,步骤所用开源计算引擎的标识为至少两种开源计算引擎的标识中的一种;步骤所用数据结构的标识为至少两种数据结构的标识中的一种。
35.进一步地,数据处理模块和数据分析模块,用于:
36.在第一数据流步骤,利用第一开源计算引擎对第一目标数据进行数据处理,利用第一数据结构对数据处理后的第一目标数据进行数据分析;
37.在第二数据流步骤,利用第二开源计算引擎对第二目标数据进行数据处理,利用第二数据结构对数据处理后的第二目标数据进行数据分析;
38.其中,第一开源计算引擎和第二开源计算引擎为不同种开源计算引擎;第一数据结构和第二数据结构为不同种数据结构。
39.进一步地,第一开源计算引擎和第二开源计算引擎为spark引擎、flink引擎中不同种开源计算引擎。
40.进一步地,第一数据结构和第二数据结构为dataframe数据结构、dataset数据结构中不同种数据结构。
41.进一步地,获取模块,用于:
42.在前端设备生成配置文件后,通过后端设备传递配置文件以获取配置文件。
43.第三方面,本技术实施例提供了一种电子设备,电子设备包括:处理器以及存储有计算机程序指令的存储器;
44.处理器执行计算机程序指令时实现如第一方面所示的多引擎可视化数据流实现方法。
45.第四方面,本技术实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如第一方面所示的多引擎可视化数据流实现方法。
46.本技术实施例的多引擎可视化数据流实现方法、装置、设备及计算机可读存储介质,能够提高数据处理的灵活性。
47.该多引擎可视化数据流实现方法,包括:获取配置文件和目标数据;解析配置文件,得到对应的配置属性信息;其中,配置属性信息至少包括至少两种开源计算引擎的标识;根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎;利用至少两种开源计算引擎对目标数据进行数据处理。
48.可见,该方法通过根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎,并利用至少两种开源计算引擎对目标数据进行数据处理。也即,集成多个开源计算引擎,一个数据流能同时运用多个开源计算引擎进行数据处理,极大提升了数据处理的灵活性。
附图说明
49.为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
50.图1是现有技术中的可视化数据流引擎的运行流程示意图;
51.图2是本技术一个实施例提供的多引擎可视化数据流实现方法的流程示意图;
52.图3是本技术一个实施例提供的多引擎可视化数据流实现装置的结构示意图;
53.图4是本技术一个实施例提供的xx设备的结构示意图。
具体实施方式
54.下面将详细描述本技术的各个方面的特征和示例性实施例,为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本技术进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本技术,而不是限定本技术。对于本领域技术人员来说,本技术可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本技术的示例来提供对本技术更好的理解。
55.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
56.可视化数据流引擎一般是依托于开源大数据计算引擎完成计算任务,其运行流程如图1所示:先是前端生成配置,然后后端传递配置给可视化数据流引擎。其中,可视化数据流引擎对其依次进行如下步骤:(1)获取并解析配置;(2)根据配置生成开源计算引擎作业;(3)提交并管理开源计算引擎作业。最后,利用开源计算引擎运行作业。
57.但是,目前的可视化数据流方案至少存在以下缺点:1)只能接入一种开源计算引擎,无法接入多个开源计算引擎,限制了数据处理的灵活性。2)只能依托一种数据结构进行数据分析,无法以任意数据结构进行数据分析,限制了数据分析的灵活性。
58.为了解决现有技术问题,本技术实施例提供了一种多引擎可视化数据流实现方法、装置、设备及计算机可读存储介质。下面首先对本技术实施例所提供的多引擎可视化数据流实现方法进行介绍。
59.图2示出了本技术一个实施例提供的多引擎可视化数据流实现方法的流程示意图。如图2所示,该多引擎可视化数据流实现方法,包括:
60.s201、获取配置文件和目标数据;
61.其中,在一个实施例中,获取配置文件,包括:
62.在前端设备生成配置文件后,通过后端设备传递配置文件以获取配置文件。
63.用户可以在前端设备上依据用户需求生成配置文件,然后通过后端设备传递该配置文件。
64.s202、解析配置文件,得到对应的配置属性信息;其中,配置属性信息至少包括至少两种开源计算引擎的标识;
65.s203、根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎;
66.s204、利用至少两种开源计算引擎对目标数据进行数据处理。
67.可见,该方法通过根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎,并利用至少两种开源计算引擎对目标数据进行数据处理。也即,集成多个开源计算引擎,一个数据流能同时运用多个开源计算引擎进行数据处理,极大提升了数据处理的灵活性。
68.由上文可知,目前的可视化数据流方案至少还存在以下缺点:只能依托一种数据结构进行数据分析,无法以任意数据结构进行数据分析,限制了数据分析的灵活性。
69.为了提高数据分析的灵活性,在一个实施例中,配置属性信息还包括至少两种数据结构的标识;在解析配置文件,得到对应的配置属性信息之后,方法还包括:
70.基于至少两种数据结构的标识,确定对应的至少两种数据结构;
71.利用至少两种数据结构对目标数据进行数据分析。
72.该实施例利用至少两种数据结构对目标数据进行数据分析,可以提高数据分析的灵活性。
73.进一步地,在一个实施例中,配置属性信息还包括数据流标识、数据流名称和数据流步骤;
74.其中,每个数据流步骤包括步骤的输入标识、步骤的输出标识、步骤所用开源计算引擎的标识、步骤所用数据结构的标识;
75.其中,步骤所用开源计算引擎的标识为至少两种开源计算引擎的标识中的一种;步骤所用数据结构的标识为至少两种数据结构的标识中的一种。
76.为了同时提高数据处理和数据分析的灵活性,在一个实施例中,利用至少两种开源计算引擎对目标数据进行数据处理和利用至少两种数据结构对目标数据进行数据分析,包括:
77.在第一数据流步骤,利用第一开源计算引擎对第一目标数据进行数据处理,利用第一数据结构对数据处理后的第一目标数据进行数据分析;
78.在第二数据流步骤,利用第二开源计算引擎对第二目标数据进行数据处理,利用第二数据结构对数据处理后的第二目标数据进行数据分析;
79.其中,第一开源计算引擎和第二开源计算引擎为不同种开源计算引擎;第一数据结构和第二数据结构为不同种数据结构。
80.该实施例中的每一个数据流步骤,均采用了对应的开源计算引擎和数据结构。而且,不同的数据流步骤之间,采用了不同的开源计算引擎和数据结构,故能够同时提高数据处理和数据分析的灵活性。
81.为了进一步提高数据处理的灵活性,在一个实施例中,第一开源计算引擎和第二开源计算引擎为spark引擎、flink引擎中不同种开源计算引擎。
82.spark引擎是一种与hadoop相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使spark引擎在某些工作负载方面表现得更加优越,换句话说,spark引擎启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。spark引擎是在scala语言中实现的,它将scala用作其应用程序框架。与hadoop不同,spark引擎和scala能够紧密集成,其中的scala可以像操作本地集合对象一样轻松地操作分布式数据集。尽管创建spark引擎是为了支持分布式数据集上的迭代作业,但是实际上它是对hadoop的补充,可以在hadoop文件系统中并行运行。
83.通过名为mesos的第三方集群框架可以支持此行为。spark引擎,可用来构建大型的、低延迟的数据分析应用程序。
84.spark引擎主要有三个特点:首先,高级api剥离了对集群本身的关注,spark引擎应用开发者可以专注于应用所要做的计算本身。
85.其次,spark引擎很快,支持交互式计算和复杂算法。
86.最后,spark引擎是一个通用引擎,可用它来完成各种各样的运算,包括sql查询、文本处理、机器学习等,而在spark引擎出现之前,我们一般需要学习各种各样的引擎来分别处理这些需求。
87.spark引擎的性能特点:
88.(1)更快的速度:
89.内存计算下,spark引擎比hadoop快100倍。
90.(2)易用性:
91.spark引擎提供了80多个高级运算符。
92.(3)通用性:
93.spark擎提供了大量的库,包括sql、dataframes、mllib、graphx、spark擎streaming。开发者可以在同一个应用程序中无缝组合使用这些库。
94.(4)支持多种资源管理器:
95.spark引擎支持hadoopyarn,apachemesos,及其自带的独立集群管理器spark引擎
生态系统。
96.flink引擎的特点:
97.(1)同时支持高吞吐、低延迟、高性能;
98.(2)支持事件时间概念(event time):
99.大多数窗口计算采用的都是系统时间(process time),也是事件传输到计算框架时,系统主机的当前时间。flink引擎能够支持基于时间事件时间(event time)语义进行窗口计算,也就是时间产生的时间。这种基于时间驱动的机制使得事件即使是乱序到达,流系统也能够计算出精确的结果,保持了时间原本产生的时序性。尽量避免网络传输或硬件系统影响。
100.(3)支持有状态计算:
101.flink引擎实现了状态管理,所谓的状态就是流式计算过程中将算子的中间结果数据保存在内存中或者是文件系统中,等下一个时间进入算子后可以从之前的状态中获取中间结果中计算当前的结果,从而无需每次都基于全部的原始数据来统计结果,这种方式极大提升了系统的性能,并降低了计算过程资源的消耗,对于数据量大且运算逻辑非常复杂的流式计算场景,有状态发挥了非常重要的作用。
102.(4)支持高度灵活的窗口(window)操作:
103.在流处理应用中,数据是连续不断的,需要通过窗口的方式对数据进行一定范围的聚合计算,例如统计在过去一分钟内多少用户点击某一网页,在这种情况下,我们必须定义一个窗口,用来收集最近一分钟的数据,并对窗口内的数据进行统计计算。flink引擎将窗口划分为基于time,count,session,以及data-driven等类型的窗口操作,窗口可以用灵活的触发条件定制化达到对复杂的流传输模式的支持,用户可以定义不同窗口触发机制来满足不同的需求。
104.(5)基于轻量级分布式快照(checkpoint)实现的容错:
105.flink引擎能够分布式运行在上千个节点上,将一个大型计算任务的流程拆解成小的计算过程,然后将task分布到并行节点上进行处理,在执行任务过程中,能够自动发现事件处理过程中的错误而导致数据不一致的问题。比如:节点宕机、网路传输问题,或是由于用户因为升级或修复问题导致计算服务重启等。在这些情况下,通过基于分布式快照技术checkpoints,将执行过程中的状态信息进行持久化存储,一但任务出现异常停止,flink引擎就能够从checkpoint中进行任务的自动恢复,以确保数据在处理过程中的一致性(exactly-once)。
106.(6)基于jvm实现独立的内存管理:
107.内存管理是所有计算框架需要重点考虑的部分,尤其对于计算量比较大的计算场景,数据在内存中该如何进行管理显得至关重要,针对内存管理,flink引擎实现了自身管理内存机制,尽可能减少jvm gc对系统的影响,另外,flink引擎通过序列化/反序列化方法将所有的数据对象转化为二进制在内存中存储,降低gc带来的性能下降或任务异常的风险,因此flink引擎较其他分布式处理的框架显得更加稳定,不会因为jvm gc等问题而影响整个应用的运行。
108.(5)save point(保存点):
109.对于7*24小时运行的流式运用,数据源源不断地接入,在一段时间内应用的终止
有可能导致数据丢失或者计算结果不准确,例如进行集群版本的升级、停机运维操作等。值得一提的是,flink引擎通过save points技术将任务执行的快照保存在存储介质上,当任务重启的时候可以直接从事保存的save points恢复原有的计算状态,使得任务继续按照停机之前的状态运行,sava point技术可以让用户更好的管理和运维。
110.基于上述spark引擎、flink引擎的特点和性能,故能够进一步提高数据处理的灵活性。
111.为了进一步提高数据分析的灵活性,在一个实施例中,第一数据结构和第二数据结构为dataframe数据结构、dataset数据结构中不同种数据结构。
112.为了支持结构化数据的处理,spark sql提供了新的数据结构dataframe。dataframe是一个由具名列组成的数据集。它在概念上等同于关系数据库中的表或r/python语言中的data frame。由于spark sql支持多种语言的开发,所以每种语言都定义了dataframe的抽象。
113.dataframe内部的有明确scheme结构,即列名、列字段类型都是已知的,这带来的好处是可以减少数据读取以及更好地优化执行计划,从而保证查询效率。
114.dataset也是分布式的数据集合,在spark1.6版本被引入,它集成了rdd和dataframe的优点,具备强类型的特点,同时支持lambda函数,但只能在scala和java语言中使用。在spark2.0后,为了方便开发者,spark将dataframe和dataset的api融合到一起,提供了结构化的api(structuredapi),即用户可以通过一套标准的api就能完成对两者的操作。
115.基于上述dataframe数据结构、dataset数据结构的特点和性能,故能够进一步提高数据分析的灵活性。
116.具体地,在一个实施例中,一个可视化数据流是由一个配置文件描述的,下述json字符串描述了一个可视化数据流:
[0117][0118][0119]
字段说明:flowid是数据流标识,name是数据流名称,steps是数据流步骤,每个步骤有5个属性,stepid是步骤标识,inputlanes是该步骤的输入标识,outputlanes是该步骤的输出标识,engine是该步骤所用开源引擎的标识,datastructure是该步骤的数据结构标识。
[0120]
engine与datastructure是本技术的独有属性,通过这两个属性指定该步骤所使用的的引擎与数据结构,可视化数据流引擎根据这两个属性决定使用哪种引擎、哪种数据结构来运行该步骤所包含的逻辑,以上数据流能同时运用两种开源计算引擎、两种数据结构,step1将使用spark引擎进行数据处理,使用dataframe数据结构进行数据分析,step2将
使用flink引擎进行数据处理,使用dataset数据结构进行数据分析。
[0121]
该实施例集成多个开源计算引擎,一个数据流能同时运用多个开源计算引擎进行数据处理,极大提升了数据处理的灵活性。允许开发者以任意数据结构进行数据分析,一个数据流能运用多个数据结构进行数据分析,极大提升了数据分析的灵活性。
[0122]
图3是本技术一个实施例提供的多引擎可视化数据流实现装置的结构示意图,该多引擎可视化数据流实现装置,包括:
[0123]
获取模块301,用于获取配置文件和目标数据;
[0124]
解析模块302,用于解析配置文件,得到对应的配置属性信息;其中,配置属性信息至少包括至少两种开源计算引擎的标识;
[0125]
接入模块303,用于根据至少两种开源计算引擎的标识,接入对应的至少两种开源计算引擎;
[0126]
数据处理模块304,用于利用至少两种开源计算引擎对目标数据进行数据处理。
[0127]
在一个实施例中,配置属性信息还包括至少两种数据结构的标识;装置还包括:
[0128]
确定模块,用于基于至少两种数据结构的标识,确定对应的至少两种数据结构;
[0129]
数据分析模块,用于利用至少两种数据结构对目标数据进行数据分析。
[0130]
在一个实施例中,配置属性信息还包括数据流标识、数据流名称和数据流步骤;
[0131]
其中,每个数据流步骤包括步骤的输入标识、步骤的输出标识、步骤所用开源计算引擎的标识、步骤所用数据结构的标识;
[0132]
其中,步骤所用开源计算引擎的标识为至少两种开源计算引擎的标识中的一种;步骤所用数据结构的标识为至少两种数据结构的标识中的一种。
[0133]
在一个实施例中,数据处理模块304和数据分析模块,用于:
[0134]
在第一数据流步骤,利用第一开源计算引擎对第一目标数据进行数据处理,利用第一数据结构对数据处理后的第一目标数据进行数据分析;
[0135]
在第二数据流步骤,利用第二开源计算引擎对第二目标数据进行数据处理,利用第二数据结构对数据处理后的第二目标数据进行数据分析;
[0136]
其中,第一开源计算引擎和第二开源计算引擎为不同种开源计算引擎;第一数据结构和第二数据结构为不同种数据结构。
[0137]
在一个实施例中,第一开源计算引擎和第二开源计算引擎为spark引擎、flink引擎中不同种开源计算引擎。
[0138]
在一个实施例中,第一数据结构和第二数据结构为dataframe数据结构、dataset数据结构中不同种数据结构。
[0139]
在一个实施例中,获取模块301,用于:
[0140]
在前端设备生成配置文件后,通过后端设备传递配置文件以获取配置文件。
[0141]
图3所示装置中的各个模块具有实现图2中各个步骤的功能,并能达到其相应的技术效果,为简洁描述,在此不再赘述。
[0142]
图4示出了本技术实施例提供的电子设备的结构示意图。
[0143]
电子设备可以包括处理器401以及存储有计算机程序指令的存储器402。
[0144]
具体地,上述处理器401可以包括中央处理器(cpu),或者特定集成电路(application specific integrated circuit,asic),或者可以被配置成实施本技术实施
例的一个或多个集成电路。
[0145]
存储器402可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器402可包括硬盘驱动器(hard disk drive,hdd)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(universal serial bus,usb)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器402可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器402可在电子设备的内部或外部。在特定实施例中,存储器402可以是非易失性固态存储器。
[0146]
在一个实施例中,存储器402可以是只读存储器(read only memory,rom)。在一个实施例中,该rom可以是掩模编程的rom、可编程rom(prom)、可擦除prom(eprom)、电可擦除prom(eeprom)、电可改写rom(earom)或闪存或者两个或更多个以上这些的组合。
[0147]
处理器401通过读取并执行存储器402中存储的计算机程序指令,以实现上述实施例中的任意一种多引擎可视化数据流实现方法。
[0148]
在一个示例中,电子设备还可包括通信接口403和总线410。其中,如图4所示,处理器401、存储器402、通信接口403通过总线410连接并完成相互间的通信。
[0149]
通信接口403,主要用于实现本技术实施例中各模块、装置、单元和/或设备之间的通信。
[0150]
总线410包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(agp)或其他图形总线、增强工业标准架构(eisa)总线、前端总线(fsb)、超传输(ht)互连、工业标准架构(isa)总线、无限带宽互连、低引脚数(lpc)总线、存储器总线、微信道架构(mca)总线、外围组件互连(pci)总线、pci-express(pci-x)总线、串行高级技术附件(sata)总线、视频电子标准协会局部(vlb)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线410可包括一个或多个总线。尽管本技术实施例描述和示出了特定的总线,但本技术考虑任何合适的总线或互连。
[0151]
另外,结合上述实施例中的多引擎可视化数据流实现方法,本技术实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种多引擎可视化数据流实现方法。
[0152]
需要明确的是,本技术并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本技术的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本技术的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
[0153]
以上所述的结构框图中所示的功能模块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(asic)、适当的固件、插件、功能卡等等。当以软件方式实现时,本技术的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、rom、闪存、可擦除rom(erom)、软盘、cd-rom、光盘、硬盘、光纤介质、射频(rf)链路,等等。代码段可以经由诸如因特网、内联
网等的计算机网络被下载。
[0154]
还需要说明的是,本技术中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本技术不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
[0155]
上面参考根据本技术的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本技术的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
[0156]
以上所述,仅为本技术的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1