数据分析处理的方法和系统的制作方法

文档序号:10471263阅读:290来源:国知局
数据分析处理的方法和系统的制作方法
【专利摘要】本发明涉及一种数据分析处理的方法和系统。上述方法包括以下步骤:进入预先建立的数据分析处理新工程;在所述数据分析处理新工程中访问功能节点;读取目标文件并导入数据;根据需求信息生成数据计算处理脚本;在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理。上述数据分析处理的方法和系统,能够执行数据计算处理脚本,对复杂的数据进行分析处理,且所有的数据处理过程均在功能节点中完成,数据不需要在多个节点之间流转,数据处理过程简单,提高了数据处理效率。
【专利说明】
数据分析处理的方法和系统
技术领域
[0001]本发明涉及数据处理技术领域,特别是涉及一种数据分析处理的方法和系统。
【背景技术】
[0002]ETL,是英文Extract-Transform-Load的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transf orm)、加载(load)至目的端的过程,常见的ETL工具可包括Datastage、kettIe、0WB(0racle Warehouse Builder)等。传统的ETL工具,不具有执行脚本的功能,不能执行现有的数据分析函数和第三方扩展库,无法对复杂的需要科学计算的数据进行分析处理。此外,传统的ETL工具,例如kettle,只能处理流式数据,在数据处理过程中,需要通过一个节点加载数据,然后通过下一个节点对数据进行转换、清洗,到最后流入到结束节点,需要经过一系列的节点,数据处理过程复杂繁琐,处理效率低。

【发明内容】

[0003]基于此,有必要提供一种数据分析处理的方法,能够对复杂的数据进行分析处理,且数据处理过程简单,提高数据处理效率。
[0004]此外,还有必要提供一种数据分析处理的系统,能够对复杂的数据进行分析处理,且数据处理过程简单,提高数据处理效率。
[0005]—种数据分析处理的方法,包括以下步骤:
[0006]进入预先建立的数据分析处理新工程;
[0007]在所述数据分析处理新工程中访问功能节点;
[0008]读取目标文件并导入数据;
[0009]根据需求信息生成数据计算处理脚本;
[0010]在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理。
[0011]在其中一个实施例中,在所述进入预先建立的数据分析处理新工程的步骤之前,还包括:
[0012]建立数据分析处理新工程;
[0013]所述建立数据分析处理新工程的步骤,包括:
[0014]获取数据分析源工程代码;
[0015]创建数据分析处理新工程,并在所述数据分析处理新工程中导入所述数据分析源工程代码;
[0016]在所述数据分析处理新工程中创建功能节点;
[0017]调用数据计算工具数据包,并根据预设的节点开发模板将所述数据计算工具数据包中的数据融入所述数据分析处理新工程;
[0018]存储所述数据分析处理新工程。
[0019]在其中一个实施例中,在所述存储所述数据分析处理新工程的步骤之前,还包括:
[0020]获取所述数据计算工具数据包中的科学计算扩展库;
[0021]在所述功能节点中建立所述科学计算扩展库与所述数据分析处理新工程的关联关系;
[0022]修改所述数据分析处理新工程的基础配置,并将所述功能节点打包。
[0023]在其中一个实施例中,在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理的步骤之后,还包括:
[0024]接收生成数据图表的操作请求;
[0025]根据所述操作请求调用所述科学计算扩展库中的图形处理扩展库的相关函数对处理后的数据进行分析,并生成对应的数据图表文件。
[0026]在其中一个实施例中,所述方法还包括:
[0027]获取距离最近的Hadoop集群,并将处理后的数据存储在所述距离最近的Hadoop集群中。
[0028]一种数据分析处理的系统,包括:
[0029]进入模块,用于进入预先建立的数据分析处理新工程;
[0030]访问模块,用于在所述数据分析处理新工程中访问功能节点;
[0031 ]读取模块,用于读取目标文件并导入数据;
[0032]生成脚本模块,用于根据需求信息生成数据计算处理脚本;
[0033]调用模块,用于在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理。
[0034]在其中一个实施例中,所述系统还包括:
[0035]建立模块,用于建立数据分析处理新工程;
[0036]所述建立模块包括:
[0037]获取单元,用于获取数据分析源工程代码;
[0038]导入单元,用于创建数据分析处理新工程,并在所述数据分析处理新工程中导入所述数据分析源工程代码;
[0039]创建单元,用于在所述数据分析处理新工程中创建功能节点;
[0040]调用单元,用于调用数据计算工具数据包,并根据预设的节点开发模板将所述数据计算工具数据包中的数据融入所述数据分析处理新工程;
[0041 ]存储单元,用于存储所述数据分析处理新工程。
[0042]在其中一个实施例中,所述获取单元还用于获取所述数据计算工具数据包中的科学计算扩展库;
[0043]所述建立模块还包括:
[0044]关联单元,用于在所述功能节点中建立所述科学计算扩展库与所述数据分析处理新工程的关联关系;
[0045]修改单元,用于修改所述数据分析处理新工程的基础配置,并将所述功能节点打包。
[0046]在其中一个实施例中,所述系统还包括:
[0047]接收模块,用于接收生成数据图表的操作请求;
[0048]生成图表模块,用于根据所述操作请求调用所述科学计算扩展库中的图形处理扩展库的相关函数对处理后的数据进行分析,并生成对应的数据图表文件。
[0049]在其中一个实施例中,所述系统还包括:
[0050]存储模块,用于获取距离最近的Hadoop集群,并将处理后的数据存储在所述距离最近的Hadoop集群中。
[0051]上述数据分析处理的方法和系统,在数据分析处理新工程中访问功能节点,读取目标文件导入数据后,可调用根据需求信息生成的数据计算处理脚本对数据进行处理,能够执行数据计算处理脚本,对复杂的数据进行分析处理,且所有的数据处理过程均在功能节点中完成,数据不需要在多个节点之间流转,数据处理过程简单,提高了数据处理效率。
【附图说明】
[0052]图1为一个实施例中数据分析处理的方法的流程示意图;
[0053]图2为一个实施例中建立数据分析处理新工程的流程示意图;
[0054]图3为一个实施例中生成数据图表的流程示意图;
[0055]图4为一个实施例中数据分析处理的系统的结构示意图;
[0056]图5为另一个实施例中数据分析处理的系统的结构示意图;
[0057]图6为一个实施例中建立模块的内部结构不意图;
[0058]图7为另一个实施例中数据分析处理的系统的结构示意图。
【具体实施方式】
[0059]为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
[0060]如图1所示,一种数据分析处理的方法,包括以下步骤:
[0061]步骤S110,进入预先建立的数据分析处理新工程。
[0062]具体的,数据分析处理新工程指的是在ETL(Extract-Transform-Load)工具中融入科学计算功能所建立的新工程。ETL工具负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。常见的ETL工具可包括Datastage、kettle(水壶)NOffB(OracIe Warehouse Builder)等,其中,Datastage是一种数据集成软件平台,具有满足最苛刻的数据集成需求所需的功能性、灵活性和可伸缩性;kettle是由纯java编写的一款开源的ETL工具,可以在Windows、Linux、Unix上运行,主要用于数据的抽取,具有高效稳定的特点;OWB是Oracle的一个综合工具,它提供对ETL、完全集成的关系和维度建模、数据质量、数据审计,以及数据和元数据的整个生命周期的管理。在本实施例中,可在ETL工具kettle中融入python的科学计算功能,python是一种面向对象、解释型计算机程序设计语言,它具有丰富的扩展库,可以对数据进行科学计算,帮助完成各种高级的数据分析任务。科学计算指的是为解决科学和工程中的数学问题利用计算机进行的数值计算,主要包括建立数学模型、建立求解的计算方法和计算机实现三个阶段,常用的科学计算语言、软件包括F0RTRANALG0L、MATLAB等,可以理解地,也可以使用其它具有科学计算功能的语言与ETL工具结合,不限于此。
[0063]步骤S120,在数据分析处理新工程中访问功能节点。
[0064]具体的,在kettle中融入python的科学计算功能,并开发生成功能节点,该功能节点可提供多种科学计算功能,例如执行python代码、调用python的科学计算扩展库进行数据分析运算等,python的科学计算扩展库可包括NumPy、ScriPy和matplotlib等,分别提供快速数组处理、数值运算以及绘图功能。在数据分析处理新工程中访问功能节点,可使用功能节点中的多种科学计算功能。
[0065]步骤S130,读取目标文件并导入数据。
[0066]具体的,目标文件可存储在本地或是分布式存储系统的服务器集群上。访问功能节点后,可从本地或分布式存储系统的服务器集群中选择所需的目标文件,读取该目标文件并导入需要处理的数据。
[0067]步骤S140,根据需求信息生成数据计算处理脚本。
[0068]具体的,需求信息指的是对数据所需作出的分析处理需求,例如需要调用NumPy扩展库中的矢量处理函数对数据中的数组进行处理,或是需要对导入的数据进行批量处理等。可根据不同的需求信息生成对应的python数据计算处理脚本,并存储生成的数据计算处理脚本,使下次进行数据处理时可直接调用该数据计算处理脚本,无需重新生成。
[0069]步骤S150,在功能节点中调用数据计算处理脚本,对数据进行分析处理。
[ΟΟΤ?]具体的,在功能节点中可直接执行根据需求信息生成的python数据计算处理脚本,并根据python数据计算处理脚本对数据进行分析处理,例如数据抽取、数据清洗、数据转换、数值运算等操作,其中,数据清洗指的是对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性,数据转换指的是将数据从一种表示形式变为另一种表现形式的过程。也可通过python数据计算处理脚本调用科学计算扩展库中的函数,对数据进行科学计算。在其它的实施例中,在功能节点中可直接读取具有目标后缀的脚本文件,例如执行后缀为.Py的脚本文件。
[0071]上述数据分析处理的方法,在数据分析处理新工程中访问功能节点,读取目标文件导入数据后,可调用根据需求信息生成的数据计算处理脚本对数据进行处理,能够执行数据计算处理脚本,对复杂的数据进行分析处理,且所有的数据处理过程均在功能节点中完成,数据不需要在多个节点之间流转,数据处理过程简单,提高了数据处理效率。
[0072]在另一个实施例中,在步骤SI10进入预先建立的数据分析处理新工程之前,还包括:建立数据分析处理新工程。
[0073]如图2所示,在一个实施例中,建立数据分析处理新工程的步骤,包括:
[0074]步骤S202,获取数据分析源工程代码。
[0075]具体的,数据分析源工程代码指的是ETL工具的工程源码,例如kettle的工程源码等。获取数据分析源工程代码后,可对数据分析源工程代码进行解压,得到对应的工程文件。
[0076]步骤S204,创建数据分析处理新工程,并在数据分析处理新工程中导入数据分析源工程代码。
[0077]具体的,可在Eclipse等开发环境中以新工程的形式导入数据分析源工程代码,SP在Eclipse等开发环境中创建新工程作为数据分析处理新工程,并将解压得到的ETL工具,例如kettle的工程源码导入数据分析处理新工程。
[0078]步骤S206,在数据分析处理新工程中创建功能节点。
[0079]具体的,可在数据分析处理新工程中创建功能节点,并根据kettle工具提供的多个接口开发该功能节点,例如利用TemplateStepDialog对话框类实现功能节点的功能界面等。在数据分析处理新工程中创建功能节点相当于在ket 11 e工具原有的流程处理节点中重新定制的一个流程处理节点,功能节点也可看作kettle工具新开发的一个插件,该重新定制开发的功能节点主要用于处理需要进行科学计算或是复杂分析的数据。
[0080]步骤S208,调用数据计算工具数据包,并根据预设的节点开发模板将数据计算工具数据包中的数据融入数据分析处理新工程。
[0081 ]具体的,数据计算工具数据包可包括python代码及python自带的丰富的扩展库数据包,例如NumPy、ScriPy和matplotlib等科学计算扩展库的数据包。可在kettle工具的源码的插件式节点开发的基础上,根据kettle中原有的节点开发模板将数据计算工作数据包融入到数据分析处理新工程中,利用kettle工具中的四大类实现功能节点编辑、执行、保存python数据计算处理脚本的功能,其中,四大类分别为TemplateStep步骤类、Temp IateStepData数据类、Temp late StepMeta元数据类及Temp IateStepDia log对话框类。不同的类提供不同的接口,可调用各个接口融入数据计算工具数据包中的数据使功能节点具有编辑、执行、保存python数据计算处理脚本等功能。
[0082]步骤S210,获取数据计算工具数据包中的科学计算扩展库。
[0083]具体的,数据计算工具数据包中可包括NumPy、ScriPy和matplotlib等科学计算扩展库的数据,NumPy可用来存储和处理大型矩阵,ScriPy可用于抓取web站点并从页面中提取结构化的数据,matplotlib可用于提供图表生成等。python的科学计算功能相比起其它的科学计算软件或语言来说,具有更加丰富的扩展库,且扩展库均是开源,python可提供各种调用接口用于分析处理数据,语言更为简单易读,容易维护,可轻松完成各种数据处理的高级任务。
[0084]步骤S212,在功能节点中建立科学计算扩展库与数据分析处理新工程的关联关系O
[0085]具体的,在功能节点中建立NumPy、ScriPy和matplotlib等科学计算扩展库与数据分析处理新工程的关联关系,在功能节点中通过执行python数据计算处理脚本,调用python提供的对应的接口,即可使用科学计算扩展库中的科学计算功能,分析处理数据。
[0086]步骤S214,修改数据分析处理新工程的基础配置,并将功能节点打包。
[0087]具体的,可在plugin.xml等配置文件中修改数据分析处理新工程的基础配置,例如添加功能节点对应的名称及描述等,但不限于此。修改完基础配置后,可将功能节点打包,并存储在kettle的插件文件夹中。
[0088]步骤S216,存储数据分析处理新工程。
[0089]具体的,开发完成数据分析处理新工程的功能节点后,可在本地或分布式存储系统的服务器集群中存储数据分析处理新工程。在本地或分布式存储系统的服务器集群中可使用数据分析处理新工程并发处理多项数据,提高数据处理效率。
[0090]上述数据分析处理的方法,通过在数据分析处理新工程中创建并开发功能节点,使功能节点提供编辑、执行、保存数据计算处理脚本等功能,并能在功能节点中调用科学计算扩展库分析处理复杂的数据,在ETL数据分析工具中融入科学计算功能,使ETL数据分析工具可以用更简单的方式,进行更加复杂的数据处理,并提高数据处理效率。
[0091]如图3所示,在另一个实施例中,在步骤S150在功能节点中调用数据计算处理脚本,对数据进行分析处理之后,还包括:
[0092]步骤S302,接收生成数据图表的操作请求。
[0093]具体的,在数据分析处理新工程的功能节点中,可设置有生成数据图表的按钮,当用户点击该按钮,可接收到生成数据图表的操作请求。
[0094]步骤S304,根据操作请求调用科学计算扩展库中的图形处理扩展库中的相关函数对处理后的数据进行分析,并生成对应的数据图表文件。
[0095]具体的,可在python数据计算处理脚本中调用相应的接口,使用科学计算扩展库中的matplotl ib等图形处理扩展库中的相关函数,对处理后的数据进行分析,并生成对应的图形、表格等,以可视化的形式进行展示,使用户能更直接地观看数据的分析结果。生成的数据图表文件可保存在本地或分布式存储系统的服务器集群中,存储在分布式存储系统的服务器集群中可减轻服务器的压力。
[0096]上述数据分析处理的方法,可调用科学计算扩展库中的图形处理扩展库中的相关函数对处理后的数据进行分析,使处理后的数据以图形、表格等形式展示,更直观地反映数据分析处理结果。
[0097]在一个实施例中,上述数据分析处理的方法,还包括:获取距离最近的Hadoop集群,并将处理后的数据存储在所述距离最近的Hadoop集群中。
[0098]具体的,Hadoop(HadoopDistributed File System,HDFS)是一个分布式文件存储系统,具有高容错性的特点,提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序。可获取距离当前分析处理数据的服务器最近的Hadoop集群服务器,并将处理后的数据及生成的图表文件等存储在距离最近的Hadoop集群服务器中,可减少网络传输消耗,节约网络资源。
[0099]上述数据分析处理的方法,可将数据存储在距离最近的Hadoop集群中,减少了网络传输消耗,节约网络资源。
[0100]如图4所示,一种数据分析处理的系统,包括进入模块410、访问模块420、读取模块430、生成脚本模块440及调用模块450。
[0101]进入模块410,用于进入预先建立的数据分析处理新工程。
[0102]具体的,数据分析处理新工程指的是在ETL工具中融入科学计算功能所建立的新工程。ETL工具负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。常见的ETL工具可包括Datastage、kettle、0WB等,其中,Datastage是一种数据集成软件平台,具有满足最苛刻的数据集成需求所需的功能性、灵活性和可伸缩性;kettle是由纯java编写的一款开源的ETL工具,可以在Windows、Linux、Unix上运行,主要用于数据的抽取,具有高效稳定的特点;OWB是Oracle的一个综合工具,它提供对ETL、完全集成的关系和维度建模、数据质量、数据审计,以及数据和元数据的整个生命周期的管理。在本实施例中,可在ETL工具kettle中融入python的科学计算功能,python是一种面向对象、解释型计算机程序设计语言,它具有丰富的扩展库,可以对数据进行科学计算,帮助完成各种高级的数据分析任务。科学计算指的是为解决科学和工程中的数学问题利用计算机进行的数值计算,主要包括建立数学模型、建立求解的计算方法和计算机实现三个阶段,常用的科学计算语言、软件包括FORTRANALGOL、MATLAB等,可以理解地,也可以使用其它具有科学计算功能的语言与ETL工具结合,不限于此。
[0103]访问模块420,用于在数据分析处理新工程中访问功能节点。
[0?04]具体的,在kettle中融入python的科学计算功能,并开发生成功能节点,该功能节点可提供多种科学计算功能,例如执行python代码、调用python的科学计算扩展库进行数据分析运算等,python的科学计算扩展库可包括NumPy、ScriPy和matplotlib等,分别提供快速数组处理、数值运算以及绘图功能。在数据分析处理新工程中访问功能节点,可使用功能节点中的多种科学计算功能。
[0105]读取模块430,用于读取目标文件并导入数据。
[0106]具体的,目标文件可存储在本地或是分布式存储系统的服务器集群上。访问功能节点后,可从本地或分布式存储系统的服务器集群中选择所需的目标文件,读取该目标文件并导入需要处理的数据。
[0107]生成脚本模块440,用于根据需求信息生成数据计算处理脚本。
[0108]具体的,需求信息指的是对数据所需作出的分析处理需求,例如需要调用NumPy扩展库中的矢量处理函数对数据中的数组进行处理,或是需要对导入的数据进行批量处理等。可根据不同的需求信息生成对应的python数据计算处理脚本,并存储生成的数据计算处理脚本,使下次进行数据处理时可直接调用该数据计算处理脚本,无需重新生成。
[0109]调用模块450,用于在功能节点中调用所述数据计算处理脚本,对数据进行分析处理。
[Ο??Ο]具体的,在功能节点中可直接执行根据需求信息生成的python数据计算处理脚本,并根据python数据计算处理脚本对数据进行分析处理,例如数据抽取、数据清洗、数据转换、数值运算等操作,其中,数据清洗指的是对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性,数据转换指的是将数据从一种表示形式变为另一种表现形式的过程。也可通过python数据计算处理脚本调用科学计算扩展库中的函数,对数据进行科学计算。在其它的实施例中,在功能节点中可直接读取具有目标后缀的脚本文件,例如执行后缀为.Py的脚本文件。
[0111]上述数据分析处理的系统,在数据分析处理新工程中访问功能节点,读取目标文件导入数据后,可调用根据需求信息生成的数据计算处理脚本对数据进行处理,能够执行数据计算处理脚本,对复杂的数据进行分析处理,且所有的数据处理过程均在功能节点中完成,数据不需要在多个节点之间流转,数据处理过程简单,提高了数据处理效率。
[0112]如图5所示,在另一个实施例中,上述数据分析处理的系统,除了包括进入模块410、访问模块420、读取模块430、生成脚本模块440及调用模块450,还包括建立模块460。
[0113]建立模块460,用于建立数据分析处理新工程。
[0114]如图6所示,在一个实施例中,建立模块460包括获取单元602、导入单元604、创建单元606、调用单元608、关联单元610、修改单元612及存储单元614。
[0115]获取单元602,用于获取数据分析源工程代码。
[0116]具体的,数据分析源工程代码指的是ETL工具的工程源码,例如kettle的工程源码等。获取数据分析源工程代码后,可对数据分析源工程代码进行解压,得到对应的工程文件。
[0117]导入单元604,用于创建数据分析处理新工程,并在数据分析处理新工程中导入数据分析源工程代码。
[0118]具体的,可在Eclipse等开发环境中以新工程的形式导入数据分析源工程代码,SP在Eclipse等开发环境中创建新工程作为数据分析处理新工程,并将解压得到的ETL工具,例如kettle的工程源码导入数据分析处理新工程。
[0119]创建单元606,用于在数据分析处理新工程中创建功能节点。
[0120]具体的,可在数据分析处理新工程中创建功能节点,并根据kettle工具提供的多个接口开发该功能节点,例如利用TemplateStepDialog对话框类实现功能节点的功能界面等。在数据分析处理新工程中创建功能节点相当于在ket 11 e工具原有的流程处理节点中重新定制的一个流程处理节点,功能节点也可看作kettle工具新开发的一个插件,该重新定制开发的功能节点主要用于处理需要进行科学计算或是复杂分析的数据。
[0121]调用单元608,用于调用数据计算工具数据包,并根据预设的节点开发模板将数据计算工具数据包中的数据融入数据分析处理新工程。
[0122]具体的,数据计算工具数据包可包括python代码及python自带的丰富的扩展库数据包,例如NumPy、ScriPy和matplotlib等科学计算扩展库的数据包。可在kettle工具的源码的插件式节点开发的基础上,根据kettle中原有的节点开发模板将数据计算工作数据包融入到数据分析处理新工程中,利用kettle工具中的四大类实现功能节点编辑、执行、保存python数据计算处理脚本的功能,其中,四大类分别为TemplateStep步骤类、Temp IateStepData数据类、Temp late StepMeta元数据类及Temp IateStepDia log对话框类。不同的类提供不同的接口,可调用各个接口融入数据计算工具数据包中的数据使功能节点具有编辑、执行、保存python数据计算处理脚本等功能。
[0123]获取单元602还用于获取数据计算工具数据包中的科学计算扩展库。
[0124]具体的,数据计算工具数据包中可包括NumPy、ScriPy和matplotlib等科学计算扩展库的数据,NumPy可用来存储和处理大型矩阵,ScriPy可用于抓取web站点并从页面中提取结构化的数据,matplotlib可用于提供图表生成等。python的科学计算功能相比起其它的科学计算软件或语言来说,具有更加丰富的扩展库,且扩展库均是开源,python可提供各种调用接口用于分析处理数据,语言更为简单易读,容易维护,可轻松完成各种数据处理的高级任务。
[0125]关联单元610,用于在功能节点中建立科学计算扩展库与数据分析处理新工程的关耳关关系。
[ΟΙ26]具体的,在功能节点中建立NumPy、ScriPy和matplotlib等科学计算扩展库与数据分析处理新工程的关联关系,在功能节点中通过执行python数据计算处理脚本,调用python提供的对应的接口,即可使用科学计算扩展库中的科学计算功能,分析处理数据。
[0127]修改单元612,用于修改数据分析处理新工程的基础配置,并将功能节点打包。
[0128]具体的,可在Plugin.xml等配置文件中修改数据分析处理新工程的基础配置,例如添加功能节点对应的名称及描述等,但不限于此。修改完基础配置后,可将功能节点打包,并存储在kettle的插件文件夹中。
[0129]存储单元614,用于存储数据分析处理新工程。
[0130]具体的,开发完成数据分析处理新工程的功能节点后,可在本地或分布式存储系统的服务器集群中存储数据分析处理新工程。在本地或分布式存储系统的服务器集群中可使用数据分析处理新工程并发处理多项数据,提高数据处理效率。
[0131]上述数据分析处理的系统,通过在数据分析处理新工程中创建并开发功能节点,使功能节点提供编辑、执行、保存数据计算处理脚本等功能,并能在功能节点中调用科学计算扩展库分析处理复杂的数据,在ETL数据分析工具中融入科学计算功能,使ETL数据分析工具可以用更简单的方式,进行更加复杂的数据处理,并提高数据处理效率。
[0132]如图7所示,在另一个实施例中,上述数据分析处理的系统,除了包括进入模块410、访问模块420、读取模块430、生成脚本模块440、调用模块450及建立模块460,还包括接收模块470及生成图表模块480。
[0133]接收模块470,用于接收生成数据图表的操作请求。
[0134]具体的,在数据分析处理新工程的功能节点中,可设置有生成数据图表的按钮,当用户点击该按钮,可接收到生成数据图表的操作请求。
[0135]生成图表模块480,用于根据操作请求调用科学计算扩展库中的图形处理扩展库的相关函数对处理后的数据进行分析,并生成对应的数据图表文件。
[0136]具体的,可在python数据计算处理脚本中调用相应的接口,使用科学计算扩展库中的matplotl ib等图形处理扩展库中的相关函数,对处理后的数据进行分析,并生成对应的图形、表格等,以可视化的形式进行展示,使用户能更直接地观看数据的分析结果。生成的数据图表文件可保存在本地或分布式存储系统的服务器集群中,存储在分布式存储系统的服务器集群中可减轻服务器的压力。
[0137]上述数据分析处理的系统,可调用科学计算扩展库中的图形处理扩展库中的相关函数对处理后的数据进行分析,使处理后的数据以图形、表格等形式展示,更直观地反映数据分析处理结果。
[0138]在另一个实施例中,上述数据分析处理的系统,还包括存储模块。
[0139]存储模块,用于获取距离最近的Hadoop集群,并将处理后的数据存储在距离最近的Hadoop集群中。
[0140]具体的,Hadoop是一个分布式文件存储系统,具有高容错性的特点,提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序。可获取距离当前分析处理数据的服务器最近的Hadoop集群服务器,并将处理后的数据及生成的图表文件等存储在距离最近的Hadoop集群服务器中,可减少网络传输消耗,节约网络资源。
[0141]上述数据分析处理的系统,可将数据存储在距离最近的Hadoop集群中,减少了网络传输消耗,节约网络资源。
[0142]以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
[0143]以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
【主权项】
1.一种数据分析处理的方法,其特征在于,包括以下步骤: 进入预先建立的数据分析处理新工程; 在所述数据分析处理新工程中访问功能节点; 读取目标文件并导入数据; 根据需求信息生成数据计算处理脚本; 在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理。2.根据权利要求1所述的数据分析处理的方法,其特征在于,在所述进入预先建立的数据分析处理新工程的步骤之前,还包括: 建立数据分析处理新工程; 所述建立数据分析处理新工程的步骤,包括: 获取数据分析源工程代码; 创建数据分析处理新工程,并在所述数据分析处理新工程中导入所述数据分析源工程代码; 在所述数据分析处理新工程中创建功能节点; 调用数据计算工具数据包,并根据预设的节点开发模板将所述数据计算工具数据包中的数据融入所述数据分析处理新工程; 存储所述数据分析处理新工程。3.根据权利要求2所述的数据分析处理的方法,其特征在于,在所述存储所述数据分析处理新工程的步骤之前,还包括: 获取所述数据计算工具数据包中的科学计算扩展库; 在所述功能节点中建立所述科学计算扩展库与所述数据分析处理新工程的关联关系; 修改所述数据分析处理新工程的基础配置,并将所述功能节点打包。4.根据权利要求3所述的数据分析处理的方法,其特征在于,在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理的步骤之后,还包括: 接收生成数据图表的操作请求; 根据所述操作请求调用所述科学计算扩展库中的图形处理扩展库的相关函数对处理后的数据进行分析,并生成对应的数据图表文件。5.根据权利要求1所述的数据分析处理的方法,其特征在于,所述方法还包括: 获取距离最近的Hadoop集群,并将处理后的数据存储在所述距离最近的Hadoop集群中。6.一种数据分析处理的系统,其特征在于,包括: 进入模块,用于进入预先建立的数据分析处理新工程; 访问模块,用于在所述数据分析处理新工程中访问功能节点; 读取模块,用于读取目标文件并导入数据; 生成脚本模块,用于根据需求信息生成数据计算处理脚本; 调用模块,用于在所述功能节点中调用所述数据计算处理脚本,对所述数据进行分析处理。7.根据权利要求6所述的数据分析处理的系统,其特征在于,所述系统还包括: 建立模块,用于建立数据分析处理新工程; 所述建立模块包括: 获取单元,用于获取数据分析源工程代码; 导入单元,用于创建数据分析处理新工程,并在所述数据分析处理新工程中导入所述数据分析源工程代码; 创建单元,用于在所述数据分析处理新工程中创建功能节点; 调用单元,用于调用数据计算工具数据包,并根据预设的节点开发模板将所述数据计算工具数据包中的数据融入所述数据分析处理新工程; 存储单元,用于存储所述数据分析处理新工程。8.根据权利要求7所述的数据分析处理的系统,其特征在于,所述获取单元还用于获取所述数据计算工具数据包中的科学计算扩展库; 所述建立模块还包括: 关联单元,用于在所述功能节点中建立所述科学计算扩展库与所述数据分析处理新工程的关联关系; 修改单元,用于修改所述数据分析处理新工程的基础配置,并将所述功能节点打包。9.根据权利要求8所述的数据分析处理的系统,其特征在于,所述系统还包括: 接收模块,用于接收生成数据图表的操作请求; 生成图表模块,用于根据所述操作请求调用所述科学计算扩展库中的图形处理扩展库的相关函数对处理后的数据进行分析,并生成对应的数据图表文件。10.根据权利要求6所述的数据分析处理的系统,其特征在于,所述系统还包括: 存储模块,用于获取距离最近的Hadoop集群,并将处理后的数据存储在所述距离最近的Hadoop集群中。
【文档编号】G06F17/30GK105824974SQ201610243600
【公开日】2016年8月3日
【申请日】2016年4月19日
【发明人】朱敏
【申请人】平安科技(深圳)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1