一种自动部署模型训练环境的方法和装置与流程

文档序号:16996869发布日期:2019-03-02 01:26阅读:307来源:国知局
一种自动部署模型训练环境的方法和装置与流程

本发明总体上涉及计算机领域,并且更具体地,涉及一种自动部署模型训练环境的方法和装置。



背景技术:

语音转文本是一个热门的机器学习领域。然而,由于各地的人们有着不同的口音,这也是一个难以解决的问题,不过仍然可以通过深度学习实现非常不错的准确性。mozilladeepspeech这个github项目使用tensorflow将语音转换为文本,其实这个项目是一个基于百度deepspeech架构的tensorflow实现,换句话说,这个项目就是百度的内核,谷歌的外貌。其中deepspeech是一个端到端的语音模型,是吴恩达带领百度团队研发出来的成果,最早发布于2014年底。

目前,官网上提供了两种部署tensorflow深度学习框架的方式,一种是使用pip简单安装,另一种是用源码进行编译安装,由于需要依赖的类库比较多,还有对版本的要求,没有现成的自动化工具可利用,对于新手来说部署比较困难,尤其是在物理环境下部署出现问题,想恢复原系统状态就增加了额外排查问题的风险;mozilla的深度学习语音识别工具,提供了多种部署方式,但是官网未对需要的库的版本做出说明,而且部署过程结束条理性也欠佳,需要开发者自己去尝试,效率比较低。对于没有深度学习和语音识别知识的新手,尝试部署一套语音模型训练的环境,是一件非常繁琐的事情。



技术实现要素:

鉴于此,本发明实施例的目的在于提出一种利用docker和nvidia-docker,通过dockerfile配置文件实现灵活地自动化创建和部署深度学习语音识别工具的方法和装置,不但提高了工作效率,而且可移植性强。

基于上述目的,本发明实施例的一方面提供了一种自动部署模型训练环境的方法,包括以下步骤:

安装并启动docker及nvidia-docker;

运行第一脚本以基于所述docker及nvidia-docker创建镜像;

运行第二脚本以基于所述docker及nvidia-docker创建所述镜像的容器;以及

创建完所述容器后,运行第三脚本以启动模型训练。

在一些实施方式中,运行第一脚本以基于所述docker及nvidia-docker创建镜像包括:通过所述第一脚本根据dockerfile文件执行命令以编译所述镜像。

在一些实施方式中,所述dockerfile文件中包括设置所述镜像使用的基础镜像和相关的基准库。

在一些实施方式中,所述模型是深度学习语音识别模型。

在一些实施方式中,所述第三脚本包括提供自动下载训练数据及转换数据的脚本。

在一些实施方式中,所述第三脚本还包括提供自动化训练模型的脚本,用户只需要设置训练的迭代步数,就可启动测试。

在一些实施方式中,所述模型可以是机器翻译模型。

本发明实施例的另一方面,还提供了一种自动部署模型训练环境的装置,其特征在于,包括:

至少一个处理器;以及

存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行上述任意一项所述的方法。

在一些实施方式中,所述装置搭载于5280m5服务器上,所述服务器安装有一个或多个gpu。

在一些实施方式中,所述服务器搭载ubuntu操作系统。

本发明具有以下有益技术效果:本发明实施例提供的一种自动部署模型训练环境的方法采用docker容器来部署深度学习语音识别训练的环境,能够简化语音模型训练的环境部署的步骤,将训练数据的准备、模型的训练都模块化,与物理机上的应用实现隔离,操作方便。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是根据本发明实施例的自动部署模型训练环境的方法的流程图;

图2是根据本发明实施例的启动模型训练的步骤的流程图;

图3是根据本发明提供的自动部署模型训练环境的装置的一个实施例的硬件结构示意图。

具体实施方式

以下描述了本公开的实施例。然而,应该理解,所公开的实施例仅仅是示例,并且其他实施例可以采取各种替代形式。附图不一定按比例绘制;某些功能可能被夸大或最小化以显示特定部件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式使用本发明的代表性基础。如本领域普通技术人员将理解的,参考任何一个附图所示出和描述的各种特征可以与一个或多个其他附图中所示的特征组合以产生没有明确示出或描述的实施例。所示特征的组合为典型应用提供了代表性实施例。然而,与本公开的教导相一致的特征的各种组合和修改对于某些特定应用或实施方式可能是期望的。

为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。

docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的linux机器上,便可以实现虚拟化。容器是完全使用沙箱机制,相互之间不会有任何接口。作为一种轻量级的虚拟化方式,docker在运行应用上跟传统的虚拟机方式相比具有显著优势:docker容器很快,启动和停止可以在秒级实现,这相比传统的虚拟机方式要快得多;docker容器对系统资源需求很少,一台主机上可以同时运行数千个docker容器;docker通过类似git的操作来方便用户获取、分发和更新应用镜像,指令简明,学习成本较低;docker通过dockerfile配置文件来支持灵活的自动化创建和部署机制,提高工作效率。

docker镜像中包含了运行环境和配置,所以docker可以简化部署多种应用实例工作,比如web应用、后台应用、数据库应用、大数据应用比、消息队列等等都可以打包成一个镜像部署。生成镜像的方式有dockerfile创建和手动创建,其中dockerfile是由一系列命令和参数构成的脚本,这些命令应用于基础镜像并最终创建一个新的镜像。它们简化了从头到尾的流程并极大地简化了部署工作。dockerfile从from命令开始,紧接着跟随各种方法、命令和参数,其产出为一个新的可以用于创建容器的镜像,类似于makefile。

因为gpu属于特定的厂商产品,需要特定的驱动,docker本身并不支持gpu。以前如果需要在docker中使用gpu,就需要在容器中安装主机上使用gpu的驱动,然后把主机上的gpu设备映射到容器中,所以这样的docker镜像并不具备可移植性。nvidia-docker项目就是为了解决这个问题,它让docker镜像不需要知道底层gpu的相关信息,而是通过启动容器时安装设备和驱动文件来实现的。

由此,基于docker,本发明的实施例提供了一种自动部署模型训练环境的方法,包括以下步骤:

步骤s101:安装docker及nvidia-docker2。

步骤s103:安装完成后,运行创建镜像的脚本;

步骤s105:运行创建所述镜像的容器的脚本;以及

步骤s107:运行启动模型训练的脚本。

对于没有深度学习和语音识别知识的新手,尝试部署一套语音模型训练的环境,是一件非常繁琐的事情,因此在根据本发明的一个实施例中,该方法用于部署tensorflow和deepspeech环境。在一些实施例中,创建镜像的脚本根据dockerfile文件执行命令以编译所述镜像。整个部署过程全部写在dockfile里,用户只需要执行dockfilebuild命令创建一个镜像,之后再创建容器,语音模型训练的环境就部署完成。其中,在一个实施例中,dockerfile文件的内容包括用于设置镜像所使用的基础镜像:nvidia/cuda:9.0-cudnn7-devel-ubuntu16.04、编译镜像时运行的各类脚本(包括安装各种基准库,例如tensorflow-gpu==1.8、deepspeech-gpu等)等,dockerfile文件的主要内容示例如下:

fromnvidia/cuda:9.0-cudnn7-devel-ubuntu16.04

workdir/tmp

runapt-getupdate&&apt-getinstall-ypythonpython-pipsox

libsox-devlibsox-fmt-allgitcmake

runpipinstall--upgradepip

runpipinstalltensorflow-gpu==1.8

runpipinstalldeepspeech

在根据本发明的一个优选实施例中,一台5280m5机器上安装8个32gv100gpu卡,搭载ubuntu16.04的系统。为了在该机器上部署deepspeech语音训练模型的环境,首先用户安装docker、nvidia-docker2;然后运行shbuild-docker.sh脚本,根据dockerfile文件创建镜像,镜像名可指定为deepspeech-cuda9cudnn7:gpu;运行shrun-dev.sh脚本,创建镜像deepspeech-cuda9cudnn7:gpu的容器;运行shrun_and_time.sh脚本,启动deepspeech语音识别模型的训练,用户如果想要修改模型的训练参数,只需要更改此文件即可。其中,run_and_time.sh脚本执行的功能如图2所示,因为首次训练会包含训练数据的下载及格式转换,可以使用默认参数启动模型训练。例如,可以根据commonvoice开源语音数据集来进行语音模型的训练。

在一些实施例中,所述方法还可以应用于机器翻译的模型训练上。机器翻译是指利用计算机将一种自然语言转换为另一种自然语言的过程,其原理是从语料库大量的翻译实例中自动学习翻译知识,然后利用这些翻译知识自动翻译其他句子。

在技术上可行的情况下,以上针对不同实施例所列举的技术特征可以相互组合,或者改变、添加以及省略等等,从而形成本发明范围内的另外实施例。

从上述实施例可以看出,本发明实施例提供的一种自动部署模型训练环境的方法采用docker容器来部署深度学习语音识别训练的环境,能够简化语音模型训练的环境部署的步骤,将训练数据的准备、模型的训练都模块化,用户只需更改一些参数就能更改模型的训练参数,并且与物理机上的应用实现隔离,操作方便,可移植性强。

基于上述目的,本发明实施例的第二个方面,提出了一种自动部署模型训练环境的装置的一个实施例。

所述软件线路差异自动对比装置包括至少一个处理器和存储器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行上述任意一种方法。

如图3所示,为本发明提供的自动部署模型训练环境的装置的一个实施例的硬件结构示意图。

以如图3为例,在该装置中包括一个处理器301以及一个存储器302,并还可以包括:输入装置303和输出装置304。

处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图3中以通过总线连接为例。

存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述自动部署模型训练环境的方法对应的程序指令/模块。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的自动部署模型训练环境的方法。

存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据自动部署模型训练环境的装置的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

输入装置303可接收输入的数字或字符信息,以及产生与自动部署模型训练环境的装置的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。

所述一个或者多个自动部署模型训练环境的方法对应的程序指令/模块存储在所述存储器302中,当被所述处理器301执行时,执行上述任意方法实施例中的自动部署模型训练环境的方法。

所述执行所述自动部署模型训练环境的装置的任何一个实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。

最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(rom)或随机存储记忆体(ram)等。

此外,典型地,本发明实施例公开所述的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(pda)、平板电脑(pad)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开所述的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。

此外,根据本发明实施例公开的方法还可以被实现为由cpu执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被cpu执行时,执行本发明实施例公开的方法中限定的上述功能。

此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。

此外,应该明白的是,本文所述的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(rom)、可编程rom(prom)、电可编程rom(eprom)、电可擦写可编程rom(eeprom)或快闪存储器。易失性存储器可以包括随机存取存储器(ram),该ram可以充当外部高速缓存存储器。作为例子而非限制性的,ram可以以多种形式获得,比如同步ram(dram)、动态ram(dram)、同步dram(sdram)、双数据速率sdram(ddrsdram)、增强sdram(esdram)、同步链路dram(sldram)、以及直接rambusram(drram)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。

本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现所述的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。

结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里所述功能的下列部件来实现或执行:通用处理器、数字信号处理器(dsp)、专用集成电路(asic)、现场可编程门阵列(fpga)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,dsp和微处理器的组合、多个微处理器、一个或多个微处理器结合dsp和/或任何其它这种配置。

结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在ram存储器、快闪存储器、rom存储器、eprom存储器、eeprom存储器、寄存器、硬盘、可移动盘、cd-rom、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,所述存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在asic中。asic可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。

在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括ram、rom、eeprom、cd-rom或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(dsl)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、dsl或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(cd)、激光盘、光盘、数字多功能盘(dvd)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。

以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。

应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。

上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。

本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器、磁盘或光盘等。

上述“优选”实施例是实施方式的可能示例,并且仅仅为了清楚理解本发明的原理而提出。所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1