数字人渲染方法及装置、存储介质及电子设备与流程

文档序号:28361183发布日期:2022-01-05 12:42阅读:143来源:国知局
数字人渲染方法及装置、存储介质及电子设备与流程

1.本发明涉及人机交互技术领域,特别涉及一种数字人渲染方法及装置、存储介质及电子设备。


背景技术:

2.近些年来,随着信息技术的不断发展和应用,为满足用户需求,数字人呈现场景也日益增多。具体如在客户端渲染数字人,应用数字人为用户答疑或互动,从而提高用户的应用体验。
3.目前在客户端渲染数字人的方式通常是使用服务器资源进行渲染,这种渲染方式对客户端的软硬件的要求非常高,并且需要占用大量的服务器渲染资源,导致使用目前的方式在客户端渲染数字人时,需要花费高额的成本。


技术实现要素:

4.有鉴于此,本发明提供一种数字人渲染方法,通过在客户端的h5页面渲染数字人,降低了在客户端渲染数字人的软硬件要求,有效降低在客户端渲染数字人的成本。
5.为实现上述目的,本发明实施例提供如下技术方案:
6.本发明第一方面公开一种数字人渲染方法,应用于客户端,包括:
7.获取客户输入的交互数据;
8.将所述交互数据发送至预设的中控系统,以触发所述中控系统对所述交互数据进行处理,得到渲染协议数据;
9.获得所述中控系统反馈的所述渲染协议数据,对渲染协议数据进行解析,获得应答音频数据和嘴型数据;
10.将所述应答音频数据保存至第一渲染队列中,以及将所述嘴型数据保存至第二渲染队列中;
11.同步读取所述第一渲染队列和所述第二渲染队列中的数据,并基于读取到的嘴型数据在所述客户端的h5展示页面渲染数字人,以及基于读取到的应答音频数据播放音频。
12.上述的方法,可选的,所述将所述交互数据发送至预设的中控系统,包括:
13.基于预设的网络模块的通信方式,将所述交互数据发送至网关,使得所述网关将所述交互数据转发至所述中控系统。
14.上述的方法,可选的,所述触发所述中控系统对所述交互数据进行处理,得到渲染协议数据,包括:
15.所述中控系统将所述交互数据输入预设的交互应答模块,触发所述交互应答模块对所述交互数据进行处理,得到与所述交互数据对应的应答音频数据;
16.所述中控系统获取所述交互应答模块反馈的应答音频数据,并调用预设的嘴型推理模块对所述应答音频数据进行处理,获得所述嘴型推理模块输出的与所述应答音频数据对应的嘴型数据;
17.所述中控系统将所述应答音频数据和嘴型数据封装成渲染协议数据。
18.上述的方法,可选的,所述触发所述交互应答模块对所述交互数据进行处理,得到与所述交互数据对应的应答音频数据,包括:
19.基于所述交互数据,确定问题文本;
20.将所述问题文本输入文本交互机器人,使得所述文本交互机器人输出与所述问题文本对应的应答文本;
21.应用语音合成技术合成与所述应答文本对应的应答音频数据。
22.上述的方法,可选的,所述基于所述交互数据,确定问题文本,包括:
23.确定所述交互数据的数据格式;
24.基于所述数据格式,对所述交互数据进行处理,得到问题文本。
25.上述的方法,可选的,所述基于读取到的嘴型数据在所述客户端的h5展示页面渲染数字人,包括:
26.调用预设的渲染模块从预设的资源模块中获取h5资源数据;
27.应用所述渲染模块基于所述h5资源数据和读取到的嘴型数据在所述客户端的h5展示页面动态的渲染数字人。
28.本发明第二方面公开一种数字人渲染装置,应用于客户端,包括:
29.获取单元,用于获取客户输入的交互数据;
30.触发单元,用于将所述交互数据发送至预设的中控系统,以触发所述中控系统对所述交互数据进行处理,得到渲染协议数据;
31.解析单元,用于获得所述中控系统反馈的所述渲染协议数据,对渲染协议数据进行解析,获得应答音频数据和嘴型数据;
32.保存单元,用于将所述应答音频数据保存至第一渲染队列中,以及将所述嘴型数据保存至第二渲染队列中;
33.渲染单元,用于同步读取所述第一渲染队列和所述第二渲染队列中的数据,并基于读取到的嘴型数据在所述客户端的h5展示页面渲染数字人,以及基于读取到的应答音频数据播放音频。
34.上述的装置,可选的,所述触发单元,包括:
35.发送子单元,用于基于预设的网络模块的通信方式,将所述交互数据发送至网关,使得所述网关将所述交互数据转发至所述中控系统。
36.上述的装置,可选的,所述触发单元,包括:
37.触发子单元,用于所述中控系统将所述交互数据输入预设的交互应答模块,触发所述交互应答模块对所述交互数据进行处理,得到与所述交互数据对应的应答音频数据;
38.第一调用子单元,用于所述中控系统获取所述交互应答模块反馈的应答音频数据,并调用预设的嘴型推理模块对所述应答音频数据进行处理,获得所述嘴型推理模块输出的与所述应答音频数据对应的嘴型数据;
39.封装子单元,用于所述中控系统将所述应答音频数据和嘴型数据封装成渲染协议数据。
40.上述的装置,可选的,所述触发子单元,包括:
41.确定模块,用于基于所述交互数据,确定问题文本;
42.输入模块,用于将所述问题文本输入文本交互机器人,使得所述文本交互机器人输出与所述问题文本对应的应答文本;
43.合成模块,用于应用语音合成技术合成与所述应答文本对应的应答音频数据。
44.上述的装置,可选的,所述确定模块,包括:
45.确定子模块,用于确定所述交互数据的数据格式;
46.处理子模块,用于基于所述数据格式,对所述交互数据进行处理,得到问题文本。
47.上述的装置,可选的,所述渲染单元,包括:
48.第二调用子单元,用于调用预设的渲染模块从预设的资源模块中获取h5资源数据;
49.渲染子单元,用于应用所述渲染模块基于所述h5资源数据和读取到的嘴型数据在所述客户端的h5展示页面动态的渲染数字人。
50.本发明第三方面公开一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述的数字人渲染方法。
51.本发明第四方面公开一种电子设备,包括存储器,以及一个或者一个以上的指令,其中一个或者一个以上指令存储于存储器中,且经配置以由一个或者一个以上处理器执行上述的数字人渲染方法。
52.与现有技术相比,本发明具有以下优点:
53.本发明提供一种数字人渲染方法及装置、存储介质及电子设备,该方法包括:获取客户输入的交互数据;将交互数据发送至中控系统,以触发中控系统对交互数据进行处理,得到渲染协议数据;获得中控系统反馈的渲染协议数据,对渲染协议数据进行解析,获得应答音频数据和嘴型数据;将应答音频数据保存至第一渲染队列中,以及将嘴型数据保存至第二渲染队列中;同步读取第一渲染队列和第二渲染队列中的数据,并基于读取到的嘴型数据在客户端的h5展示页面渲染数字人,以及基于读取到的应答音频数据播放音频。接收中控系统发送的对交互数据处理得到的渲染协议数据,对渲染协议数据进行解析,得到应答音频数据和嘴型数据后,同步读取应答音频数据和嘴型数据,根据读取到的嘴型数据在客户端的h5展示页面渲染数字人,以及根据读取到的应答数据播放音频。通过应用h5技术,在h5展示页面渲染数字人的方式对客户端的软硬件要求低,该过程不需要占用大量的服务器渲染资源,从而降低了在客户端渲染数字人的成本。
附图说明
54.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
55.图1为本发明实施例提供的一种数字人渲染方法的一种环境应用示意图;
56.图2为本发明实施例提供的一种数字人渲染方法的方法流程图;
57.图3为本发明实施例提供的一种数字人渲染方法的另一方法流程图;
58.图4为本发明实施例提供的一种数字人渲染方法的又一方法流程图;
59.图5为本发明实施例提供的一种数字人渲染方法的系统架构的结构示意图;
60.图6为本发明实施例提供的一种数字人渲染装置的结构示意图;
61.图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
62.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
63.在本技术中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
64.为了更好理解本技术实施例提供的一种数字人渲染方法及装置、存储介质及电子设备,下面先对是用于本技术实施例的应用环境进行描述。
65.请参阅图1,图1示出了一种适用于本技术实施例的应用环境示意图。本技术实施例提供的数字人渲染方法可以应该用于如图1所示的数字人渲染系统100。数字人渲染系统100包括终端设备101以及服务器102,服务器102与终端设备101通信连接。其中,服务器102可以是传统服务器,也可以是云端服务器,在此不做具体限定。
66.其中,终端设备101可以是具有显示屏、具有数据处理模块、具有拍摄相机、具有音频输入/输出等功能,且支持数据输入的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、自助服务终端和可穿戴式电子设备等。具体的,数据输入可以是基于电子设备上具有的语音模块输入语音、字符输入模块输入字符等。
67.其中,终端设备101上可以安装有客户端应用程序,用户可以基于客户端应用程序(例如app,微信小程序等)与服务器102进行通信,具体的,用户可以基于客户端应用程序在服务器102注册一个用户账号,并基于该用户账号与服务器102进行通信,例如用户在客户端应用程序登录用户账号,并基于该用户账号通过客户端应用程序进行输入,可以输入文字信息或语音信息等,客户端应用程序接收到用户输入的信息后,可以将该信息发送至服务器102,使得服务器102可以接收该信息并进行处理及存储,服务器102还可以接收该信息并根据该信息返回一个对应的输出信息至终端设备101。
68.在一些实施方式中,客户端应用程序可以用于向用户提供客服服务,通过客服与用户进行沟通,可为客服构建一个虚拟的数字人的形象。具体地,客户端应用程序可以接收用户输入的信息,并将用户输入的信息发送至数字人渲染系统进行处理后,接收数字人渲染系统反馈的渲染协议数据,并基于渲染协议数据渲染数字人。其中,数字人是基于可视化图形的软件程序,该软件程序被执行后可以向用户呈现出模拟生物行为或思想的机器人形态。数字人可以是模拟真人式的仿真数字人,例如根据用户自身或其他人的形态建立的形似真人的仿真数字人,也可以是动漫效果式的仿真数字人,例如动物形态或卡通人物形态的仿真数字人。
69.在一些实施例方法中,终端设备101向服务器102发送客户的交互信息,服务器102
对交互信息进行处理,生成数字人对客户进行应答的渲染场景数据;终端设备101接收服务器102发送的渲染协议数据,并基于渲染协议数据在显示屏或是其他与其连接的图像输出设备上渲染数字人。作为另一种实现方式,在渲染数字人时,可以通过智能终端101的扬声器或与其连接的其他音频输出设备播放与仿真数字人图像对应的音频,还可以在终端设备101的显示屏上显示与该回复信息对应的文字或图形,实现在图像、语音、文字等多个方面上与用户的多态交互。
70.在一些实施方式中,对待识别数据进行处理的装置也可以设置于终端设备101上,使得终端设备101无需依赖于服务器102建立通信即可实现与用户的交互,此时数字人渲染系统100可以只包括终端设备101。
71.上述应用环境仅为方便理解所作的示例,可以理解的是,本技术实施例不局限于上述应用环境。
72.下面将通过具体实施例对本发明实施例提供的数字人渲染方法及装置、存储介质及电子设备进行详细说明。
73.请参阅图2,本发明实施例提供了一种数字人渲染方法,该数字人渲染方法可以应用于上述数字人渲染系统100。具体的,该数字人渲染系统可以包括一下步骤s201至步骤s205。
74.本发明可应用于支持h5页面渲染的客户端,参照图2,为本发明实施例提供的一种数字人渲染方法的方法流程图,具体说明如下所述:
75.s201、获取客户输入的交互数据。
76.客户向客户端输入交互数据,需要说明的是,所述交互数据可以为文本数据、音频数据、或是客户端提供的特殊选项数据等。
77.交互数据中可以包含客户进行提问的信息。
78.进一步的,本发明中的客户端采用了cocoscreator 2d引擎实现数字人在客户端的渲染。
79.s202、将交互数据发送至预设的中控系统,以触发中控系统对交互数据进行处理,得到渲染协议数据。
80.客户端基于预设的网络模块的通信方式,将交互数据发送至网关,网关将交互数据转发至中控系统,需要说明的是,客户端的网络模块中的通信方式为客户端与网关约定的通信方式,具体的,该通信方式中包含通信协议,通信协议可以常用的tcp/ip协议、netbeui协议、ipx/spx协议以及根据需求自定义的协议等。
81.参照图3,为中控系统对交互数据进行处理,得到渲染协议数据的方法流程图,具体说明如下所述:
82.s301、中控系统将交互数据输入预设的交互应答模块,触发交互应答模块对交互数据进行处理,得到与交互数据对应的应答音频数据。
83.参照图4,为交互应答模块对交互数据进行处理,得到应答音频数据的方法流程图,具体说明如下所述:
84.s401、基于交互数据,确定问题文本。
85.确定交互数据的数据格式,并基于数据格式,对交互数据进行处理,从而得到问题文本。
86.具体的,数据格式有多种,例如:文本、音频、图片以及对应特定数据内容的格式等,不同的数据格式执行不同的操作,以便从交互数据中确定问题文本。
87.示例性的,在交互数据的数据格式为文本格式时,可以直接将交互数据确定为问题文本;示例性的,在交互数据的数据格式为音频格式时,可以使用语音转文本技术将交互数据转换成问题文本,具体的,语音转文本技术可以是语音识别程序、语音识别算法或是语音识别模型等。本发明基于交互数据的数据格式,对交互数据进行处理,从而从交互数据中确定问题文本,此处不再一一举例说明。
88.s402、将问题文本输入文本交互机器人,使得文本交互机器人输出与问题文本对应的应答文本。
89.文本交互机器人为使用深度学习的神经网络构建而成,文本交互机器人可以输出与问题文本对应的应答文本,通过使用文本交互机器人可以实现人机之间的对话。
90.s403、应用语音合成技术合成与应答文本对应的应答音频数据。
91.语音合成技术可以将应答文本转换成对应的应答音频数据,进一步的,云合成技术可以是文本转语音算法或是文本转语音模型。
92.本发明使用文本交互机器人对问题文本进行处理,可以快速的得到应答音频数据,使用文本交互机器人获得应答音频数据的过程简单、便捷,有效降低了渲染数字人所花费的成本。
93.s302、中控系统获取交互应答模块反馈的应答音频数据,并调用预设的嘴型推理模块对应答音频数据进行处理,获得嘴型推理模块输出的与应答音频数据对应的嘴型数据。
94.嘴型推理模块是用于根据应答音频数据推理出嘴型数据,需要说明的是,嘴型数据包括但不限于渲染数字人的在应答时的嘴型、神态以及动作等的数据。
95.需要说明的是,嘴型数据可以包含多张渲染图片,还可以包含渲染视频。
96.s303、中控系统将应答音频数据和嘴型数据封装成渲染协议数据。
97.中控系统根据客户端自定义的通信协议,将应答音频数据和嘴型数据封装成渲染协议数据,进一步的,为了保证数据传输的安全性,中控系统还可以在对应答音频数据和嘴型数据在封装的同时进行加密,从而可以得到加密的渲染协议数据。
98.本发明实施例提供的方法中,中控系统通过调用各个功能模块对交互数据进行处理,得到应答音频数据和嘴型数据,并将应答音频数据和嘴型数据进行封装,从而得到渲染协议数据,通过使用中控系统调用各个功能模块,可以有序的对交互数据进行处理,从而快速的得到渲染数字人的渲染协议数据。
99.s203、获得中控系统反馈的渲染协议数据,对渲染协议数据进行解析,获得应答音频数据和嘴型数据。
100.客户端接收到中控系统反馈的渲染协议数据,进一步的,中控系统通过网关向客户端发送渲染协议数据。
101.客户端对渲染协议数据进行解析,进一步的,在渲染协议数据为加密数据时,客户端还需要对渲染协议数据进行解密处理,从而得到应答音频数据和嘴型数据。
102.s204、将应答音频数据保存至第一渲染队列中,以及将嘴型数据保存至第二渲染队列中。
103.第一渲染队列用于保存应答音频数据,第二渲染队列用于保存嘴型数据,通过将应答音频数据和嘴型数据分开保存,实现了数据的独立性。
104.进一步的,第一渲染队列和第二渲染队列可以为与交互数据对应的临时队列。通过将应答音频数据和嘴型数据保存在不同的队列中,可以同时读取两个队列中的数据,从而可以确定读取应答音频数据和嘴型数据的同步性。
105.s205、同步读取第一渲染队列和第二渲染队列中的数据,并基于读取到的嘴型数据在客户端的h5展示页面渲染数字人,以及基于读取到的应答音频数据播放音频。
106.本发明实施例提供的方法中,在基于读取到的嘴型数据在客户端的h5展示页面渲染数字人时,客户端调用预设的渲染模块从资源模块中获取h5资源数据,h5资源数据中包含但不限于构建数字人的模型、渲染数字人的形象的外貌数据、衣着数据、h5页面信息等等。
107.客户端再应用渲染模块基于h5资源数据和读取到的嘴型数据在客户端的h5展示页面动态的渲染数字人。
108.渲染数字人和播放音频同步进行,实现了使用数字人对客户进行应答的方案,并且音画同步可以为客户提供更优质的使用体验。
109.本发明实施例提供的方法中,将客户输入的交互数据发送至中控系统,触发中控系统对交互数据进行处理,得到渲染协议数据;对中控系统反馈的渲染协议数据进行解析,得到应答音频数据和嘴型数据,将应答音频数据保存至第一渲染队列中,将嘴型数据保存至第二渲染队列中;同步读取第一渲染队列和第二渲染队列中的数据,基于读取到的嘴型数据在客户端的h5展示页面渲染数据人,基于读取到的应答音频数据播放应答音频。将交互数据发送至中控系统,使得中控系统对交互数据进行处理,得到协议渲染数据,客户端基于协议渲染数据中的嘴型数据和应答音频数据渲染数字人和播放音频,此种渲染数字人的方式在h5页面即可实现数字人的渲染,无需占用大量的服务器资源,降低了在客户端渲染数字人的软硬件需求,有效降低了渲染数字人的成本。
110.参照图5,为本发明实施例提供的支持上述方法的系统架构的示意图,具体说明如下所述:
111.系统架构包含客户端501、网关502、中控系统503、交互应答模块504和嘴型推理模块505;其中,客户端501中包含渲染模块、资源模块和网络模块,进一步的,渲染模块用于渲染数字人;资源模块用于保存h5资源数据;网络模块用于客户端与其他设备进行通讯。以一具体的场景实施例说明系统架构图的工作流程,以及说明系统架构图中的各个器件工作内容。
112.客户向客户端输入交互数据后,客户端使用网络模块将交互数据发送至网关;网关将交互数据发送至中控系统;中控系统将交互数据发送至交互应答模块,使得交互应答模块对交互数据进行处理,并向中控系统反馈应答音频数据;中控系统将应答音频数据发送至嘴型推理模块,使得嘴型推理模块对应答音频数据进行处理,并将得到的嘴型数据发送至中控模块;中控模块将嘴型数据和应答音频数据封装成渲染协议数据,并将渲染协议数据发送至网关;客户端通过网络模块接收网关发送的渲染协议数据;客户端将渲染协议数据解析,得到嘴型数据和应答音频数据,并调用渲染模块获取资源模块中的h5资源数据,使得渲染模块应用嘴型数据、应答音频数据以及h5资源数据在客户端的h5展示页面渲染数
字人以及播放对应的音频。
113.以图5为例所描述的工作流程中更加详细的内容可参照本发明上述提供的实施例中的说明,此处不再进行赘述。
114.图5所示的系统架构图仅为其中一种示例,本发明可应用的系统架构图不局限于上述的系统架构图。
115.与图1相对应的,本发明还提供一种数字人渲染装置,该装置可支持图1所示的方法在实际生活中的实现,该装置可设置于数字人渲染系统中,数字人渲染系统可由智能终端或是分布式计算环境组成。
116.参照图6,为本发明实施例提供的一种数字人渲染装置的结构示意图,具体说明如下所述:
117.获取单元601,用于获取客户输入的交互数据;
118.触发单元602,用于将所述交互数据发送至预设的中控系统,以触发所述中控系统对所述交互数据进行处理,得到渲染协议数据;
119.解析单元603,用于获得所述中控系统反馈的所述渲染协议数据,对渲染协议数据进行解析,获得应答音频数据和嘴型数据;
120.保存单元604,用于将所述应答音频数据保存至第一渲染队列中,以及将所述嘴型数据保存至第二渲染队列中;
121.渲染单元605,用于同步读取所述第一渲染队列和所述第二渲染队列中的数据,并基于读取到的嘴型数据在所述客户端的h5展示页面渲染数字人,以及基于读取到的应答音频数据播放音频。
122.本发明实施例提供的装置中,将客户输入的交互数据发送至中控系统,触发中控系统对交互数据进行处理,得到渲染协议数据;对中控系统反馈的渲染协议数据进行解析,得到应答音频数据和嘴型数据,将应答音频数据保存至第一渲染队列中,将嘴型数据保存至第二渲染队列中;同步读取第一渲染队列和第二渲染队列中的数据,基于读取到的嘴型数据在客户端的h5展示页面渲染数据人,基于读取到的应答音频数据播放应答音频。将交互数据发送至中控系统,使得中控系统对交互数据进行处理,得到协议渲染数据,客户端基于协议渲染数据中的嘴型数据和应答音频数据渲染数字人和播放音频,此种渲染数字人的方式在h5页面即可实现数字人的渲染,无需占用大量的服务器资源,并且降低了在客户端渲染数字人的软硬件需求,有效降低了渲染数字人的成本。
123.本发明实施例提供的装置,所述触发单元602,可以配置为:
124.发送子单元,用于基于预设的网络模块的通信方式,将所述交互数据发送至网关,使得所述网关将所述交互数据转发至所述中控系统。
125.本发明实施例提供的装置,所述触发单元602,可以配置为:
126.触发子单元,用于所述中控系统将所述交互数据输入预设的交互应答模块,触发所述交互应答模块对所述交互数据进行处理,得到与所述交互数据对应的应答音频数据;
127.第一调用子单元,用于所述中控系统获取所述交互应答模块反馈的应答音频数据,并调用预设的嘴型推理模块对所述应答音频数据进行处理,获得所述嘴型推理模块输出的与所述应答音频数据对应的嘴型数据;
128.封装子单元,用于所述中控系统将所述应答音频数据和嘴型数据封装成渲染协议
数据。
129.本发明实施例提供的装置,所述触发子单元,可以配置为:
130.确定模块,用于基于所述交互数据,确定问题文本;
131.输入模块,用于将所述问题文本输入文本交互机器人,使得所述文本交互机器人输出与所述问题文本对应的应答文本;
132.合成模块,用于应用语音合成技术合成与所述应答文本对应的应答音频数据。
133.本发明实施例提供的装置,所述确定模块,可以配置为:
134.确定子模块,用于确定所述交互数据的数据格式;
135.处理子模块,用于基于所述数据格式,对所述交互数据进行处理,得到问题文本。
136.本发明实施例提供的装置,所述渲染单元605,可以配置为:
137.第二调用子单元,用于调用预设的渲染模块从预设的资源模块中获取h5资源数据;
138.渲染子单元,用于应用所述渲染模块基于所述h5资源数据和读取到的嘴型数据在所述客户端的h5展示页面动态的渲染数字人。
139.本发明实施例还提供了一种存储介质,所述存储介质包括存储的指令,其中,在所述指令运行时控制所述存储介质所在的设备执行上述数字人渲染方法。
140.本发明实施例还提供了一种电子设备,其结构示意图如图7所示,具体包括存储器701,以及一个或者一个以上的指令702,其中一个或者一个以上指令702存储于存储器701中,且经配置以由一个或者一个以上处理器703执行所述一个或者一个以上指令702执行上述数字人渲染方法。
141.上述各个实施例的具体实施过程及其衍生方式,均在本发明的保护范围之内。
142.本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
143.专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
144.对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一
致的最宽的范围。
当前第1页1 2 
网友询问留言 已有1条留言
  • 159289... 来自[中国] 2023年04月03日 15:01
    好案例
    0
1