用于交互的虚拟人物对话的系统和方法_3

文档序号:9422873阅读:来源:国知局
人物 301a-b可叙述和/或角色扮演故事的一部分,当每个区域70U702被更新时。虚拟人物 301a-b可参与与另一人物的对话且可定期地与用户交谈,可能作为角色扮演过程中的一部 分,在其中用户作为故事中的一个角色。在一些实施例中,用户阅读区域701中的文本,虚 拟人物301a-b基于故事的一部分或用户的阅读即兴演讲或评论。 阳化引用户香巧
[0056] 图8是可实施于某些实施例的描述虚拟环境中的用户交互过程中的某些步骤的 流程图。在步骤801,系统可向用户呈现主场景,如图3中所描绘的场景。在步骤802,系统 可接收用户对交互场景的选择(如口头选择)。在一些实例中,输入可包括触摸或图形图标 的滑动,但在其他实例中输入可W是用户的口头应答,如对来自虚拟人物问询的应答。在步 骤803,系统可向用户呈现所选择的交互场景。
[0057]在步骤804,系统可基于标准使用户参与到对话序列。该标准可包括此前与用户的 对话和基于社交信息或W往与用户的交互所生成的统计数据库。在步骤805,系统可确定用 户是否希望重复关于所选场景的活动。例如,虚拟人物可询问用户的偏好。如用户做出选 择,可能为口头地或通过触觉输入,W继续同样的活动,系统可使用同此前同样的标准重复 该活动,或在步骤806可修改标准W反映此前对话历史。
[0058]可选择地,如果用户不希望重复该活动,系统可通过与虚拟人物的交互再次确定 用户是否希望在步骤807退出。如果用户不希望退出系统则在步骤802再次确定用户希望 进入哪一个交互场景。在步骤802,在进入主场景之前或之后,系统同样可基于此前与用户 的对话和用户的个人特征修改标准。在一些实施例中,用户使用地图界面W在场景间转换。
[0059]在一些实施例中,内容可被标记,从而其只在符合某些标准时被使用。运可允许 系统为用户提供定制的内容。标准的示例字段可包括W下:重复-当人物正重复某事物时 使用的可选择的应答;仅一次-使用该应答仅一次,如从不重复;年龄-只有用户的年龄 落入特定的范围时使用该应答;性别-只有当用户的性别为男性或女性时使用该应答;日 期-只有当当前日期符合特定日期时使用该应答;时间-只有当当前时间落入时间范围时 使用该应答;前一次活动-当此前活动符合特定活动时使用该应答;游戏分钟-当用户超 出了给定的游戏分钟数时使用该应答;区域-当用户被定位于给定的地理区域时使用该应 答;前一次进行使用-当用户未使用该服务达到给定的天数时使用该应答;等等。虚拟人物 使用的应答可被系统打上时间戳并记录,W使得AI引擎将避免在未来给出重复的应答。用 户可与用户账户关联W促进其个人信息的存储。 W60] 标准可同样源自分析。在一些实施例中,系统记录在对话会话期间发生的所有重 要的事件的统计数据。运些统计可被记录到服务器并可被集合W提供规模化的关于用户 如何与该服务交互的分析。运可被用于推动内容的更新或改变内容的优先次序。例如,分 析可W辨别用户较另一活动更偏爱某一活动,允许更多的参与内容更快地向未来的用户呈 现。在一些实施例中,内容的重新优先排序可基于规模化的来自用户的数据记录自动发生。
[0061] 此外,通过W往对话的分析,写作组可桐察到主题,其需要更多地写作,因为他们 频繁地发生。自然地,一些内容可W表现出比其他内容更有趣。系统可能想要在早期使用 最好的内容W抓住用户的兴趣和注意力。AI或设计者可相应地用高、中或低优先级标记内 容。在一些实施例中,AI引擎可能更喜欢传递被标记为比其他内容更高优先级的内容。
[0062] 紀件管理
[0063] 图9是可实施于某些实施例的描述基于组件的内容管理和传输过程900中的某些 步骤的流程图。在图3-7中的各个实例场景中各种元素如文本框305、402、502a-b、602a-c, 标题屏幕603、用户图像401、501、601和虚拟人物301a-c,可被系统视为组件。组件可能指 的是在场景中可能出现或被使用的资源或者资源的集合。例如,组件可包括:图像-可能带 有阿尔法透明的图层;用户视频订阅-显示设备的照相机的输出,在一些实施例中带有面 部追踪W保持照相机对准用户;人物动画-使用3D几何图形或2D图像显示动画的虚拟人 物;文本查看器-显示状态文本或来自虚拟人物的最后问题的综述;渐进文本显示-用W 随着虚拟人物发言而显示文字;基于图像的动画-显示基于图像的模仿动画,例如闪光灯、 移动的照片,或组件间的转换;等等。
[0064] 在进入场景后或进入场景前,系统可决定哪个组件有关于该交互体验。然后服务 器101可提供具有上述组件的用户设备llOa-b,或预测的组件的部分W被本地缓存W在交 互期间使用。AI引擎在服务器101上操作的地方,服务器101可确定将哪个组件发送给用 户设备llOa-b。在实施例中,AI引擎在用户设备llOa-b上操作的地方,用户设备可确定向 服务器请求哪个组件。在每个实例中,在一些实施例中,AI引擎将仅使尚未被本地缓存在 用户设备llOa-b上的组件被传输。
[00化]参考进程900,在步骤901,系统可能从与服务器101或用户设备通信的数据库检 索用户特征。在步骤902,系统可检索与交互场景相关联的组件。在步骤903,系统可确定 组件个性化元数据。例如,系统可能使用上文所述的标准确定虚拟人物行为和对话的参数, 或确定与部分组件相关联的图像。
[0066] 在步骤905,系统可开始交互会话905。在交互会话期间,在步骤906系统可记录 交互统计数据。在交互会话期间,在步骤907或者随着用户会话总结908,在步骤909,系统 可报告该交互统计数据。
[0067] 图10示出了可实施于某些实施例的组件创造和管理系统GUI 1000的示例截图。 在此示例界面中,设计者可创造类别列表1002,其中一些在多个场景中通用,而其他的,例 如"炉边谈话"1004是特别场景所独有的。在每个类别中,设计者可指定组件1003和对话 元素1005及两者间的交互。在一些实施例中,设计者可指出对话元素和组件间的关系,且 可指出哪个优先的命令组件应被选择、传输、优先化和与其交互。各种工具1001可被用于 编辑和设计对话和组件交互,其可能具有文本编辑或文字处理程序软件通用的元素(如拼 写检查、文本格式等)。使用GUI1000,设计者可通过组件选择指导对话交互。例如,通过指 定回答602a-c的组件,系统可提高用户将用运些词中的某一个进行应答的可能性。
[0068] 咨源预测
[0069] 图11是可实施于某些实施例描述动态AI对话管理过程中的某些步骤的流程图。 在步骤1101,系统可预测可能发生在用户与一个或多个虚拟人物间,或在其对话为非确定 性的虚拟人物间的可能的对话路径。在步骤1102,系统可从数据库检索N语音波形并将其 本地缓存在服务器系统101或用户设备llOa-b。在步骤1103,系统可从数据库检索与N 语音波形相对应的元数据并将其本地缓存在服务器系统101或用户设备llOa-b。在步骤 1104,系统可通知本地缓存的该语音波形和动画的元数据的AI引擎并使用动画元数据动 画化虚拟人物。通过运种方式,该AI引擎可预计在将提供给用户的内容选择中的网络延迟 和/或资源可用性。
[0070] 在一些实施例中,动画可由与该波形关联的音素元数据驱动。例如,时间戳可被用 于将某些动画,如下己和嘴唇运动,与波形的相应点进行关联。通过运种方式,虚拟人物的 动画可动态地适用于由系统选择的波形。在一些实施例中,该"音素元数据"可能包括与已 存在的虚拟人物动画混合的补偿。该音素元数据可在资源创造过程中自动被创造或它可明 确地由动画师或音频工程师生成。在波形由文语转换过程生成中,系统可连接元素形成一 系列音素动画元数据W产生与所生成的波形相关联的音素动画元数据。
[0071]拌析管理
[0072] 图十二是可实施于某些实施例的描述挫折管理过程中的某些步骤的流程图。在步 骤1201系统监控对话记录。在一些实施例中,系统可监控对话的先存记录。在一些实施例 中,系统可监控当前对话正在进行的记录。作为监控的一部分,系统可识别用户的应答作为 挫折的指示并相应地标记应答。
[0073] 在步骤1202,系统可确定是否挫折标记的应答超过了临界值或如果应答达到了评 估用户挫折等级的标准。在用户的应答指示挫折中,系统可开始步骤1203,并通知AI引擎 关于用户的挫折。作为应答,在步骤1204,AI引擎可调整虚拟人物间的交互参数W缓和挫 折。例如,并非更多地在应答中吸引用户,该人物可能更喜欢与彼此交互或自动将交互的流 程指向被确定为更有益于吸引用户的情形。
[0074]语音接收
[00巧]图13是可实施于某些实施例的描述语音接收过程1300中的某些步骤的流程图。 在步骤1301,系统可确定所预期的用户的应答的字符。在一些实施例中,应答的字符可基于 虚拟人物立即地在先陈述和问询被确定。
[0076] 在步骤1302,系统可确定"按住说话"功能是否适当。如果是,系统可在步骤1305 呈现"按住说话"图标,并在步骤1306执行"按住说话"操作。该"按住说话"按钮可作为 语音界面303的修改或接近其出现。
当前第3页1 2 3 4 5 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1