遥控器及其用于接收用户语音的方法与流程

文档序号:16684242发布日期:2019-01-19 00:47阅读:711来源:国知局
遥控器及其用于接收用户语音的方法与流程

本申请要求于2017年7月10日在韩国知识产权局提交的韩国专利申请第10-2017-0087167号的优先权,其公开内容通过引用整体并入本文。

本公开涉及一种遥控器和遥控器的用于接收用户语音的方法,更具体地,本公开涉及一种能够在没有语音输入按钮的情况下远程控制显示装置的遥控器以及遥控器的用于接收用户语音的方法。



背景技术:

面板键或遥控器已被广泛用作能够输出广播和内容的显示装置与用户之间的接口。可选地,用户语音或用户运动可用作显示装置与用户之间的接口。

随着技术的发展,在显示装置中已经使用了各种复杂的功能(例如,执行各种应用、游戏等),从而使得执行内容(例如,从外部源下载的视频或者互联网浏览)变得可用。

随着显示装置中使用各种复杂的功能,用户语音命令的数量增加。因此,易于输入用户语音的遥控器处于高需求。



技术实现要素:

提供了一种能够在没有语音输入按钮的情况下远程控制显示装置的遥控器以及遥控器的用于接收用户语音的方法。

附加的方面将部分地在下面的描述中阐述,并且部分将从描述中变得明显,或者可通过实施所呈现的实施例而了解。

根据本公开的一方面,提供了一种用于通过使用语音识别来控制外部装置的遥控器,包括:麦克风;至少一个传感器;通信接口;和处理器,被配置为控制麦克风、所述至少一个传感器和通信接口。其中,处理器还被配置为:基于遥控器的说话意图信息和外部装置的说话意图信息来识别用户说话意图,根据用户说话意图的识别结果来控制是否向麦克风供电,以及控制通信接口向外部装置发送与通过麦克风接收的用户的语音对应的电信号,其中,遥控器的说话意图信息是基于遥控器的状态或由所述至少一个传感器识别的外部状态确定的,外部装置的说话意图信息是通过通信接口从外部装置接收的。

所述至少一个传感器可包括多个传感器,并且处理器还被配置为通过组合由所述多个传感器识别的与遥控器和用户的脸部之间的距离对应的状态来识别用户说话意图。

所述至少一个传感器可包括以下传感器中的至少一个:被配置为识别遥控器的抓握的抓握传感器、被配置为识别遥控器的运动的运动传感器和被配置为识别用户呼出的气体的气体传感器。

从外部装置接收的说话意图信息可包括关于是否在外部装置的显示器上显示用于引导用户发出语音的弹出窗口指南的信息。

从外部装置接收的说话意图信息可包括关于与在外部装置的显示器上显示的内容对应的用户说话历史的信息。

从外部装置接收的说话意图信息可包括关于预测用户后续是否将会说话的信息。

可基于以下项中的至少一项来识别关于预测用户后续是否将会说话的信息:先前说话、显示在外部装置的显示器上的用户界面的内容和根据先前说话执行外部装置的操作或功能的结果。

处理器还可被配置为:响应于识别出存在用户说话意图,向麦克风供电、控制通信接口并向外部装置发送说话意图信息,外部装置可被配置为在显示器上显示具有语音识别指南的用户界面。

根据本公开的另一方面,提供了一种显示装置,包括:显示器;通信接口;和处理器,被配置为控制显示器和通信接口,其中,处理器还被配置为:控制显示器显示内容,基于通过通信接口从遥控器接收的信息来识别用户说话意图,以及基于识别用户说话意图的结果来控制显示器与所述内容区分地显示具有语音识别指南的用户界面。

处理器还可被配置为:根据通过通信接口从遥控器接收到的信息,控制显示器与所述内容区分地显示具有语音识别指南的用户界面,其中,语音识别指南指示遥控器的状态或可用于接收语音的外部状态。

处理器还被可配置为:控制通信接口向语音识别服务器发送与从遥控器接收的用户语音对应的电信号,并且基于通过通信接口从语音识别服务器接收到响应信息或控制信息,控制显示器在显示器上显示响应信息或基于控制信息执行功能。

根据本公开的一方面,提供了一种遥控器的用于接收用户语音的方法,所述方法包括:可通信地连接到外部装置;基于遥控器的说话意图信息和外部装置的说话意图信息来识别用户说话意图;根据识别用户说话意图的结果来向麦克风供电;和向外部装置发送与通过麦克风接收的用户语音对应的电信号,其中,遥控器的说话意图信息是基于遥控器的状态或由至少一个传感器识别的外部状态确定的,外部装置的说话意图信息是从外部装置接收的。

识别用户说话意图的步骤可包括:从遥控器内接收遥控器的说话意图信息,从遥控器外部接收外部装置的说话意图信息。

可通过使用所述至少一个传感器或麦克风从遥控器内接收遥控器的说话意图信息。

可通过使用在外部装置上显示的弹出窗口指南或用户说话历史从遥控器外部接收外部装置的说话意图信息。

所述方法还可包括:向外部装置发送与通过麦克风输入的用户语音对应的电信号。

根据本公开的一方面,提供了一种非暂时性计算机可读记录介质,所述非暂时性计算机可读记录介质上记录有用于使处理器执行遥控器的用于接收用户语音的方法的程序,所述方法包括:可通信地接到外部装置;基于遥控器的说话意图信息和外部装置的说话意图信息来识别用户说话意图;根据识别用户说话意图的结果来向麦克风供电;和向外部装置发送与通过麦克风接收的用户语音对应的电信号,其中,遥控器的说话意图信息是基于遥控器的状态或由至少一个传感器识别的外部状态确定的,外部装置的说话意图信息是从外部装置接收的。

识别用户说话意图的步骤可包括:从遥控器内接收遥控器的说话意图信息,从遥控器外部接收外部装置的说话意图信息。

可通过使用所述至少一个传感器或麦克风从遥控器内接收遥控器的说话意图信息。

可通过使用在外部装置上显示的弹出窗口指南或用户说话历史从遥控器外部接收外部装置的说话意图信息。

所述方法还可包括:向外部装置发送与通过麦克风输入的用户语音对应的电信号。

附图说明

从下面结合附图进行的描述,本公开的特定实施例的以上和其他方面、特征和优点将更加清楚,其中:

图1是示出根据实施例的显示装置和遥控器之间的操作的示意图;

图2是示出根据实施例的显示装置和遥控器的框图;

图3是示出根据实施例的遥控器的用于接收语音的方法的示意性流程图;和

图4a至图4h是示出根据实施例的遥控器的用于接收语音的方法的示意图。

具体实施方式

在下文中,将参考附图更加详细地描述实施例。在以下描述中,可省略公知但与本公开的主旨无关的配置。另外,关于将附图标记添加到每个附图的构成元件,应该注意的是,附图中的相同附图标号表示相同的元件。

在各种示例实施例中使用的诸如“第一”和“第二”的术语使用各种元件,而不管相应元件的顺序和/或重要性如何,并且不限制相应的元件。这些术语仅被用于将一个元件与其他元件区分开来。例如,在不脱离本公开的范围的情况下,第一元件可被称为第二元件,类似地,第二元件可被称为第一元件。术语“和/或”包括多个相关项的组合或者多个相关项目之一。

根据实施例,提供了一种能够在没有语音输入按钮的情况下识别用户说话意图的遥控器以及遥控器的用于接收语音的方法。

根据实施例,提供了一种能够在没有语音输入按钮的情况下根据各种用户说话意图操作麦克风的遥控器以及遥控器的用于接收语音的方法。

根据实施例,提供了一种能够在没有语音输入按钮的情况下根据接收的用户说话意图信息来操作麦克风的遥控器以及遥控器的用于接收语音的方法。

根据实施例,提供了一种能够在没有语音输入按钮的情况下根据内部用户说话意图和外部用户说话意图之一来操作麦克风的遥控器以及遥控器的用于接收语音的方法。

根据实施例,提供了一种能够在没有语音输入按钮的情况下容易地接收用户语音的遥控器以及遥控器的用于接收语音的方法。

根据本公开的各种实施例,提供了一种能够在没有语音输入按钮的情况下接收用户语音的遥控器以及遥控器的用于接收语音的方法。

根据实施例,如图1所示,选择遥控器200的按钮(或按键),可指按下或触摸按钮(或按键)。

用户输入可指以下中的至少一个:例如,由用户选择遥控器200的按钮(或键)、由用户按下遥控器200的按钮(或键)、由用户触摸遥控器的按钮、由用户输入到遥控器200的触摸手势、由用户抓握遥控器200、由用户移动遥控器200、通过遥控器200输入用户语音、通过显示装置100输入用户语音、通过遥控器200输入用户运动,和通过显示装置100输入用户运动。然而,实施例不限于这些示例。

根据实施例,表述“显示装置的屏幕”可包含显示装置的显示器。然而,实施例不限于此。

只要上下文没有不同的指示,单数表达还包括复数含义。在本公开中,诸如“包括”和“具有”的术语应被理解为指定在说明书中存在这些特征、数量、操作、元件、组件或它们的组合,不排除存在一个或更多个其他特征、数量、操作、元件、组件或它们的组合或者不排除增加一个或更多个其他特征、数量、操作、元件、组件或它们的组合的可能性。

附图中相同的附图标号表示执行基本相同功能的构件。

图1示出显示装置100和遥控器200。

能够输出内容的显示装置100可通过使用如图2所示的麦克风140来接收用户语音,其中,麦克风140安装在显示装置100中或者以有线或无线的方式连接到显示装置100。此外,遥控器200可通过使用如图2所示的麦克风243来接收用户语音。根据实施例的“内容”的示例可包括广播、视频、图像、文本、web文档或它们的组合。内容可指一组内容。

遥控器200可使用红外通信或近场通信(例如,蓝牙,wi-fi等)输出(或发送)控制信息并控制显示装置100。此外,遥控器200可对接收到的用户语音进行转换,并通过红外通信接口或近场通信(例如,蓝牙等)向显示装置100发送转换后的用户语音。

用户可通过选择布置在遥控器的主体(例如,前表面200a、侧表面200b和200c和/或后表面)中的键(例如,按钮)、通过由用户输入(例如,触摸板或触摸手势)触摸遥控器、或者通过使用通过如图2所示的麦克风243的语音识别或者通过如图2所示的传感器245的动作识别(或抓握识别),来控制显示装置100(例如,电源开/关、启动、频道改变、音量控制或内容重放)。

用户可通过语音说话(或所发出的语音的语音识别)来控制显示装置100。布置在遥控器200的主体中的麦克风243可通过前表面200a接收用于控制显示装置100的用户语音。遥控器200可将接收到的用户语音转换为电信号(例如,数字信号、数字数据或数据包)并向显示装置100发送电信号。

用户可通过如图2所示的附属于显示装置100的相机145通过运动识别来控制显示装置100(例如,电源开/关、启动、频道改变、音量改变或内容重放)。此外,用户可通过使用遥控器200的运动(例如,通过抓握或移动遥控器200)来控制显示装置100的屏幕。

参照图1,遥控器200可包括与显示装置100的功能和/或操作对应的按钮241(或按键)。按钮241可包括可能被按下的物理按钮或触摸界面按钮。遥控器200可包括单一功能按钮(例如,241a、241b和241d至241i)和/或与由显示装置100执行的功能对应的多功能按钮241c。

遥控器200的单一功能按钮(例如,电源按钮241a)可指控制由显示装置100执行的多个功能中的一个功能的按钮(或按键)。遥控器200的大部分功能键可以是单一功能键。

根据实施例,在遥控器200中没有语音按钮(或语音识别按钮)。根据显示装置100的功能,可增加、改变或减少遥控器200的按钮的排列顺序和/或按钮的数量。

语音识别服务器可将与输入到遥控器200或显示装置100的用户语音对应的电信号(或与电信号对应的数据包)转换为通过语音识别而生成的语音数据(例如,文本、代码等)。语音数据可通过显示装置100被发送到另一个服务器(例如,交互式服务器等)或可直接被发送到另一个服务器。

交互式服务器可将语音数据转换为显示装置100可识别的控制信息(例如,用于控制显示装置100的控制命令)。控制信息可被发送到显示装置100。

语音识别服务器可被实现为与交互式服务器集成在一起或与交互式服务器分离。

图2是被提供以用于解释根据实施例的显示装置和遥控器的框图。

参照图2,从遥控器200接收与用户语音对应的电信号的显示装置100可以以有线的或无线的方式通过使用通信接口130或输入/输出接口160连接到外部装置(例如,一个或更多个服务器)。

从遥控器200接收与用户语音对应的电信号的显示装置100可向以有线的或无线的方式连接的外部装置(例如,一个或更多个服务器)发送通过通信接口130或输入/输出接口160接收的电信号(或与电信号对应的数据包)。显示装置100可通过使用通信接口130或输入/输出接口160向以有线的或无线的方式连接的外部装置(例如,服务器)发送与通过麦克风140接收的用户语音对应的电信号(或与电信号对应的数据包)。外部装置的示例可包括:移动电话、智能电话、平板pc、台式pc和pc。

显示装置100可包括显示器170并可包括调谐器120、通信接口130和输入/输出接口160中的至少一个。显示装置100可包括显示器170并可包括调谐器120、通信接口130和输入/输出接口160的组合。包括显示器170的显示装置100可电连接到包括调谐器的单独的电子装置。

显示装置100可被实现为模拟tv、数字tv、3dtv、智能tv、ledtv、oledtv、等离子tv、监视器、具有屏幕的曲面tv(或具有固定曲率的显示器)、具有有固定曲率的屏幕的柔性tv、具有有固定曲率的屏幕的弯曲tv和/或能够通过使用接收到的用户输入来改变屏幕曲率的曲率可变型tv等,但是本公开不限于此。

显示装置100可包括:调谐器120、通信接口130、麦克风140、相机145、光接收器150、输入/输出接口160、显示器170、音频输出接口175、存储器180和供电器190。显示装置100可包括用于检测(或识别)显示装置100的内部状态或显示装置100的外部状态的传感器(例如,照度传感器、温度传感器等)。

控制器110可包括处理器111、rom112(或非易失性存储器)和ram113(或易失性存储器),其中,rom112包括用于控制显示装置100的控制程序,ram113存储从外部源输入的信号或数据,或被用作与由显示装置100执行的各种操作对应的存储区域。

控制器110可控制显示装置100的整体操作或显示装置100的内部元件110至内部元件190之间的信号流,并执行数据的处理。控制器110可控制通过通信接口130向语音识别服务器发送与接收到的用户语音对应的电信号(或者与电信号对应的数据包),或者通过通信接口130从语音识别服务器接收与电信号(或者与电信号对应的数据包)对应的语音数据(或者响应信息)。控制器110可控制将通过通信接口130接收的语音数据发送到交互式服务器,或者从交互式服务器接收与语音数据对应的控制信息。

响应于通过通信接口130从语音识别服务器接收响应信息或控制信息,控制器110可控制在显示器170上显示响应信息或基于控制信息执行功能。

控制器110可控制是否从供电器190向内部元件110至内部元件190提供电力。如果存在用户输入或者预定的预先存储的条件被满足,则控制器110可执行存储在存储器180中的操作系统(os)或各种应用。

处理器111还可包括用于对与图像或视频对应的图形进行处理的图形处理单元。处理器111可包括图形处理单元或图形处理单元可分离实现。处理器111可被实现为包括核和图形处理单元的片上系统(soc)。处理器111还可被实现为包括rom112和ram113中的至少一个的soc。处理器111可包括单核、双核、三核、四核等。

显示装置100的处理器111可包括多个处理器。多个处理器可包括主处理器和子处理器,其中,子处理器在屏幕关闭状态(或者在连接电源插头的情况下的屏幕(电源)关闭状态)下和/或睡眠状态下进行操作。多个处理器还可包括用于控制传感器的传感器处理器。

处理器111、rom112和ram113可经由内部总线彼此连接。

根据实施例,表述“显示装置100的控制器”可指显示装置100的处理器111、rom112和ram113的全部。根据实施例,术语“显示装置100的控制器”可指显示装置100的处理器111。可选地,术语“显示装置100的控制器”可指显示装置100的主处理器、子处理器、rom112和ram113的全部。

应该理解,控制器110的配置和操作可由本领域技术人员根据实施例而改变。

调谐器120可通过以有线的或无线的方式接收的广播信号的放大、混合或共振进行调谐,来仅选择多个频率分量当中将由显示装置100接收的频道的频率。广播信号可包括视频、音频和附加数据(例如,电子节目指南(epg))。

调谐器120可根据用户输入(例如,语音、运动、按钮输入、触摸输入等)接收与频道号(例如,有线广播频道号506)对应的频率带宽的视频、音频和数据等。

调谐器120可从各种源(诸如地面广播、有线广播、卫星广播、互联网广播等)接收广播信号。

调谐器120可与显示装置100以一体化的形状整体实现,或者实现为电连接到显示装置100的调谐器或实现为包括调谐器的独立装置(例如,机顶盒或单连接装置)。

通信接口130可通过控制器110的控制将显示装置100连接到遥控器200或外部装置。通信接口130可通过控制器110的控制将与用户语音对应的电信号(或与电信号对应的数据包)发送到语音识别服务器、或从语音识别服务器接收与电信号(或与电信号对应的数据包)对应的语音数据(或响应信息)。通信接口130可通过控制器110的控制将接收到的语音数据发送到交互式服务器或者从交互式服务器接收与语音数据对应的控制信息。

通信接口130可通过控制器110的控制从外部资源下载应用或执行web浏览。

根据显示装置100的性能和结构,通信接口130可包括有线以太网131、无线lan通信器132和近场通信器133。通信接口130可包括有线以太网131、无线lan通信器132和近场通信器133的组合。

有线以太网131可在控制器110的控制下通过有线网络电缆连接到家庭网络(或办公网络等)。无线lan通信器132可在控制器110的控制下无线连接到接入点(ap)。无线lan通信器132可包括,例如,wi-fi。此外,近场通信器133可在控制单元110的控制下在没有接入点的情况下无线地执行与遥控器200和/或外部装置的短距离通信。近场通信可包括:例如,蓝牙、低功耗蓝牙、红外通讯技术(irda)、超宽带(uwb)、近场通信等。

通信接口130可接收从遥控器200发送的控制信号。近场通信器133可通过控制器110的控制接收从遥控器200发送的控制信号。

麦克风140可接收所发出的用户语音。麦克风140可将接收到的用户语音转换为电信号并将该电信号输出至控制器110。用户语音可以是与例如,显示装置100的用户指南、菜单或功能控制对应的语音。麦克风140的识别范围可根据用户语音的音量或周围环境(例如,扬声器声音、环境噪声)而变化。

麦克风140可与显示装置100整体地或分离地实现。与显示装置100分离的麦克风140可通过通信接口130或输入/输出接口160电连接到显示装置100。

相机145可捕获与相机可用的识别范围中的用户运动对应的视频(例如,一系列帧)。用户运动的示例可包括:例如,用户的存在(例如,用户出现在相机可用的识别范围内)、用户使用用户身体的一部分(例如脸部、脸部外观、手、拳头或手指)的运动。相机145可由镜头和图像传感器组成。

相机145可以位于显示装置100的顶部、底部、左侧和右侧之一。

相机145可对一系列捕获的帧进行转换并将结果输出到控制器110。控制器110可对一系列捕获的帧进行分析并识别用户的运动。控制器110可基于识别用户运动的结果在显示装置100上显示指南或菜单,或者根据识别用户运动的结果来执行控制操作(例如,频道调整、音量调整等)。

当相机145包括多个相机时,控制器110可通过多个相机接收三维静止图像或三维运动。

相机145可与显示装置100整体地或分离地实现。包括单独的相机的电子装置可通过通信接口130或输入/输出接口160电连接到显示装置100。

光接收器150可通过光窗接收从遥控器200输出的光信号(包括控制信号)。

光接收器150可从遥控器200接收与用户输入(例如,触摸、按压、触摸手势、语音或运动)对应的光信号。可从接收到的光信号中提取控制信号。接收到的光信号和/或提取出的控制信号可被发送到控制器110。

输入/输出接口160可通过控制器110的控制从显示装置100的外部接收内容。内容的示例可包括视频、图像、文本或web文档。

输入/输出接口160可包括高清晰度多媒体接口(hdmi)输入端口161、分量输入插孔162、pc输入端口163和usb输入插孔164中的一个。输入/输出接口160可包括hdmi输入端口161、分量输入插孔162、pc输入端口163和usb输入插孔164的组合。本领域技术人员将容易理解的是,可根据显示装置100的性能和结构来添加、删除和/或改变输入/输出接口160(例如,光缆输出)的元件。

显示器170可通过控制器110的控制来显示包括在通过调谐器120接收的广播信号中的视频。显示器170可通过控制器110的控制来显示通过通信接口130接收的响应信息。

显示器170可显示通过通信接口130或输入/输出接口160接收的内容(例如,视频)。显示器170可通过控制器110的控制输出存储在存储器180中的内容。显示器170可显示用于执行与语音识别对应的语音识别任务的语音识别指南的用户界面(ui),或显示用于执行与运动识别相对应的运动识别任务的运动识别指南的用户界面。例如,语音识别指南的用户界面可包括语音命令指南(例如,推荐语音数据或推荐指南),运动识别指南的用户界面可包括运动命令指南。

显示装置100的屏幕可指显示装置100的显示器170。

显示器170可与显示装置100分离。显示器170可通过输入/输出接口160电连接到显示装置100。

音频输出接口175可通过控制器110的控制来输出通过调谐器120接收的广播信号中包括的音频。音频输出接口175可输出通过通信接口130或输入/输出接口160输入的音频(例如,与语音或声音对应的)。音频输出接口175可通过控制器110的控制输出存储在存储器180中的音频文件。

音频输出接口175可包括:扬声器176、耳机输出端子177、s/pdif输出端子178或扬声器176、耳机输出端子177和s/pdif输出端子178的组合。

存储器180可通过控制器110的控制来存储用于驱动和控制显示装置100的各种数据、程序或应用。存储器180可存储与调谐器120、通信接口130、麦克风140、相机145、光接收器150、输入/输出接口160、显示器170、音频输出接口175和供电器190的驱动对应的输入/输出信号或数据。

存储器180可存储:用于控制显示装置100和控制器110的控制程序、由制造商最初提供的或者从外部源下载的应用、与应用有关的图形用户界面(以下称为“gui”)、用于提供gui的对象(例如,图像文本、图标、按钮等)、用户信息、文档、语音数据库、运动数据库或相关数据。

存储器180可包括:广播接收模块、频道控制模块、音量控制模块、通信控制模块、语音识别模块、运动识别模块、光接收器模块、显示控制模块、音频控制模块、外部输入控制模块、电源控制模块、语音数据库(db)或运动数据库(db)。

模块和数据库可以以软件的形式被实现以用于执行显示装置的广播接收控制功能、频道控制功能、音量控制功能、通信控制功能、语音识别功能、运动识别功能、光接收控制功能、显示控制功能、音频控制功能、外部输入控制功能或电力控制功能。控制器210可使用存储在存储器280中的软件来执行显示装置100的操作和/或功能。

存储器180可存储从语音识别服务器接收的语音数据。存储器180可存储从语音识别服务器接收的控制信息。存储器180可存储从交互式服务器接收的控制信息。

存储器180可存储与用户语音的音素对应的数据库。

存储器180可存储与语音数据对应的控制信息数据库。

存储器180可存储包括与视觉反馈对应的视频、图像、表情符号等的符号或文本。存储器180可存储与听觉反馈对应的声音。存储器180可存储提供给用户的反馈的反馈提供时间(例如,300ms)。

根据实施例的术语“存储器”可包含:存储器180、包括控制器110的rom112、ram113和soc的存储器、安装在显示装置100上的存储卡(例如,微型sd卡、usb存储器等)以及可连接到输入/输出接口160的usb输入插孔164的外部存储器(例如,usb存储器等)。此外,存储器可包括:非易失性存储器、易失性存储器、硬盘驱动器(hdd)或固态驱动器(ssd)。

供电器190可通过控制器110的控制将从外部电源输入的电力供应给显示装置100中的内部元件110至内部元件190。供电器190可通过控制器110的控制将从位于显示装置100中的一个或更多个电池输入的电力供应给内部元件110至内部元件190。

图1和图2中的显示装置100的元件110至元件190中的至少一个(例如,虚线框中的至少一个),可与显示装置100的性能和/或类型对应地被添加、改变或检测。此外,本领域技术人员将容易理解的是,元件110至元件190的位置根据显示装置100的性能或结构而变化。

参照图2,对显示装置100进行遥控的遥控器200可包括:控制器210、通信接口230、输入单元240、光输出单元250、显示器270、存储器280和供电器290。遥控器200可包括通信接口230和光输出单元250之一。遥控器200可包括通信接口230和光输出单元250两者。

根据实施例,遥控器200可指对显示装置100进行遥控的电子装置。遥控器200可包括安装有用于控制显示装置100的应用(或者,从外部源下载后可被安装的应用)的电子装置。

安装有用于控制显示装置100的应用的电子装置可包括显示器(例如,触摸屏、不具有触摸面板的显示面板或显示装置100的显示器170)。例如,具有显示器的电子装置可以是移动电话、智能电话、平板pc、笔记本pc、其他显示装置、家用电器(例如,冰箱、洗衣机、清洁器等)。

用户可通过使用由正在执行的应用提供的图形用户界面(gui)中的按钮(例如,频道改变按钮)来控制显示装置100。

控制器210可包括:处理器211、rom212(或非易失性存储器)或ram213(或易失性存储器),其中,rom212存储用于控制遥控器200的控制程序,ram213存储从外部源输入的信号或数据,或被用作由遥控器200执行的各种操作的存储区域。

控制器210可控制遥控器200的整体操作和内部元件210至内部元件290之间的信号流,并且执行数据的处理。控制器210可通过使用供电器290来控制对内部元件210至内部元件290的电力供应。

根据实施例的表述“遥控器200的控制器”可包含处理器211、rom212和ram213。表述“遥控器200的控制器”可指处理器211,或者可进一步指rom212和ram213之一。

通信接口230可通过控制器210的控制,向显示装置100发送根据用户输入(例如,触摸、按压、触摸手势、语音或运动)的控制信号(例如,与通电对应的控制信号或与音量改变对应的控制信号)。

通信接口230可通过控制器210的控制被无线连接到显示装置100。通信接口230可以包括无线lan通信器231和近场通信器232中的至少一个(例如,无线lan通信器231和近场通信器232之一、或者无线lan通信器231和近场通信器232两者)。

遥控器200的通信接口230可与显示装置100的通信接口130基本相同,并且因此将省略任何重复的描述。

输入接口240可包括用于接收用户输入(例如,触摸或按压)的按钮241、触摸板242和/或用于接收发出的用于控制显示装置100的用户语音的麦克风243。输入接口240可部分地设置在遥控器200中或暴露在前表面200a上。

输入接口240还可包括提供触觉反馈(例如,将电信号转换成机械振动)的振动电机。

输入接口240可向控制器210输出与接收到的用户输入(例如,触摸、按压、触摸手势、语音或运动)对应的电信号(例如,模拟信号或数字信号)。

按钮241可包括图1的按钮241a至按钮241i。

触摸板242可接收用户触摸或触摸手势。例如,触摸板242可被实现为方向键241d或输入键241e。触摸板242可设置在遥控器200的前表面和后表面中的至少一个上。

如图1所示的遥控器200的麦克风243可接收发出的用户语音。麦克风243可被实现为一个麦克风或多个麦克风。例如,麦克风243可通过遥控器200的前表面200a接收用户语音。麦克风可以通过遥控器200的后表面接收用户语音。

麦克风243可对接收到的用户语音进行转换并向控制器210输出转换后的用户语音。麦克风243可通过使用在用户语音的设定频率带宽(例如50至4,000hz)内的声压来检测(或识别)用户的说话。

控制器210可生成与用户语音对应的控制信号(或电信号),并通过通信接口230向显示装置100发送控制信号。

传感器245可检测遥控器230的状态和/或外部状态。例如,用于检测遥控器200的运动(例如,旋转、倾斜或移动)的传感器245可包括运动传感器246、陀螺仪传感器、加速度传感器和地磁传感器中的至少一个。传感器245可包括用于检测遥控器200的抓握的抓握传感器247或用于检测用户的呼出的气体(例如,二氧化碳(co2)或一氧化碳(co))的气体传感器248。传感器245可包括重力传感器。

光输出单元250可通过控制器210的控制输出与用户输入(例如,触摸、按压、触摸手势、语音或运动)对应的光信号(例如,控制信号)。从光输出单元250输出的光信号可被发送到显示装置100的光接收器150。在遥控器200中使用的遥控器代码格式可以是仅用于制造商的遥控器代码格式和商业遥控器代码格式中的一种。遥控器代码格式可包括引导码和数据字。输出的光信号可通过被调制到载波上而被输出。控制信号可存储在存储器280中或由控制器210生成。遥控器200可包括红外激光发光二极管(ir-led)。

遥控器200可通过通信接口230和光输出单元250之一将与用户语音对应的控制信号发送到显示装置100。

控制器210可通过通信接口230和光输出单元250之一将与用户语音对应的控制信号优先发送到显示装置100。

显示器270可显示显示装置100上显示的广播频道号码、广播频道名称和/或显示装置状态(例如,屏幕关闭、就绪模式、欢迎模式和/或一般模式)。显示器270可包括:例如,液晶显示器(lcd)方法、有机发光二极管(oled)方法或真空荧光显示器(vfd)方法。

存储器280可存储用于通过控制器210的控制来驱动和控制遥控器200的各种数据、程序或应用。存储器280可存储将与通信接口230、光输出单元250和供电器290的驱动对应地输入或输出的信号或数据。

存储器280存储与通过控制器210的控制接收的用户输入(例如,触摸、按压、触摸手势、语音或运动)对应的控制信息和/或与遥控器200的运动对应的控制信息。

存储器280可存储与遥控器200对应的遥控器信息。遥控器信息可包括:型号名称、唯一装置id、存储器级别、对象数据的存在、蓝牙版本或蓝牙配置文件。

供电器290可通过控制器210的控制向遥控器200的元件210至元件290供电。供电器290可将来自布置在遥控器200中的至少一个电池的电力供应到元件210至元件290。电池可位于遥控器200的前表面(例如,按钮261所处的位置)与后表面之间。

图1和图2中的遥控器200的元件中的至少一个(例如,虚线中的至少一个框),可与显示装置100的性能对应地被添加或删除。此外,本领域技术人员将容易理解的是,元件110至元件190的位置根据显示装置100的性能或结构而变化。

语音识别服务器可通过通信器接收与输入到遥控器200或显示装置100的用户语音对应的数据包。语音识别服务器的控制器可通过使用语音识别接口和语音识别算法来对接收到的数据包进行分析,并执行语音识别。

语音识别服务器的控制器可通过使用语音识别算法将接收到的电信号(或与电信号对应的数据包)转换为包括词或句子的形式的文本的语音识别数据。

语音识别服务器的控制器可通过通信接口向显示装置100发送语音数据。

语音识别服务器的控制器可将语音数据转换为控制信息(例如,控制命令)。控制信息可控制显示装置100的操作(或功能)。

语音识别服务器可以包括控制信息数据库。语音识别服务器的控制器可以通过使用存储的控制信息数据库来确定与转换后的语音数据对应的控制信息。

语音识别服务器可通过使用控制信息数据库将语音数据转换为用于控制显示装置100的控制信息(例如,由显示装置100的控制器110解析的信息)。

语音识别服务器的控制器可通过通信接口向显示装置100发送控制信息。

语音识别服务器可与显示装置100整体地实现。语音识别服务器300可与显示装置100的元件110至元件190分离,但可包括在显示装置100中。例如,语音识别服务器可被嵌入在存储器180中或可实施为单独的存储器。

交互式服务器可与语音识别服务器分离地实现。交互式服务器可将来自语音识别服务器的语音数据转换为控制信息。交互式服务器可将从语音识别服务器和显示装置100中的一个接收的语音数据转换为控制信息。交互式服务器可向显示装置100发送控制信息。

图2中的语音识别服务器300的元件中的至少一个可与语音识别服务器300的性能对应地添加或删除。

在下文中,将详细举例说明遥控器的接收用户语音的实例。

图3是示出根据实施例的遥控器的用于接收语音的方法的示意性流程图。

图4a至图4h是示出根据实施例的遥控器的用于接收语音的示例的示意图。

在图3的步骤s310,可连接显示装置。

参照图4a,显示装置100上可显示内容101(例如,广播信号、视频等)。遥控器200可位于桌子10上。根据实施例,用户不需要抓握(或触摸)桌子10上的遥控器200。

根据实施例,语音按钮(或语音识别按钮)可不设置在遥控器200的前表面200a和/或侧表面200b和200c上。语音按钮(或语音识别按钮)可不暴露在遥控器200的前表面200a和/或侧表面200b和200c上。选择(或按压或触摸)语音按钮(或语音识别按钮)可指等待(或准备)接收发出的用户语音。

通过选择语音按钮(或语音识别按钮),遥控器200的控制器210和/或显示装置100的控制器110可向麦克风243和麦克风140供电。通过选择语音按钮(或语音识别按钮),可将遥控器200和/或显示装置100的操作状态改变为用户语音的待机状态(或就绪状态)。

显示装置100可以以无线方式(例如,无线lan通信器132或近场通信器133)连接到遥控器200。显示装置100可以以有线或无线方式连接到语音识别服务器。

当显示装置100最初连接到遥控器200时,遥控器200的控制器210可通过使用近场通信器232(例如,蓝牙或低功耗蓝牙)搜索显示装置100。遥控器200的控制器210可对显示装置100进行查询并且发送对查询的显示装置100进行寻呼的请求。当显示装置100最初连接到遥控器200时,遥控器200的控制器210可通过使用无线lan通信器231搜索显示装置100。

当显示装置100最初连接到遥控器200时,显示装置100可通过使用近场通信器133(例如,蓝牙或低功耗蓝牙)和无线lan通信器132中的至少一个搜索遥控器200。

当显示装置100连接到遥控器200时,显示装置100可向遥控器200发送包括控制信息的数据包(例如,ble数据包或蓝牙数据包)并从遥控器200接收包括控制信息的数据包(例如,ble数据包或蓝牙数据包)。

在图3的步骤s320,可接收用户说话意图。

参照图4b至图4e,在显示装置100上可显示内容101和弹出窗口(例如,键盘弹出窗口101a)。显示装置100上显示的与内容101(或内容101的一部分)分开的弹出窗口101a可指用于引导显示装置100上的用户输入的屏幕。可根据显示装置100上显示的弹出窗口101a来执行用户输入。例如,弹出窗口可包括如图4e所示的偏好设置弹出窗口101b。

可基于从遥控器200的内部服务器或遥控器200的外部提供的控制信息来确定(或识别)用户说话意图。

遥控器200可通过传感器245接收用户说话意图。遥控器200可通过麦克风243接收用户说话意图。遥控器200的控制器210可通过使用麦克风243和传感器245中的至少一个来检测用户说话意图。

“用户说话意图”可指能够控制显示装置100的遥控器200从远处通过麦克风243接收用户语音的状态。“用户说话意图”可表示能够控制显示装置100的遥控器200从远处通过麦克风243接收用户语音的待机状态。“用户说话意图”可指在用户从远处通过能够控制显示装置100的遥控器200的麦克风243发出语音之前的状态。

可基于从遥控器200的传感器245和显示装置100接收的控制信息(或状态信息)来确定用户说话意图。以下控制信息中的至少一个可被称为用户说话意图信息:从遥控器200的传感器245接收的控制信息(或状态信息)和从显示装置100接收的控制信息(或状态信息),其中,遥控器200的传感器245通过控制器110的控制来确定(或识别)用户说话意图。例如,基于由传感器245检测的状态,从遥控器200的传感器245接收的控制信息(或基于由传感器检测到的状态的状态信息)可被称为用户说话意图信息(或说话意图信息)。从显示装置100接收的控制信息(或状态信息)可被称为从外部装置接收的用户说话意图信息(或说话意图信息)。

控制器210可通过使用属于遥控器200的传感器245的运动传感器246、抓握传感器247和/或气体传感器248中的一个来检测用户说话意图。上述传感器是示例,但是可以通过使用传感器中的一个或更多个传感器来接收或检测用户说话意图。传感器245可与遥控器200和用户脸部之间的距离(例如,长距离、中距离和短距离)相关。例如,抓握传感器247可与遥控器200和用户脸部之间的长距离对应。运动传感器246可与遥控器200和用户脸部之间的中间距离对应。气体传感器248可与遥控器200和用户脸部之间的短距离对应。

参照图4b,用户可抓握桌子10上的遥控器200。用户可抓握桌子10上的遥控器200以通过遥控器200的麦克风243发出语音。用户可用左手或右手的至少一个手指抓握放置在桌子10上的第一位置201a处的遥控器200。用户可用左手或右手的至少一个手指在桌子10上的第一位置201a处抓握遥控器200以通过遥控器200的麦克风243发出语音。

遥控器200的抓握传感器247可接收来自用户的抓握(或抓握压力)。布置在遥控器200的侧表面200b和侧表面200c上的抓握传感器247可接收来自用户的抓握(或抓握压力)。

抓握传感器247可布置在遥控器200的侧表面200b和侧表面200c的至少一个上。布置在遥控器200的侧表面200b和侧表面200c的至少一个上的抓握传感器247可实现为条形或者抓握传感器247的多个传感器可以彼此间隔开。

可相对于方向键241d向下(例如,在与电源按钮241a相反的方向上)放置布置在遥控器200的侧表面200b和侧表面200c上的抓握传感器247。

布置在遥控器200的侧表面200b和侧表面200c上的抓握传感器247可向控制器210发送与来自用户的抓握(或抓握压力)对应的电信号。布置在遥控器200的侧表面200b和侧表面200c上的抓握传感器247可向控制器210发送与通过用户的左手或右手的至少一个手指的接触对应的电信号。

遥控器200的控制器210可通过使用从抓握传感器247接收的电信号来检测用户的抓握。

存储器280可通过控制器210的控制来存储从抓握传感器247接收的模拟信号或数字信号。存储在存储器中的模拟信号或数字信号被称为“遥控器抓握信息”。存储的遥控器抓握信息可包括用于管理历史的以下信息:遥控器抓握信息标识(id)、传感器标识(id)、遥控器的抓握检测时间、遥控器的抓握检测值(例如,电压或电流)。

可周期性地存储遥控器200的第一位置201a中存储的遥控器抓握信息,直至控制器210确定用户的抓握。遥控器抓握信息可以是与传感器分辨率和/或设定的传感器的检测时间间隔对应存储的一组遥控器抓握信息。

遥控器200的控制器210可通过检测用户的抓握来确定“用户存在说话意图”。

参照图4c,用户可移动桌子10上的遥控器200。用户可移动桌子10上的遥控器200以通过遥控器200的麦克风243发出语音。用户可使用左手或右手的至少一个手指抓握和移动被放置在桌子10上的第一位置201a处的遥控器200。用户可使用左手或右手的至少一个手指抓握和移动被放在桌子10上的第一位置201a处的遥控器200,以通过遥控器200的麦克风243发出语音。用户可使用左手或右手的至少一个手指抓握被放在桌子10上的第一位置201a处的遥控器200,并将遥控器200移动到第二位置201b处。用户可使用左手或右手的至少一个手指抓握被放在桌子10上的第一位置201a处的遥控器200,并将遥控器200移动到第二位置201b处,以通过遥控器200的麦克风243发出语音。

遥控器200的运动传感器246可检测遥控器200的运动(例如,旋转、倾斜或移动)。除了可通过运动传感器246来检测遥控器200的运动之外,也可通过加速度传感器、地磁传感器或陀螺仪传感器来检测遥控器200的运动。

可通过运动传感器246周期性地(例如,传感器的分辨率或设定传感器的检测时间间隔)检测遥控器200的运动。

运动传感器246可向控制器210输出与遥控器200的运动对应的模拟信号。可通过转换器将从运动传感器246输出的模拟信号改变为数字信号,并且数字信号被输出到控制器210。

遥控器200的控制器210可对从运动传感器246接收到的电信号(例如,模拟信号或数字信号)进行分析,并确定遥控器200的运动。遥控器200的控制器210可对从运动传感器246接收到的电信号(例如,模拟信号或数字信号)进行分析,并确定遥控器200的运动(例如距离、速度或加速度的变化等)。

存储器280可通过控制器210的控制来存储从运动传感器246接收到的模拟信号或数字信号。存储在存储器280中的模拟信号或数字信号可被称为“遥控器运动信息”。存储的遥控器运动信息可包括用于管理历史的以下信息:遥控器运动信息标识(id)、传感器标识(id)、由遥控器检测到的加速度值(例如,第二轴或第三轴)、遥控器的运动检测时间、或遥控器的距离。

可周期性地存储遥控器200的在第一位置201a处存储的遥控器运动信息,直至遥控器200到达第二位置201b处。遥控器运动信息可以是与传感器分辨率和/或所设定的传感器的检测时间间隔对应地存储的一组遥控器运动信息。

遥控器200的控制器210可通过使用抓握传感器247和运动传感器246中的一个来确定“用户是否存在说话意图”。遥控器200的控制器210可通过一系列的抓握传感器247和运动传感器246的组合来确定“用户是否存在说话意图”。

参照图4d,用户可将位于桌子10上的遥控器200移动至接近用户的嘴(例如,取决于麦克风253的性能,在50厘米内)。用户可将桌子10上的遥控器200移动至接近用户的嘴,以通过遥控器200的麦克风243发出语音。

用户可通过使用左手或右手的至少一个手指抓握在桌子10上的第一位置201a处的遥控器200并将遥控器200移动至接近用户的嘴。用户可通过使用左手或右手的至少一个手指抓握被放在桌子10上的第一位置201a处的遥控器200并将遥控器200移动至接近用户的嘴,以通过遥控器200的麦克风243发出语音。

用户可通过使用左手或右手的至少一个手指抓握被放在桌子10上的第一位置201a处的遥控器200并将遥控器200移动至接近用户的嘴的第三位置201c。用户可通过使用左手或右手的至少一个手指抓握被放在桌子10上的第一位置201a处的遥控器200并将遥控器200移动至接近用户的嘴的第三位置201c,以通过遥控器200的麦克风243发出语音。第三位置201c可指用户嘴部附近的位置,并且在第三位置201c处,气体传感器248可检测到用户呼出的气体(例如,二氧化碳(co2))。

移动到第三位置201c处的遥控器200的气体传感器248可检测用户呼出的气体(例如,二氧化碳(co2))。在第三位置201c处,遥控器200的气体传感器248可检测到用户呼出的气体(例如,二氧化碳(co2))。遥控器200的气体传感器248可在遥控器移动到第三位置201c处时检测到用户呼出的气体(例如,二氧化碳(co2))。

遥控器200的气体传感器248可周期性地(例如,传感器的分辨率或设定传感器的检测时间间隔)检测气体。

气体传感器248可向控制器210输出与进入遥控器200的气体对应的模拟信号。可通过转换器将从气体传感器248输出的模拟信号转换为数字信号,并且数字信号可被输出到控制器210。

遥控器200的控制器210可对从气体传感器248接收到的电信号(例如,模拟信号或数字信号)进行分析,并确定由遥控器200检测的用户呼出的气体。遥控器200的控制器210可对从气体传感器248接收到的电信号(例如,模拟信号或数字信号)进行分析,并确定由遥控器200检测的用户呼出的气体。

存储器280可通过控制器210的控制来存储从气体传感器248接收到的模拟信号或数字信号。存储在存储器280中的模拟信号或数字信号可被称为“遥控器气体信息”。存储的遥控器气体信息可包括用于管理历史的以下信息:遥控器气体信息标识(id)、传感器标识(id)、检测到的气体的名称、检测到进入遥控器的气体的时间。

可周期性地存储遥控器200的在第一位置201a处存储的遥控器气体信息,直至遥控器200到达第三位置201c处。可在遥控器200到达第三位置201c处之后,周期性地存储遥控器200的在第一位置201a处存储的遥控器气体信息。遥控器气体信息可以是与传感器分辨率和/或所设定的传感器的检测时间间隔对应存储的一组遥控器气体信息。

除了上述气体传感器248之外,传感器245还可包括用于通过测量遥控器200与用户脸部之间的距离来检测遥控器200的接近(或出现)的距离传感器(例如,超声波传感器),以及用于检测用户的遥控器200的接近(或出现)的接近传感器。

遥控器200的控制器210可通过气体传感器248来确定“用户是否存在说话意图”。遥控器200的控制器210可被抓握传感器247和运动传感器246之一触发,并通过气体传感器248来确定“用户是否存在说话意图”。根据实施例,遥控器200的控制器210可通过抓握传感器247、运动传感器246和气体传感器248的任意组合来确定“用户是否存在说话意图”。例如,根据实施例,控制器210可仅基于抓握传感器247确定存在用户说话意图。根据实施例,控制器210可仅基于运动传感器246确定存在用户说话意图。根据实施例,控制器210可仅基于气体传感器248确定存在用户说话意图。根据实施例,控制器210可基于抓握传感器247、运动传感器246和气体传感器248三者全部来确定存在用户说话意图。根据实施例,控制器210可基于抓握传感器247、运动传感器246和气体传感器248中的任意两个来确定用户存在说话意图。

参照图4e,显示装置100可显示内容101和弹出窗口(例如,偏好设置弹出窗口101b)。可通过遥控器200的内部传感器245或从外部装置(例如,显示装置100)接收的控制信息来确定用户说话意图。

显示装置100的控制器110可对在显示器170上显示的内容和与内容对应的用户的使用模式(或说话历史)进行分析。显示装置100的控制器110可基于对内容的和用户的使用模式(或使用历史)进行分析的结果来确定用户说话意图(或者,用户是否发出语音)。

当显示器170显示内容101和弹出窗口(例如,键盘弹出窗口101a)时,显示装置100的控制器110可确定“用户是否存在说话意图”。当显示器170显示内容101和弹出窗口(例如,偏好设置弹出窗口101b)时,显示装置100的控制器110可确定“用户是否存在说话意图”。弹出窗口101a或弹出窗口101b可以是示例实施例,并且弹出窗口(或屏幕)可以是任何形式,只要它引导用户发出语音即可。

当弹出窗口被显示在显示装置100的屏幕上时,显示装置100的控制器110可通过通信接口130向遥控器200的通信接口230发送与“弹出窗口”对应的第一控制信息(例如,第(1-1)数据包)。

显示装置100的控制器110可根据无线通信标准向遥控器200发送(或转换并发送)与“弹出窗口”对应的第一控制信息(例如,第(1-1)数据包)。此外,显示装置100的控制器110可控制通信接口130发送与“弹出窗口”对应的第(1-1)数据包。数据包可以是使用近场通信标准的数据包。

除了上述弹出窗口之外,当显示器170显示智能中心的内容或主屏幕时,显示装置100的控制器110可基于用户的使用模式(或说话历史)来确认用户先前的说话。

当在显示器170上显示智能中心的内容和主屏幕中包括的多个屏幕之一时,显示装置100的控制器110可确认是否‘存在用户先前的说话’。“存在用户先前的说话”中可包括:显示次数的总数、用户说话的次数以及说话的百分比(%)。当在显示装置100的屏幕上显示与用户先前说话相对应的屏幕时,显示装置100的控制器110可通过使用通信接口130向遥控器200的通信接口230发送与“用户先前说话”对应的第一控制信息(例如,第(1-2)数据包)。

显示装置100的控制器110可使用无线通信标准向遥控器200发送(或转换并发送)与“用户先前说话”对应的第一控制信息(例如,第(1-2)数据包)。显示装置100的控制器110可控制通信接口130发送与“用户先前说话”对应的第(1-2)数据包。数据包可以是使用近场通信标准的数据包。

遥控器200的控制器210可通过组合从传感器245和外部源接收的第一控制信息来确定“用户是否存在说话意图”。遥控器200的控制器210可以通过组合从多个传感器和外部源中的至少一个接收到的第一控制信息来确定“用户是否存在说话意图”。

用户说话意图不仅可以由遥控器200确认,而且可以由显示装置100的控制器110确认。

在图3的步骤s330,可在麦克风打开屏幕和显示装置的屏幕上显示针对语音识别指南的用户界面。

参照图4f,可以在显示装置100的屏幕上显示用于语音识别指南的用户界面(或q标志(提示标志))101c。遥控器200的控制器210可向与‘确认用户说话意图’对应的麦克风243供电。遥控器200的控制器210可允许麦克风243进行与‘确认用户说话意图’对应的操作(例如,接收发出的用户语音)。当麦克风243不操作(或者麦克风243未被供电)时,尽管用户发出语音,但麦克风243可不接收用户语音。

遥控器200的控制器210可通过使用通信接口230向显示装置100的通信接口130发送与‘确认用户说话意图’对应的第二控制信息。

控制器210可进行控制以显示与接收到控制器110的第二控制信息对应的用于语音识别指南的用户界面101c。

语音识别指南的用户界面101c可指在显示装置100的屏幕上提供的用于引导用户说话的用户界面。例如,当确认用户的说话意图时,显示装置100的控制器110可向用户提供语音识别指南的用户界面101c,其中,语音识别指南的用户界面101c包括与‘确认用户说话意图’对应的文本、图像、视频或符号。语音识别指南的用户界面101c可与显示在屏幕上的内容101分开。

语音识别指南的用户界面101c可包括显示在语音识别指南的用户界面101c的一侧的用户指南(例如,如图4f和图4g所示,诸如“micon(麦克风打开)”的文本101c1、图像101c2、视频和/或符号101d3)。用户指南可包括文本、图像、视频和符号之一,或者其任意组合。

语音识别指南的用户界面101c可被布置在显示装置100的一侧(例如,顶部/底部/左侧/右侧)。语音识别指南的用户界面101c可与显示在显示装置100的屏幕上的内容101重叠。

语音识别指南的用户界面101c可具有透明度(例如,0%至100%)。根据语音识别指南的用户界面101c的透明度,内容101可以是模糊的。语音识别指南的用户界面101c可被显示为与屏幕上的内容101区别。

当在用户抓握遥控器200之后尽可能快地显示语音识别指南的用户界面101c时,可为用户提供增强的用户体验。例如,从抓握遥控器200到显示语音识别指导的用户界面101c的时间t1可以是1秒或更少。此外,从抓握遥控器200到显示语音识别指南的用户界面101c的时间t1可以是3秒或更少。

在图3的步骤s340,可接收用户语音。

参照图4g,显示装置100的控制器110可显示语音识别指南的另一用户界面101d。当在语音识别指南的用户界面101c之后经过预定时间(例如,100ms,可改变的)时,显示装置100的控制器110可显示与接收用户语音对应的语音识别指南的另一用户界面101d。语音识别指南的另一用户界面101d可包括用户指南(例如,如图4g所示,文本101d1(‘speaknow(现在讲话)’)、图像101d2、视频或符号101d3)。

当在显示装置100的屏幕上显示语音识别指南的另一用户界面101d时,用户可向遥控器200发出语音(例如,soccer(足球))。遥控器200可通过麦克风243接收用户语音。麦克风243可将接收到的用户语音转换成信号(例如,数字信号或模拟信号)并向控制器210输出信号。控制器210可将与接收到的用户语音对应的信号存储在存储器280中。

当在用户抓握遥控器200之后尽可能快地显示语音识别指南的用户界面101d时,可为用户提供增强的用户体验。例如,从抓握遥控器200到显示语音识别指导的另一用户界面101d的时间t2可以是1.5秒或更少。此外,从抓握遥控器200到显示语音识别指南的用户界面101d的时间t2可以是3.5秒或更少。

在图3的步骤s340,当在预定时间(例如,5秒或更少,可改变的)期间没有接收到用户语音时,遥控器200可阻止供应给麦克风243的电力并终止用户语音识别。

当预测用户后续将会说话时,可通过改变预定时间或者不管预定时间是否过去都保持向麦克风供电来连续接收用户语音。可基于先前说话、根据用户说话的显示装置的用户界面的内容以及根据用户说话确定显示装置的操作或功能的结果来确定是否预测用户的后续说话。

显示装置或交互式服务器可确定是否预测用户后续的说话,显示装置可向遥控器发送包括确定结果的特定信号(数据包)并保持供电或改变用于保持的预定时间。

在图3的步骤s350,向显示装置发送与用户语音对应的控制信号。

参照图4h,可根据所发出的用户语音(例如,足球)改变显示装置100的屏幕。遥控器200的控制器210可通过通信接口230向显示装置100发送与所存储的用户语音对应的电信号。当与用户语音对应的电信号的一部分存储在存储器280中时,遥控器200的控制器210可直接(例如,100ms,可改变的)或通过通信接口230向显示装置100发送与用户语音对应的电信号的所述一部分。

遥控器200的控制器210可根据无线通信标准向显示装置100发送(或转换并发送)与所存储的用户语音对应的电信号。此外,遥控器200的控制器210可控制通信接口230发送包括与所存储的用户语音对应的电信号的数据包。数据包可以是符合近场通信标准的数据包。

当从遥控器200接收到数据包时,显示器装置100的控制器110可将接收到的数据包存储在存储器180中。

显示器装置100的控制器110可分析(或解析)所接收的数据包。根据分析数据包的结果,显示器装置100的控制器110可确定接收与用户语音对应的信号。

显示器装置100的控制器110可通过通信接口130向语音识别服务器发送接收到的数据包。显示器装置100的控制器110可向语音识别服务器发送接收到的数据包本身,或对接收到的数据包进行转换并向语音识别服务器发送转换后的数据包。

语音识别服务器的控制器可基于关于接收到的数据包的语音识别算法来执行语音识别。语音识别算法可将数据包划分成具有预定长度的间隔,分析每个间隔的语音并提取包括频谱和语音功率的参数。语音识别算法可将数据包划分成音素并且基于音素单元的参数识别音素。

语音识别服务器的存储器可存储(更新)与特定音素对应的音素数据库。语音识别服务器300的控制器310可通过使用识别出的音素和存储的数据库生成语音数据。

语音识别服务器的控制器可识别接收到的数据包的波形并生成语音数据。语音识别服务器的控制器可将语音数据转换为控制信息(例如,控制命令)。控制信息可控制显示装置100的操作(或功能)。语音识别服务器可包括控制信息数据库。

语音识别服务器可基于控制信息数据库将转换后的语音数据转换为控制信息(例如,由显示装置100的控制器110解析的信息)。例如,当接收到用户语音(例如,与‘音量增大’对应的模拟波形)时,显示装置100可通过通信接口向语音识别服务器发送与用户语音对应的电信号(例如,数字信号、模拟信号或数据包)。

语音识别服务器可通过语音识别将接收到的电信号(或数据包)转换为语音信号(例如,足球)。语音识别服务器可将语音信号转换(或生成)为控制信息。

当显示装置100接收到控制信息时,显示装置100的控制器110可基于与语音数据对应的控制信息显示足球内容(或足球频道)。

在图3的步骤s350,当向显示装置发送与用户语音对应的控制命令时,可终止遥控器的接收用户语音的操作。

根据本公开实施例的方法可以以程序命令的形式来实现,其中,程序命令可通过各种计算机工具被执行并可被记录在计算机可读介质中。计算机可读介质可单独或组合地包括程序命令、数据文件、数据结构等。例如,计算机可读介质可以是:不管是可擦除还是可重写的易失性存储器或诸如rom的非易失性存储器、存储器(诸如ram、存储器芯片、装置和集成电路)或者可由机器(例如,计算机)读取以及光学或磁性可记录的存储介质(诸如cd、dvd、磁盘或磁带)。

而且,计算机可读程序可被存储在服务器的计算机可读存储介质中,并且计算机程序可经由网络被下载到计算装置。

应该理解的是,包括在遥控器和/或显示装置内的存储器是包含用于实现本公开的实施例的命令的程序或者适合于存储程序的机器可读存储介质的例子。记录在介质上的程序命令可以是专门为本公开设计和配置的程序命令,或者可以是计算机软件领域的技术人员可用的。

尽管已经示出和描述了实施例,但是本领域技术人员将会理解,可在不脱离本公开的原理和精神的情况下对这些实施例进行改变。然而,本公开的技术范围不限于说明书的详细描述,而是由权利要求的范围限定,但是本领域技术人员将理解的是,在不脱离如所附权利要求所阐述的本发明的精神和范围的情况下,可以进行形式和细节上的各种改变。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1