声音分析装置及声音转换控制方法

文档序号:2821209阅读:154来源:国知局
专利名称:声音分析装置及声音转换控制方法
技术领域
本发明涉及分析动物声音的声音分析装置及声音转换控制方法。
背景技术
对于饲养狗和猫等动物作为宠物的人来说,都希望宠物成为家庭中的一员,并且可以和人类同样沟通感情和意图,进行交流。
近年来,伴随声音分析技术,尤其是声波纹分析技术的进步,使判断与包含在动物叫声中的感情和意图相当的内容(以下仅称为“感情”)成为可能。
例如,对宠物和家畜等动物发出的声音进行声音分析,并求出提取了其特征的模式(例如,声谱图)。并且,通过与预先准备的根据动物行动学分析的标准声音模式比较,判断动物的感情。
以这种声音分析技术为基准,有一种技术被公开,即,例如输入动物的叫声和动物动作(行为)的图像,并且通过与预先进行动物行动学分析的声音和动作的数据比较来判断动物的感情,然后用人类所能理解的文字和图像显示。
采用这种技术,主人可以在某种程度上了解动物的感情,并且在动物有要求的时候可以理解该要求并且采取一些应变。但是,现有技术实现的感情传达只能从动物向人类单方面进行,而不能支持从人类向动物的感情传达。因此,很难说是已经实现了主人与动物之间的交流。

发明内容
本发明鉴于上述问题提出,目的在于支持人类和动物之间的双向感情传达。
为了达到该目的,本发明的声音分析装置是如果输入动物的声音,则分析该输入的声音并通过人类语言输出该分析结果,另外,如果在输入声音之后输入使用者的声音,则分析该输入的声音并用动物语言输出该分析结果。
采用本发明,因为在输入并分析了动物声音之后,通过人类语言将该分析结果输出,所以使用者可以通过已输出的人类语言来理解动物声音的意思。另外,因为输入并分析了使用者的声音之后,通过动物语言输出分析结果,所以动物可以通过已输出的动物语言来理解使用者声音的意思。因此,可以支持人类和动物之间的双向感情传递,实现交流。
另外,其他发明是预先将动物的感情、人类语言、动物图像进行多组存储,如果输入动物的声音,则分析该输入的声音的感情,并读取与该分析的感情对应的人类语言、动物图像,然后显示该读取出的人类语言和动物图像。
采用本发明,如果输入动物声音,则分析该输入的声音的感情,并读取与该分析的感情对应的人类语言、动物图像,然后可以显示该读取出的人类语言和动物图像。因此,可以通过显示装置确认与输入的动物声音(例如哭声)的感情对应的人类语言(例如文字组成的信息)和动物图像(例如动物的插图,或者进行该声音输入的动物本身的摄影图像)。


图1A及图1B表示作为第一实施方式的手表型声音分析装置的外观的一个例子;图2是表示手表型声音分析装置使用方法的一个例子的示意图;图3是表示功能结构的一个例子的功能方框图;图4表示存储在声音分析用ROM中的内容的一个例子;图5表示动物标准声音模式的数据结构的一个例子;图6表示人类标准声音模式的数据结构的一个例子;图7表示存储在RAM中的内容的一个例子;图8表示存储在ROM中的内容的一个例子;图9表示动物语言人类语言转换TBL的数据结构的一个例子;图10表示人类语言动物语言转换TBL的数据结构的一个例子;图11表示振动模式TBL的数据结构的一个例子;图12是用于说明主处理流程的流程图;图13是用于说明声音分析处理流程的流程图;
图14是用于说明人类语言输出处理流程的流程图;图15是用于说明动物语言输出处理流程的流程图;图16是用于说明按键输入处理流程的流程图;图17是用于说明模式切换处理流程的流程图;图18表示人类语言输出处理中的画面的一个例子;图19表示动物语言输出处理中的画面的一个例子;图20表示按键输入处理中的画面的一个例子;图21表示模式切换处理中的画面的一个例子;图22表示历史记录显示处理中的画面的一个例子;图23表示时钟显示画面的一个例子;图24A及图24B表示作为第二实施方式的牵引型声音分析装置的外观的一个例子。
具体实施例方式以下参考图1A~图21对适用于本发明的声音分析装置的第一实施方式进行说明。再有,在本实施方式中,虽然以狗代表动物进行说明,但是并不限定于此,例如也可以是猫、海豚、鹦鹉等其他动物。
图1A表示适用于本发明的手表型声音分析装置的外观的一个例子。如图1A所示,手表型声音分析装置100的外观整体上形成了与现有的手表相同的形状。并且具备输入动物和人类声音的话筒102、输出声音的扬声器104、显示输出文本和图像的显示器106、输入各种操作的按键操作部108、用于在携带该手表型声音分析装置100的时候穿戴在人体上的腕套110、振荡器112、用于和外部装置进行无线通信的数据通信部114、统一控制手表型声音分析装置110的控制单元120、未图示的电源。
话筒102是集声装置,通过例如麦克风等实现。在本图中虽然被设为单体但是也可以有多个,也可以是能够自由装卸地分离,并且通过夹子等安装在与本体连接的电线上的结构。
扬声器104是声音输出装置,通过例如扬声器等实现。在本实施方式中,因为存在输出人类能够听到领域之外的高频声音的情况,所以扬声器104设为可以输出该高频领域声音的方式。
显示器106是通过例如LCD(Liquid Crystal Display)和ELD(Electronic Luminescent Display)等显示元件及背光和驱动电路等实现的显示输出装置。显示器106可以通过控制单元120的控制显示文字(文本)和图形、图像等。在本图中,显示器106虽然是单数但也可以具备多个。
按键操作部108是通过例如按钮开关和控制杆、操作盘等实现的输入装置。本实施方式如图1B所示,具备上移键108a、下移键108c、选择键108b、取消键108d。通过按键的按下时间和按下顺序的组合,可以输入例如从多个菜单等的选择操作、决定及取消操作、规定功能的呼叫操作等。按键操作部108的数量可以不限于上述而适宜地设定。
腕套110是使用者在携带的时候用于穿戴·装备在身体或携带物上的装置,例如,除了与手表相同的腕套,也可以是夹子或纽扣、链子、尼龙粘链、磁铁等。
振荡器112是小型的振动产生装置,在本实施方式中,通过控制单元120的控制在与狗2的声音中包含的感情对应的模式下产生振动。使用者4通过身体感应各种振动模式,可以不看显示器106也能了解狗2的感情和意图,视觉障碍者和听觉障碍者也可以利用。
数据通信部114通过计算机等外部装置和无线通信实现数据的收发,通过例如Bluetooth(注册商标)、与IrDA等规格对应的通信模块、有线通信用的插座端子等实现。
控制单元120具备CPU(Central Processing Unit)和各种IC存储器、水晶振荡器等,通过CPU读取存储在IC存储器中的程序等并对其进行运算处理,可以统一控制手表型声音分析装置100。另外,也可以使用例如水晶振荡器等,将手表型声音分析装置100作为手表使用。
图2是表示本实施方式中的使用方法的一个例子的示意图。如本图所示,使用者4通过腕套110将手表型声音分析装置100穿戴在例如使用者4的手腕上等携带使用。通过像手表一样携带手表型声音分析装置100,可以消除另行携带装置走路的不便和使用时每次将装置从包中取出的不便。
并且,手表型声音分析装置100捕捉(检测)使用者4和使用者4身旁的宠物狗2的声音,支持两者间的双向交流。即,通过话筒102捕捉到狗2的声音的时候,分析该声音并判断狗2的感情,在显示器106上显示使用者4可以理解的文本和图(人类语言)。相反,在捕捉到使用者4的声音的时候,分析该声音并判断使用者4的感情,从扬声器104输出狗2可以理解的声音(动物语言)。这里所谓的“动物的声音”是指动物的叫声。另外,“人类语言”是指人类的声音和人类可以理解其意思内容的语句等的文字(文本),或者图像等。另外,“动物语言”是指在同种类和同群体内可以进行思想沟通的动物声音。
图3是表示本实施方式中的功能结构的一个例子的功能方框图。
如本图所示,手表型声音分析装置100具备声音输入部10、声音分析部12、按键输入部14、声音分析用ROM(Read Only Memory)16、CPU20、RAM(Radom Access Memory)30、ROM40、声音输出部50、显示部52、振动产生部54、通信部60、系统路径90。
声音输入部10输入狗2和使用者4的声音,将声音信号输出到声音分析部12。在图1A中话筒102与其相当。
声音分析部12分析从声音输入部10输入的声音信号。更具体地讲,实行例如对包含在声音信号中的噪音成分的去除处理和对声音信号进行A/D转换并转换为规定形式的声音数据的处理、用于提取声音数据特征的模式化处理、与预先登录的标准声音模式进行的比较处理等。这些处理都是通过例如A/D转换器和滤波电路、DSP(Degital Signal Processor)等的运算处理用集成电路等实现的。功能的一部分或者全部也可以通过读取存储在声音分析用ROM16中的程序和数据,并对其运算处理而实现(软件实现)。声音分析部12在图1A中被安装在控制单元120中。
声音分析用ROM16存储提供给声音分析部12的各种处理的程序和数据,由声音分析部12参考。在图1A中,声音分析用ROM16被安装在控制单元120中。
图4表示本实施方式中的存储在声音分析用ROM16中的内容的一个例子。如本图所示,存储例如作为用于通过运算处理来实现声音分析部12的各种处理的程序的声音分析程序162、作为与声音输入部10输入的声音比较的标准数据的动物标准声音模式164及人类标准声音模式166。
图5表示本实施方式中的动物标准声音模式164的数据结构的一个例子。如本图所示,动物标准声音模式164对应并存储表示对于动物的每个种类(动物属性代码)而预先准备的、适合的动物种类的动物属性代码164a;作为将动物感情分类的信息的感情识别代码164b;与用于传递该感情的动物语言相配合的声音(叫声)的标准声音模式164c。标准声音模式164c是例如声谱图的数据。动物语言是指在同种类和同群体内可以进行思想沟通的声音模式。
动物标准声音模式164是通过统计方法求出,并进行动物行动学分析的信息。以动物属性代码164a为基础,检索与对象动物符合的动物标准声音模式164,将从声音输入部10输入声音的声音数据模式化,通过与标准声音模式164c进行匹配判断,可以判断包含在该声音中的动物感情。
人类标准声音模式166是以用于判断包含在使用者4的声音中的感情为标准的信息,与适合的人类属性对应并被预先准备。这里所谓的人类属性是指将例如语言分类、性别、年龄等设为参数的分类。
人类标准声音模式166例如图6所示,包含表示适合的人类属性的人类属性代码166a、将人类感情分类的感情识别代码166b、与此对应的人类声音的标准声音模式166c。
标准声音模式166c是统计求出并分析了的特征声音模式和在对表现感情的单句发音时候的声音模式,例如声谱图的数据等。因此,通过检索符合使用者4的人类属性代码166a的人类标准声音模式166,将从声音输入部10输入的声音的声音数据模式化,与标准声音模式166c进行匹配判断,可以判断包含在该声音中的使用者4的感情。再有,包含在人类标准声音模式166中的数据并不限定于上述,也可以适宜地包含语言的发音速度、声音强弱等的判定值等判断所需的数据,并在匹配判断中使用。
按键输入部14通过例如按钮开关或操纵杆、操作盘、接触膜、轨迹垫等实现,输入操作并将操作信号输出到CPU20中。在图1A中,按键操作部108与其相当。
CPU20在图1A中被安装在控制单元120中,通过运算处理统一对各(功能)块进行控制并实行各种处理。
RAM30是CPU20和声音分析部12暂时存储程序和数据的IC存储器,在图1A中被安装在控制单元120中。
图7表示存储在本实施方式中的RAM30内的内容的一个例子。如本图所示,存储例如储存狗2的名称信息的动物名302;动物属性代码305;人类属性代码306;计时数据308;声音数据310;声音输入时刻数据312;声音识别标记314;感情识别代码316;高频模式标记318;身体感应模式标记320;历史数据322。
动物名302是表示狗2名称的信息,动物属性代码304是表示狗2的种类的信息。无论哪一个都需要使用者在使用前登录。动物名302在后述的人类语言输出处理等中被显示在显示器106上,用于提高狗2和使用者4的亲密感。
人类属性代码306是表示使用者4的属性(例如语言种类、性别、年龄等)的信息,使用者4在使用前登录。
计时数据308是表示日期和时间信息的信息。通过参考计时数据308,手表型声音分析装置100也可以作为时钟和计时器使用。
声音数据310是将从声音输入部10输入的声音通过声音分析部12进行了转换的数字数据。在本实施方式中虽然作为波形数据存储,但是,另外也可以是声谱图等其他数据形式。输入成为声音数据310源头的声音的时刻,储存在声音输入时刻数据312中。
声音识别标记314和感情识别代码316存储通过声音分析部12对声音数据310进行分析的结果。声音识别标记314是表示声音数据是动物声音还是人类声音的信息。感情识别代码316存储通过对标准声音模式164c或者166c的匹配而判断出的感情识别代码164b或者166b。
高频模式标记318在后述的动物语言输出处理中判断使用者4的感情,是一种在用动物语言从扬声器104中输出声音之际,设定是否输出人类不能听见而狗2可以听见的高频声音的信息。例如,在动物是狗的情况下,高频声音相当于所谓“犬笛”发出的音域中的声音。
身体感应模式标记320在后述的人类语言输出处理中,判断包含在狗2的声音中的感情,是在显示器106上显示使用者4可以理解的文本和图之际,设定是否通过振荡器112产生振动的信息。
历史数据322是关于声音输入和输出的历史,对应并存储声音输入时刻322a、声音识别标记322b、感情识别代码322c。因此,通过参考历史数据322,可以了解何时、谁(狗2或者使用者4)互相表示了什么感情。
ROM40存储用于在CPU20中通过运算处理而实现各种功能的程序和数据。
图8表示本实施方式中的存储在ROM40中的内容的一个例子。如本图所示,程序包含系统程序400;人类语言输出程序402,其根据狗2(动物)的声音的分析结果,实行输出使用者4(人类)可以理解的文本和图等(人类语言)的人类语言输出处理;动物语言输出程序404,其根据使用者4的声音的分析结果,实行输出狗2可以理解的声音的动物语言输出处理;用于实行各种模式切换处理的模式切换程序406;用于实行根据历史数据322进行的历史显示处理的历史输出程序408。
作为数据存储了用于确认使用者4本人的声波纹数据410、用于在显示器106进行时钟显示的时钟显示数据412、存储在各种画面显示中的必要信息的画面帧帧数据414、动物语言人类语言转换TBL(表)416;人类语言动物语言转换TBL(表)418、振动模式TBL(表)420。
声波纹数据410是狗2平日习惯亲近的人物的声波纹,例如是主人的声波纹,例如在手表型声音分析装置的厂家中等被预先采取并存储。再有,声波纹数据410并不限定于存储在ROM40中,当然也可以通过使用者4登录在RAM30中。
动物语言人类语言转换TBL416是对应储存狗2的感情和人类语言,人类语言动物语言转换TBL418是对应存储使用者4的感情和动物语言的相当于词典数据的信息。
图9表示本实施方式中的动物语言人类语言转换TBL416的数据结构的一个例子。如本图所示,动物语言人类语言转换TBL416对应并储存声音分析部12分析狗2的声音并对其进行判断的感情识别代码416a、与此对应的人类可以理解的文本数据416b、用于显示动物图像的图像数据416c。再有,图像数据416c也可以是静止图像信息,也可以是用于显示动画的动画信息。
图10表示本实施方式中的人类语言动物语言转换TBL418的数据结构的一个例子。如本图所示,人类语言动物语言转换TBL418对应并储存声音分析部12分析使用者4的声音并对其进行判断的感情识别代码418a、与此对应的人类可以理解的文本数据418b、用于显示人类图像的图像数据418c、人工合成动物(此时是狗)的叫声的合成音数据418d、人类能够听到领域之外的高频声音数据418e、作为预先登录的使用者4的声音的登录声音数据418f。再有,图像数据418c可以是静止图像信息,也可以是用于显示动画的动画信息。
振动模式TBL420例如图11所示,对应并储存感情识别代码420a、振动模式420b。通过参考振动模式TBL420,可以在与感情识别代码420a对应的振动模式420b下使振荡器112振动。
声音输出部50例如通过扬声器来实现,并输出声音。图1A的扬声器104与此相当。
显示部52例如通过LCD、ELD、PDP等显示元件实现,并显示输出图像。图1A的显示器106与此相当。
振动产生部54例如通过振荡器等振动器实现并产生振动。图1A的振荡器112与此相当。
通信部60是用于和外部装置进行无线通信的接收发送装置。通过例如Bluetooth(注册商标)、IrDA等模块、有线用通信电缆的插座和控制电路等实现。图1A的数据通信部114与此相当。再有,通信部60将通信时提供的协议存储栈等信息记录在ROM40上(省略图示),并适宜地读取利用。
接下来参考图12~图23对本实施方式中的处理流程进行说明。
图12是用于说明本实施方式中的主处理流程的流程图。如本图所示,如果声音输入部10检测到了输入的声音(步骤S102),则声音分析部12对从声音输入部10输入的声音信号进行A/D转换和滤波处理,转换成适于声音分析的适当形式的声音数据310(S104)。
接下来,将此时的计时数据308作为声音输入时刻数据312与声音数据310对应并存储(步骤S106),然后实行声音数据310的声音分析处理(步骤S108)。
图13是用于说明本实施方式中的声音分析处理流程的流程图。如本图所示,声音分析部12首先读取已存储的声音数据310(步骤S202),然后实行与动物标准声音模式164的匹配(步骤S204)。即,将声音数据310模式化并求出声谱图,然后与标准声音模式164c的模式比较,如果具有与模式特征相似的部分,则判断为具有匹配的部分。
在动物标准声音模式164中具有匹配部分的情况下(步骤S206;YES),声音分析部12将表示动物声音的“1”存储在声音识别标记314中,并将与匹配的标准声音模式164c对应的感情识别代码164b存储在RAM30的感情识别代码316中(步骤S208),然后结束声音分析处理并返回到图12的流程中。
在动物标准声音模式164中没有匹配部分的情况下(步骤S206;NO),实行与人类标准声音模式166的匹配(步骤S210)。
在人类标准声音模式166中具有匹配部分的情况下(步骤S212;YES),声音分析部12将表示人类声音的“0”存储在声音识别标记314中,并将与匹配的标准声音模式166c对应的感情识别代码166b存储在RAM30的感情识别代码316中(步骤S214),然后结束声音分析处理并返回到图12的流程中。
在人类标准声音模式166中没有匹配部分的时候(步骤S212;NO),声音分析部12将“0”存储在声音识别标记3 14中,也将“0”存储在RAM30的感情识别代码316中(步骤S216),然后结束声音分析处理并返回到图12的流程中。
如果结束声音分析处理并返回到图12的流程中,则CPU20参考声音识别标记314和感情识别代码316。
声音识别标记314是“1”的时候,即,输入了动物狗2的声音的时候(步骤S110;YES),实行人类语言输出处理(步骤S112)。声音识别标记314是“0”的时候,即,输入了人类使用者4的声音的时候(步骤S114;YES),实行动物语言输出处理(步骤S116)。声音识别标记314是“0”并且感情识别代码316也是“0”的时候,即,既不能判断动物声音和也不能判断人类声音的情况下(步骤S114;NO),则既不会进入人类语言输出处理也不会进入动物语言输出处理。
图14是用于说明本实施方式中的人类语言输出处理流程的流程图。如本图所示,CPU20首先参考画面帧帧数据414,然后将人类语言输出用的帧显示在显示部52上(步骤S302)。
接下来,参考RAM30的感情识别代码316(步骤S304),从动物语言人类语言转换TBL416中读取与感情识别代码316对应的文本数据416b和图像数据416c,并显示在人类语言输出用的画面内的指定位置上(步骤S306)。
接下来,读取声音数据310,将声音数据显示在人类语言输出用的画面内的规定位置上(步骤S308),读取声音输出时刻数据312,并显示输入声音的日期和时间(步骤S310)。
接下来,CPU20参考身体感应模式标记320,在身体感应模式标记是“1”的时候,即,身体感应模式设定为“ON”的时候(步骤S312;YES),从振动模式TBL420中读取与已经读取出的感情识别代码3 16对应的振动模式420b。然后,根据读取出的振动模式420b控制振动产生部54并使其产生振动(步骤S314),然后终止人类语言输出处理并返回到图12的流程中。然后,如果返回到图12的流程中,则CPU20更新历史数据322(步骤S117)。
图18表示本实施方式中的人类语言输出处理中的画面的一个例子。在人类语言输出用的画面5中,用标题显示5a显示从狗2向使用者4传递的信息。此时,通过例如“从(太郎)传来的信息到达了”这样的在显示中包含动物名302(宠物的名字),可以给使用者4带来进一步的亲切感。
从动物语言人类语言转换TBL416中读取出的与感情识别代码316对应的文本数据416b和图像数据416c分别显示在文本显示部5b和图像显示部5c。文本显示部5b如果可被显示在例如图像显示部5c所描绘的内容中则更佳。
将声音数据310以图表的形式显示在声音数据显示部5d上。可以作为波形数据显示,也可以在声谱图等其他形式下显示。这里,通过显示声音数据310,使用者4可以培养读取该显示特征(图表形状等)的感觉,渐渐地就不需要看文本显示部5b的文本,而仅观看声音数据310的图表显示就能理解狗2的感情和意思。该图表形状包含更加细微的感情和意思,如果使用者4得到读取图表特征的感觉,则可以比感情识别代码的分类更加细微地理解狗2。
输入了声音的时刻被显示在日期和时间显示部5e上,例如画面的下方。
图15是用于说明本实施方式中的动物语言输出处理流程的流程图。如本图所示,CPU20首先参考画面帧数据414,然后将动物语言输出用的帧显示在显示部52上(步骤S402)。
接下来,参考RAM30的感情识别代码316(步骤S404),从人类语言动物语言转换TBL418中读取与感情识别代码316对应的文本数据418b和图像数据418c,然后显示在动物语言输出用的画面内的规定位置上(步骤S406)。
接下来读取声音数据310,将声音数据以图表形式显示在动物语言输出用的画面内的规定位置上(步骤S408),然后读取声音输入时刻数据312,并显示输入了声音的日期和时间(步骤S410)。
接下来CPU20参考高频模式标记318,在高频模式标记是“1”的情况下,即,高频模式被设定为“ON”的情况(步骤S412;YES),从人类语言动物语言转换TBL418中读取与以前参考的感情识别代码316对应的高频声音数据418e,并从声音输出部50输出(步骤S414)。
接下来,将声音数据310与声波纹数据410相验证(步骤S416),判断是否一致(步骤S418)。
在声音数据310与声波纹数据410一致并且被判断为本人声音的时候(步骤S418;YES),从人类语言动物语言转换TBL418中读取与感情识别代码316对应的合成音数据418d(步骤S422),并从声音输出部50输出(步骤S424)。
在判断声音数据310和声波纹数据410不一致的情况下(步骤S418;NO),从人类语言动物语言转换TBL418中读取与感情识别代码316对应的登录声音数据418f(步骤S420),并从声音输出部50输出(步骤S424)。通过输出登录声音数据418f,在不是主人的使用者4的情况下,可以通过使其听到平日亲近人物的声音而缓和狗2的紧张和警戒心,即使在狗2还没有与使用者4习惯的时候,也可以更加顺利地进行沟通。
如果从声音输出部50输出合成音数据418d或者登录声音数据418f,则结束动物语言输出处理并返回到图12的流程中。然后,如果返回到图12的流程中,则CPU20更新历史数据322(步骤S117)。
图19表示本实施方式中的动物语言输出处理的画面的一个例子。在动物语言输出用的画面6中,用标题显示6a表示向狗2传递的信息。此时,通过例如“从(太郎)传来的信息到达了”这样的在显示中包含动物名302(宠物的名字),可以给使用者4带来进一步的亲切感。
从人类语言动物语言转换TBL418中读取的与感情识别代码3 16对应的文本数据418b和图像数据418c分别被显示在文本显示部6b和图像显示部6c上。文本显示部6b如本图所示,如果可被显示在例如图像显示部6c所描绘的内容中则更佳。
声音数据310以图表形式显示在声音数据显示部6d上,并在画面下方的日期和时间显示部6e上显示输入了声音的时刻。
在图12的流程中,在例如上移按键108a或者下移按键108c在规定时间内被按下较长时间的情况下(步骤S118;YES),CPU20就实行按键输入处理(步骤S120)。
图16是用于说明本实施方式中的按键输入处理流程的流程图。如本图所示,CPU20首先参考画面帧数据414,然后将按键输入用的帧显示在显示部52上(步骤S502)。在按键输入用的画面上例如参考人类语言动物语言转换TBL418,以按钮形式可以选择地显示文本数据418b的内容(步骤S116)。
使用者4通过上移按键108a或者下移按键108c选择希望的内容按钮,按下选择按键108b作出选择决定(步骤S504)。
如果输入了选择决定,则CPU20选择与已经从人类语言动物语言转换TBL418中选择的内容对应的感情识别代码418a,并存储在RAM30中(步骤S506)。然后,结束按键输入处理,并返回到图12的流程中。如果返回到图12的流程中,接下来CPU20实行动物语言输出处理。
图20表示本实施方式中的按键输入处理中的画面的一个例子。在按键输入用的画面7中,用标题显示7a表示向狗2传递的信息。
显示以从人类语言动物语言转换TBL418中读取出的文本数据418b作为内容的选择按钮7b。在不能一次显示所有选择按钮7b的时候,显示可以滚动显示。另外,处于目前选择状态的选择按钮7b例如翻转显示。
另外,在画面7上显示选择按钮7c和取消按钮7d,如果分别按下选择按键108b及取消按键108d则进行翻转显示,在视觉上通知使用者4输入了该按键。
在图12的流程中,例如选择按键108b在规定时间内被按下较长时间的情况下(步骤S122;YES),CPU20实行模式切换处理(步骤S124)。
图17是用于说明本实施方式中的模式切换处理流程的流程图。如本图所示,CPU20首先参考画面帧数据414,将模式切换用帧显示在显示部52(步骤S602)。
接下来,在输入了高频模式的切换操作的情况下(步骤S604;YES),CPU20切换高频模式标记318(步骤S606)。在输入了身体感应模式的切换操作的情况下(步骤S608;YES),CPU20切换身体感应模式标记320(步骤S610)。然后,如果输入了规定的结束操作(步骤S612;YES),则结束模式切换处理,并返回到图12的流程中。
图21表示本实施方式中的模式切换处理中的画面的一个例子。在模式切换用的画面7中,用标题显示8a表示正在实行模式切换处理。在模式切换用的画面上显示高频模式的ON/OFF显示8b、身体感应模式的ON/OFF显示8c。ON/OFF显示8b和8c通过上移按键108a或者下移按键108c的输入进入依次选择的状态。在选择状态下,通过输入选择按键108b,输入该模式的切换处理,CPU20就切换ON和OFF。如果按下取消键108d,则可以输入模式切换处理的结束操作。
在图12的流程中,例如将取消键108d在规定时间内被按下较长时间的情况下(步骤S126;YES),CPU20实行历史显示处理(步骤S128)。
图22是表示本实施方式中的历史显示处理中的画面的一个例子。如本图所示,在历史显示处理中,参考历史数据322并显示历史显示部9a。例如,显示时间9b、表示狗2和使用者中的哪一方声音的图标9c、内容9d。图标9c根据声音识别标记322b进行显示。内容9d根据声音识别标记322b和感情识别代码322c从动物语言人类语言转换表416或者人类语言动物语言转换TBL418中读取出文本数据416b或者418b,并进行文本显示。
另外,在不能一次在画面内显示历史显示部9a的情况下,通过上移键108a和下移键108c的输入可以滚动地显示。此时,最好在显示条9e上显示目前显示的历史与一天(24小时)之内的哪段时间相当。
使用者4通过观察该历史显示,可以了解例如狗2的性格和习气、身体状况的变换等。
在图12中,在没有声音输入的情况(步骤S102;NO)、虽然输入了声音却不能判断是动物声音还是人类声音的情况(步骤S114;NO)、以及没有输入特定的按键操作的时候(步骤S118的NO→S112的NO→S126的NO),CPU20例如图23所示,将时钟画面3显示在显示部52上(步骤S130)。
在时钟画面3上显示例如模拟时钟3a、日期3b、星期3c。因此,使用者4在将手表型声音分析装置100作为与狗2之间的交流工具使用的同时,也可以用作手表。

接下来,对适用于本发明的声音分析装置的第二实施方式进行说明。再有,本实施方式基本上可以通过与第一实施方式相同的结构而实现,对带有相同符号的相同构成要素省略说明。
图24A及图24B表示本实施方式中的牵引型声音分析装置200的外观的一个例子。如本图所示,牵引型声音分析装置200具备带狗2散步时候使用的牵引链202,并且其可以通过卷轴204自由抽出/卷曲。在牵引链202的前端设置可以装卸狗2的项圈207和牵引链202的模具206和话筒102。使用者4把持本体208,或者通过夹子212安装在带子等上使用。
话筒102通过配置在牵引链202内的信号线210,与内置在本体208的控制单元120及电源连接。通过将话筒102设置在牵引链202的前端,即使在屋外等声音容易扩散的条件下也可以高效地聚音。
再有,牵引型声音分析装置200也可以通过使用者穿戴的手表型声音分析装置100和数据通信部114,传送由话筒102聚集的声音信号。此时,牵引型声音分析装置200省略声音分析部12及声音分析用ROM16、显示部52、振动产生部54,形成可以利用使用者4所穿戴的手表型声音分析装置100的结构。
以上虽然对适用于本发明的实施方式进行了说明,但是本发明的使用并不限定于此,可以在不超出发明主旨的范围内适当地对构成要素进行变更·追加·削减等。
例如,声音分析装置也可以作为计算机和PDA(Personal DigitalAssistant)、多功能便携电话而实现。
声音分析部12也可以作为通过CPU20的运算处理而实现的结构,声音分析用ROM16也可以与ROM40是同一个。另外,作为按键输入部14,也可以在显示器106的显示面上设置触摸面板而构成。
另外,在动物语言输出处理中,也可以与使用者4的声音数据与声波纹数据410的验证结果无关而输出合成音数据418d,并且在声音数据与声波纹数据410不一致的情况下,设置追加地输出登录声音数据418f的流程。
如上所述,该实施方式的声音分析装置的特征在于,具备输入动物声音的第一声音输入装置(例如图1A的话筒102、图3的声音输入部10、图12的步骤S102);对该第一声音输入装置输入的声音进行分析的第一声音分析装置(例如图1A的控制单元120、图3的声音分析部12、图13的声音分析处理);通过人类语言输出由该第一声音分析装置而得到的分析结果的第一输出装置(例如图1A的显示器106、图3的显示部52、图18的文本显示部5b)、通过该第一声音输入装置输入了声音之后,输入使用者声音的第二声音输入装置(例如图1A的话筒102、图3的声音输入部10、图12的步骤S102);对通过该第二声音输入装置输入的声音进行分析的第二声音分析装置(例如图1A的控制单元120、图3的声音分析部12、图13的声音分析处理);通过动物语言输出由该第二声音分析装置得到的分析结果的第二输出装置(例如图1A的扬声器部104、图3的声音输出部50、图15的动物语言输出处理)。
另外,该实施方式的声音转换控制方法的特征在于,包含输入动物声音的第一声音输入步骤(例如图12的步骤S102);对通过该第一声音输入步骤输入的声音进行分析的第一声音分析步骤(例如图12的步骤S104、S108);通过人类语言输出该第一声音分析步骤的分析结果的第一输出步骤(例如图12的步骤S112);为了应答通过该第一输出步骤输出的内容,使用者输入声音的第二声音输入步骤(例如图12的步骤S102);对通过该第二声音输入步骤输入的声音进行分析的第二声音分析步骤(例如图12的步骤S104、S108);通过动物语言输出该第二声音分析步骤的分析结果的第二输出步骤(例如图12的步骤S116)。
这里所谓的“动物声音”是指动物的叫声。另外,“人类语言”是指人类声音和人类可以表达该意思内容的语句等文字(文本)或者图像等。另外,所谓“动物语言”是指相同种类或相同群体内可以沟通意思的动物声音。
采用该实施方式,因为可以在输入并分析动物声音之后,通过人类语言输出分析结果,所以使用者可以通过输出的人类语言理解动物声音的意思。另外,因为输入并分析使用者的声音之后就通过动物语言输出分析结果,所以动物可以通过输出的动物语言理解使用者声音的意思。因此,可以支持人类和动物之间的双向感情传递,并实现沟通。
另外,该实施方式的声音分析装置的特征在于,具备输入动物声音的第一声音输入装置;对该第一声音输入装置输入的声音进行分析的第一声音分析装置;通过人类语言输出由该第一声音分析装置而得到的分析结果的第一输出装置;从预先存储的人类语句中任意选择的选择装置(例如图1A的显示器106、按键操作部108、图3的按键输入部14、显示部52、图12的步骤S120);通过动物语言输出该选择装置选择的语句的第三输出装置(例如图1A的扬声器104、图3的声音输出部50、图15的步骤S422~S424)。
该实施方式的声音转换控制方法的特征在于,具备输入动物声音的第一声音输入步骤;对通过该第一声音输入步骤输入的声音进行分析的第一声音分析步骤;通过人类语言输出该第一声音分析步骤的分析结果的第一输出步骤;为了应答通过该第一输出步骤输出的内容,使用者任意从预先存储的人类语句中选择的选择步骤(例如图12的步骤S120);通过动物语言输出由该选择步骤选择的语句的分析结果的第三输出步骤(例如图12的步骤S116)。
另外,如本实施方式,权利要求1所述的声音分析装置也可以具备任意从预先存储的人类语言中选择的选择装置;通过动物语言输出由该选择装置选择的语言的第三输出装置。
因为采用本实施方式可以在输入并分析动物声音之后通过人类语言输出分析结果,所以使用者可以通过输出的人类语言理解动物声音的意思。另外,如果使用者任意从预先存储的人类语言中选择,因为该选择的语句通过动物语言输出,所以动物可以理解使用者声音的意思。因此,可以支持人类和动物之间的双向感情传递,并实现交流。
在声音分析中最好如本实施方式所述,上述第一声音分析装置是通过比较上述第一声音输入装置所输入的声音模式和预先存储的标准声音模式,判断该声音中包含的感情并对声音进行分析的装置,上述第二声音分析装置是通过比较上述第二声音输入装置所输入的声音模式和预先存储的标准声音模式,判断该声音中包含的感情并对声音进行分析的装置。
该实施方式的特征在于,上述第二输出装置具有通过输出形成人类可以听到领域之外的高频声音来实现动物语言的声音输出的装置(例如图1A的扬声器104、图10的高频声音数据418e、图15的步骤S412~S414)。采用该实施方式,可以输出人类不能听到的频域的声音作为动物语言。因此,例如即使在顾忌向动物通过人类语言输出内容的状况下,也可以实现交流。
该实施方式的特征在于,具备登录使用者声波纹的第一登录装置(例如图3的ROM40、图8的声波纹数据410);登录由规定意思内容的人类语言而得到的声音的第二登录装置(例如图3的ROM40、图8的人类语言动物语言转换TBL418、图10的登录声音数据418f);判断上述第二声音输入装置输入的声音和上述第一登录装置登录的声波纹是否一致的判断装置(例如图1A的控制单元120、图3的CPU20、图15的步骤S416~S418);在该判断装置判断为不一致的情况下,通过人类语言输出上述第二登录装置登录的声音的第四输出装置(例如图1A的扬声器104、图3的CPU20、声音输出部50、图15的步骤S418~S420、S424)。
采用本实施方式,在使用者的声音与预先登录的声波纹不同的情况下,可以通过人类语言将预先登录的人类声音输出。因此,使动物听到与使用者感情对应的人类声音,得到驯服的训练效果。另外,在将声波纹设为动物最熟悉的人物(例如主人)的声波纹,进而通过第二声音登录装置将该人物发出的声音登录的情况下,在使用者和该人物不同的时候,可以通过使动物听到最熟悉人物声音而得到安抚动物的效果。
该实施方式的特征在于,具备将动物的感情、人类语言、动物图像进行多组存储的存储装置(图8、图9的416);输入动物声音的声音输入装置(图3的声音输入部10);对该第一声音输入装置输入的声音的感情进行分析的声音分析装置(图3的声音分析部12);从上述存储装置中读取出与该声音分析装置分析的感情对应的人类语言、动物图像,并且显示该读取出的人类语言以及动物图像的显示装置(图3的显示部52)。采用该实施方式,如果输入动物的声音,则可以分析该输入的声音的感情,并且读取与该分析的感情对应的人类语言、动物图像,并显示该读取出的人类语言以及动物图像(参考图18)。因此,可以通过显示装置来确认与输入的动物声音(例如哭泣声)的感情对应的人类语言(例如文字组成的信息)和动物图像(例如动物的插图或者进行该声音输入的动物本身的摄影图像)。
该实施方式的特征在于,具有对应并存储上述声音输入装置输入的声音和上述第一声音输入装置输入声音的时刻的存储装置(例如图3的CPU20、RAM30、图7的历史数据322、图12的步骤S117)。
该实施方式的特征在于,具备产生振动的振动产生装置(例如图1A的振荡器112、图3的CPU20、振动产生部54、图11的振动模式TBL420)。采用该实施方式,不仅对于健康者而且对于视觉障碍者和听觉障碍者都可以通过振动来了解分析结果。
采用本发明,使用者可以在输入并分析动物声音之后,通过由人类语言输出分析结果而理解动物声音的意思。另外,在输入并分析使用者的声音之后,通过由动物语言输出分析结果,动物可以理解使用者声音的意思。另外,如果使用者从预先存取的人类语句中任意选择,因为可以通过动物的语言输出该选择的语言,所以动物也可以理解使用者声音的意思。
因此,可以支持人类和动物间的双方感情传递,并实现交流。
另外,在输出动物语言之际,通过输出人类无法听到的频域的声音作为动物语言,即使在顾忌向动物通过人类语言输出内容的状况下,也可以实现交流。
另外,将使用者的声音与预先登录的声波纹验证,在不同的情况下,可以通过人类语言输出预先登录的人类语言的声音。因此,通过对动物输出与使用者感情对应的通过人类声音,使动物听到人类的声音而得到使其驯服的训练效果。另外,如果将声波纹设为动物最习惯的人物(例如主人)的声波纹,即使在使用者与该人物不同的情况下,也可以得到安抚动物的效果。
另外,可以通过将声音分析装置穿戴在身体上而携带使用。因此,在使用该声音分析装置的时候,无需每次从包中取出,提高了使用随意性。
另外,通过预先存储动物和人类之间的相互交往的历史,可以对动物和人类之间相互交往的历史进行分析利用。
另外,通过与动物声音的分析结果对应而产生规定的振动,并利用身体感应告知使用者分析结果,可以无需通过人类语言的文本等来读取分析结果从而提高使用的随意性,更加顺利地实现交流。另外,即使对于视觉障碍者和听觉障碍者,也可以了解分析结果。
进而,采用本发明,如果输入动物声音,则可以分析该输入的声音感情,并读取与该分析的感情对应的人类语言、动物图像,并且显示出读取的人类语言以及动物图像。因此,通过显示装置可以确认与输入的动物声音(例如哭泣声)的感情对应的人类语言(例如文字组成的信息)和动物图像(例如动物的插图或者进行该声音输入的动物本身的摄影图像)。
权利要求
1.一种声音分析装置,其特征在于,具备输入动物声音的第一声音输入装置;对该第一声音输入装置输入的声音进行分析的第一声音分析装置;通过人类语言输出由该第一声音分析装置而得到的分析结果的第一输出装置;通过该第一声音输入装置输入了声音之后,输入使用者声音的第二声音输入装置;对通过第二声音输入装置输入的声音进行分析的第二声音分析装置;通过动物语言输出由第二声音分析装置而得到的分析结果的第二输出装置。
2.根据权利要求1所述的声音分析装置,其特征在于,具备从预先存储的人类语句中任意选择的选择装置;通过动物语言输出通过该选择装置选择的语句的第三输出装置。
3.根据权利要求1所述的声音分析装置,其特征在于,上述第一声音分析装置是通过比较上述第一声音输入装置所输入的声音模式和预先存储的标准声音模式,判断该声音中包含的感情并对声音进行分析的装置,上述第二声音分析装置是通过比较上述第二声音输入装置所输入的声音模式和预先存储的标准声音模式,判断该声音中包含的感情并对声音进行分析的装置。
4.根据权利要求1所述的声音分析装置,其特征在于,上述第二输出装置具有通过输出形成人类可以听到领域之外的高频声音来实现动物语言的声音输出的装置。
5.根据权利要求1所述的声音分析装置,其特征在于,具备登录使用者声波纹的第一登录装置;登录由规定意思内容的人类语言而得到的声音的第二登录装置;判断上述第二声音输入装置输入的声音和上述第一登录装置登录的声波纹是否一致的判断装置;在该判断装置判断为不一致的情况下,通过人类语言输出上述第二登录装置登录的声音的第四输出装置。
6.一种声音分析装置,其特征在于,具备将动物的感情、人类语言、动物图像进行多组存储的存储装置;输入动物声音的第一声音输入装置;对该第一声音输入装置输入的声音的感情进行分析的第一声音分析装置;从上述存储装置读取出与该第一声音分析装置分析的感情对应的人类语言、动物图像,并显示该读取出的人类语言以及动物图像的显示装置。
7.根据权利要求6所述的声音分析装置,其特征在于,上述动物图像是动物的插图或者对上述第一声音输入装置输入声音的动物所拍摄的图像。
8.根据权利要求6所述的声音分析装置,其特征在于,上述人类语言是与上述感情对应的文字或者与上述感情对应而描述的文字。
9.根据权利要求6所述的声音分析装置,其特征在于,具备对应并存储上述第一声音输入装置输入的声音和上述第一声音输入装置输入声音的时刻的存储装置。
10.根据权利要求6所述的声音分析装置,其特征在于,具备在上述显示装置显示人类语言以及动物图像之际,产生预先设定的振动的振动产生装置。
11.根据权利要求6所述的声音分析装置,其特征在于,上述声音分析装置是穿戴在使用者身体上的手腕穿戴装置或者是使用者所携带的便携式电话。
12.一种声音转换控制方法,其特征在于,包含输入动物声音的第一声音输入步骤;对通过该第一声音输入步骤输入的声音进行分析的第一声音分析步骤;通过人类语言输出该第一声音分析步骤的分析结果的第一输出步骤;为了应答通过第一声音输出步骤输出的内容,使用者输入声音的第二声音输入步骤;对通过第二声音输入步骤输入的声音进行分析的第二声音分析步骤;通过动物语言输出第二声音分析步骤的分析结果的第二输出步骤。
13.一种声音转换控制方法,其特征在于,包含输入动物声音的第一声音输入步骤;对通过该第一声音输入步骤输入的声音进行分析的第一声音分析步骤;通过人类语言输出该第一声音分析步骤的分析结果的第一输出步骤;为了应答通过第一声音输出步骤输入的内容,使用者从预先存储的人类语句中任意选择的选择步骤;通过动物语言输出由该选择步骤选择的语句的分析结果的第三输出步骤。
14.一种声音转换控制方法,在具备用于输入动物声音的第一声音输入部的便携式电子装置中使用,其特征在于,包含对输入到第一声音输入部的声音的感情进行分析的声音分析步骤;访问将动物的感情、人类语言、动物图像进行多组存储的存储装置,从该存储装置中读取与上述第一声音分析步骤分析的感情对应的人类语言、动物图像,并显示该读出的人类语言以及动物图像的显示步骤。
全文摘要
本发明涉及分析动物声音的声音分析装置以及声音转换控制方法。其支持人类和动物之间的双向感情传递。手表型声音分析装置(100)通过话筒(102)将狗(2)(动物)的声音输入并进行声音分析,然后判断包含在该声音中的感情。分析结果将人类语言的文本显示在显示器(106)上。另外,通过话筒(102)输入使用者(4)(人类)的声音并进行声音分析,然后判断包含在该声音中的感情。分析结果通过扬声器(104)通过动物语言的声音输出。
文档编号G10L15/10GK1506936SQ20031011728
公开日2004年6月23日 申请日期2003年12月10日 优先权日2002年12月13日
发明者黑木保雄, 殿村敬介, 介 申请人:卡西欧计算机株式会社
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1