使用表示乐音生成模式的演奏数据搜索的制作方法

文档序号:2833090阅读:404来源:国知局
专利名称:使用表示乐音生成模式的演奏数据搜索的制作方法
技术领域
本发明整体上涉及对乐音(即声音)生成模式与用户输入的查询模式相匹配的演奏数据组进行搜索,更具体来说,涉及一种乐音数据处理装置和使用这种搜索技术的方法。应当理解,术语“乐音”在本文中是指任何种类的声音,如语音、刮擦声、噪音、效果音、环境声音以及音乐声。
背景技术
在电子乐器领域中,迄今已经存在公知的所谓“自动伴奏”功能。一般来说,在自动伴奏中,与通过人类演奏者或用户的操作所指定的组件音符(component note)相对应的·乐音根据由自动伴奏数据组指示的伴奏序列来可听见地生成。这种自动伴奏数据组可以包括一个或多个旋律音和/或节奏音。使用这种自动伴奏功能,即使单个人类演奏者也能够实现包括和弦乐音和节奏音的丰富乐音的演奏。日本专利申请特许公开第2010-102076号(下文称作“相关专利文献”)公开了如下技术,其允许用户使用任何乐曲名称、艺术家姓名、专辑名、音乐流派、拍速、音乐拍子及其它关键字来搜索自动伴奏数据组,然后与基于由搜出的自动伴奏数据组所指示的自动伴奏序列的乐音合拍地(in time with)执行演奏。然而,利用相关专利文献中公开的搜索方法,如果数据库中包括的声源数据的数量巨大,在从存储在数据库中的多个自动伴奏数据组中搜索出用户期望的自动伴奏数据组可能需要较多的时间和工作。此外,利用相关专利文献中公开的搜索方法,用户必须事先知道上述信息(如乐曲名称)并输入该信息,因此,用户无法直观有效地搜索出期望的自动伴奏数据组。此外,一般来说,每个自动伴奏数据组都包括诸如贝司、鼓和键盘的多个演奏部件的组合。然而利用相关专利文献中公开的搜索方法,当特定演奏部件的乐句呈现给用户时,用户无法使用该特定演奏部件的乐句来搜索自动伴奏数据组。

发明内容
考虑到现有技术的上述问题,本发明的一个目的是提供一种改进的技术,用于搜索具有与用户输入的查询模式相匹配的声音生成模式的演奏数据组。更具体地,本发明致力于搜索具有包括了满足与用户想要的声音模式相似的预定条件的声音模式的乐句的自动伴奏相关声音数据组。为实现上述目的,本发明提供了一种用于在存储装置中搜索演奏数据组的设备,所述存储装置存储多个演奏数据组,每个演奏数据组包括多个演奏部件的部件演奏数据,每个演奏部件的部件演奏数据包括声音生成模式,所述设备包括识别部分,其将所述多个演奏部件中的至少一个识别为搜索目标部件;查询获取部分,其获取搜索查询模式,所述搜索查询模式表示要作为搜索目标的声音生成模式;和搜索部分,其在存储部分中搜索包括如下声音生成模式的部件演奏数据,所述声音生成模式不仅与所述识别部分识别出的演奏部件匹配,还与通过所述查询获取部分获取的搜索查询模式匹配。优选地,在本发明的设备中,搜索部分还从所述存储装置中提取包括了从所述存储装置搜出的部件演奏数据的至少一个演奏数据组。优选地,在本发明的设备中,搜索部分搜索满足了与搜索查询模式具有高相似度的预定条件的声音生成模式,来作为与搜索查询模式匹配的声音生成模式。优选地,在本发明的设备中 ,识别部分响应于用户用于选择演奏部件的输入操作来识别出多个演奏部件中的至少一个,来作为搜索目标部件。优选地,在本发明的设备中,查询获取部分响应于用户用于输入期望的声音生成模式的输入操作来获取搜索查询模式。优选地,在本发明的设备中,用户用于输入期望的声音生成模式的输入操作包括输入与时间的经过相关联的节奏模式,从而搜索查询模式是与时间的经过相关联的输入节奏模式。优选地,在本发明的设备中,用户用于输入期望的声音生成模式的输入操作还包括输入旋律,从而搜索查询模式是和与时间的经过相关联的输入节奏模式相结合的旋律模式。优选地,在本发明的设备中,包括辅助用户的输入操作的拍速通知装置。根据本发明,用户能够通过输入与搜索目标演奏部件相关联的、要被作为搜索对象或搜索目标的期望声音生成模式以作为搜索查询模式,来容易地以感官操作而输入搜索查询。此外,用户能够获得适合于他或她的感觉或强度的期望的搜出结果。本发明不仅可以被构造和实现为上述设备发明,而且还可以构造和实现为方法发明。并且,本发明可以被配置和实现为由计算机或DSP之类的处理器执行的软件程序,以及存储了这种软件程序的非易失性存储介质。在该情况下,该程序可以在存储介质中提供给用户并随后安装到用户的计算机中,或者经由通信网络从服务器设备传送给客户计算机并随后安装到客户的计算机中。此外,本发明中使用的处理器可以包括具有专用逻辑嵌入式硬件的专用处理器,当然也包括能够运行期望软件程序的计算机或其他通用处理器。下面将描述本发明的实施例,但应当理解本发明不限于所述实施例,不脱离基本思想的本发明的各种修改也是可以的。因此本发明的范围仅由所附权利要求确定。


下面参照附图仅以示例的形式对本发明的特定优选实施例进行详细说明,附图中图I是示出了根据本发明的实施例的系统的总体配置的示意图;图2是图I的系统中的节奏输入装置的示意图;图3是示出了图I的系统中的信息处理装置的示例硬件配置的框图;图4A至图4C是示出了信息处理装置中的自动伴奏DB的示例内容的示意图;图5是示出了信息处理装置中的自动伴奏DB的示例内容的示意图;图6是示出了信息处理装置中的自动伴奏DB的示例内容的示意图;图7是示出了信息处理装置的功能构造的框图;图8是示出了由节奏模式搜索部分和搜索信息处理部分执行的搜索处理的示例操作序列的流程图;图9A至图9C是示出了 ON-设定时刻间隔的分布表格的示图10是计算节奏模式之间的差异的示意图示;图IlA至IlC是示出了自动伴奏数据的搜索结果列表的示图;图12是示出了改型2中采用的自动伴奏DB的示例内容的示意图;图13是示出了改型2中采用的自动伴奏DB的示例内容的示意图;图14是示出了改型6中对自动伴奏数据组的各个组件音符应用渐弱的示例的示意图;图15是示出了 ON-设定时刻间隔表格的示例示图;图16是示出了距离参考表格的示例示图;以及图17是示出了开启设置时间表格的示例示图。
具体实施例方式<优选实施例的构造>图I是示出了根据本发明的实施例的乐音数据处理系统100的整体配置的示意图。乐音数据处理系统100包括节奏输入装置10和信息处理装置20,并且节奏输入装置10和信息处理装置20通过通信线路可通信地互连。节奏输入装置10和信息处理装置20之间的通信可以以无线方式实现。在当前实施例中,节奏输入装置10包括例如用作输入装置或部件的键盘。响应于用户按下在节奏输入装置10中提供的键盘上的任意键的操作,节奏输入装置10按小节(或节)来将表示键盘上的任一键被按下(即用户已经执行了演奏操作)的触发数据和表示按下键的强度(即演奏操作的强度)的速度数据输入至信息处理装置20。每当用户按下键盘上的任一键时生成一项触发数据,并且速度数据与每个触发数据相关联。在每个小节(或节)内生成的一组触发数据和速度数据代表用户使用节奏输入装置10输入的节奏模式(下文中有时称为“输入节奏模式”)。也即,节奏输入装置10是由用户输入演奏操作的输入装置的示例。此外,节奏输入装置10也用作操作装置,用于由用户输入乐音生成模式(即声音生成模式)作为搜索查询模式。作为替代,例如,输入装置10作为操作装置可以被构成为允许用户通过选择或指定多个预存的伴奏模式中的任一个来输入期望的乐音生成模式。信息处理装置20是例如PC (个人计算机)。信息处理装置20包括含有多个自动伴奏数据组的数据库。每个自动伴奏数据组包括多个演奏部件,每个演奏部件具有唯一的节奏模式。信息处理装置20在数据库中搜索具有与用户经由针对用户指定演奏部件的节奏输入装置10所输入的节奏模式相同或相似的节奏模式的自动伴奏数据组,然后显示搜出的结果(即搜出的自动伴奏数据组)的名称列表。随后,信息处理装置20基于由用户从显示的列表中选择的自动伴奏数据组来可听地输出乐音。此时,信息处理装置20基于用户选择的搜出的自动伴奏数据组来反复再现乐音。注意,这种搜索功能由用户操作后文描述的操作部分25来打开或关闭。注意,自动伴奏数据组可以是琶音模式以及其他期望类型的音乐演奏模式,而不限于节奏模式。前述数据库(即后文将描述的自动伴奏数据库221)可以提供在信息处理装置20的外部,在该情况下,该数据库可以经由通信网络与信息处理装置20通信。图2是节奏输入装置10的示意性示图。节奏输入装置10包括键盘200和输入操作板14作为输入手段。通过使用这些输入手段中的任一个,用户可以输入将被作为搜索对、象或搜索目标的期望乐音生成模式(通常是期望的节奏模式),以作为搜索查询模式。基于输入的搜索查询模式(通常为节奏模式),信息处理装置20在其中存储了多个演奏数据组的存储装置(例如后文描述的自动伴奏数据库221)中搜索具有与输入搜索查询模式相匹配的乐音生成模式(例如节奏模式或旋律模式)的演奏数据组(例如自动伴奏数据组)。如众所周知的那样,每个自动伴奏数据组(其为演奏数据组的一个示例)包括各种不同演奏部件的组合,比如贝司、和弦、基于单音符的乐句、低音鼓、小鼓、踩镲(high-hat)和钹。不同的演奏部件与节奏输入装置10中的键盘200的预定范围和输入操作板14的类型相关联。例如,贝司部件与贝司乐音输入键盘范围11相关联,和弦部件与和弦乐音输入键盘范围12相关联,并且基于单音符的乐句与乐句音输入键盘范围13相关联。此外,低音鼓部件与低音鼓乐音输入操作板14a相关联,小鼓部件与小鼓乐音输入操作板14b相关联,踩镲部件与踩镲乐音输入操作板14c相关联,并且钹部件与钹鼓乐音输入操作板14d相关联。通过执行对节奏输入装置10的键盘200的期望位置或范围或者输入操作板14的期望类型进
行指定的演奏操作,用户可以搜索与指定的输入手段(即键盘范围或操作板)相关联的演奏部件的自动伴奏数据组。也即,键盘200和输入操作板14所处范围的各种区域对应于各种演奏控件(操作子,operator),如键盘200和输入操作板14。注意,多个演奏部件可以与预定的键盘范围之一相关联。例如,和弦部件和乐句部件可以与乐句音输入键盘范围13相关联。在这种情况下,可以自动识别多个演奏部件中的任何一个;即,如果用户同时按下了多个键,则将用户指定的演奏部件确定或识别为和弦部件,而如果在同一时刻按下了单个键,则将用户指定的演奏部件确定或识别为乐句部件。或者,如果按下了在与多个演奏部件相关联的键盘范围之一中的任何键,则假设用户已经执行了同时指定多个演奏部件的输入操作,来进行处理。例如,一旦用户通过按下贝司乐音输入键盘范围11的键来输入节奏模式,则信息处理装置20就识别出与输入的节奏模式具有相同或相似的节奏模式的贝司乐句,并随后将以所识别出的贝司乐句作为其组件的一个自动伴奏数据组显示为搜出结果。在以下的描述中,有时也将贝司乐音输入键盘范围11、和弦乐音输入键盘范围12、乐句乐音输入键盘范围13、低音鼓乐音输入操作板14a、小鼓乐音输入操作板14b、踩镲乐音输入操作板14c和钹乐音输入操作板14d称为“演奏控件”,因为它们被用户操作以用于输入节奏模式。一旦用户操作了节奏装置10上的任何演奏控件,节奏输入装置10就对信息处理装置20输入MIDI (乐器数字接口)格式的信息(以下称为“MIDI信息”)。这种MIDI信息除了上述触发数据和速度数据外还包括一个或多个音符编号(如果操作的演奏控件为键盘)或者通道编号(如果操作的演奏控件为输入操作板之一)。信息处理装置20从接收的MIDI信息识别出将要执行搜索的演奏部件(即搜索目标演奏部件或搜索目标部件)。图3是示出信息处理装置20的示例硬件设置的框图。信息处理装置20包括经由总线互连的控制部分21、存储部分22、输入/输出接口 23、显示部分24、操作部分25和声音输出部分26。控制部分21包括CPU(中央处理单元)、R0M(只读存储器)、RAM(随机存取存储器)等。CPU读出存储在ROM或存储部分22中的应用程序,将所读出的应用程序载入RAM,执行所载入的应用程序,从而经由总线控制各个部分。此外,RAM用作将被CPU例如在处理数据时使用的工作区。存储部分22包括自动伴奏数据库(DB) 221,其包含(存储了)多个演奏数据组。每个演奏数据组(例如自动伴奏数据组)包括多个演奏部件的部件演奏数据,并且针对每一个演奏部件的部件演奏数据包括乐音生成模式(节奏模式或旋律模式)和对应于乐音生成模式的乐音数据。作为一个示例,自动伴奏数据库221存储了至少一些MIDI信息格式的自动伴奏数据组。输入/输出接口部分23不仅将从节奏输入装置10输出的数据输入至信息处理装置20,而且根据控制部分21给出的指令来将各种信号输出至输入装置10,以便控制节奏输入装置10。显示部分24例如具有向用户显示对话屏幕等的可视显示器的形式。操作部分25例如具有鼠标键盘单元的形式,其响应于用户操作而从控制部分21接收信号或向其提供信号。控制部分21根据从操作部分25接收到的信号来控制各个部分。声音输出部分26包括DAC (数字-模拟转换器)、放大器和扬声器。声音输出部分26基于MIDI信息将控制部分21从自动演奏DB 221搜出的数字乐音数据通过DAC转换成模拟乐音数据,通过放大器放大该模拟乐音数据,并通过扬声器可听地输出与放大后的模拟声音信号相对应的乐音。图4A至图4C、图5和图6是示出自动伴奏DB 221的示例内容的示意性示图。自动伴奏DB 221包含部件表格、乐器类型表格、节奏类别表格、节奏模式表格和风格表格。图·4A示出部件表格的一个示例。图4A中的“部件ID”是对构成乐音数据组的演奏部件进行唯一识别的识别符,并且其以例如2位数表示。“部件”是表示演奏部件的类型的名称。不同的部件ID在部件表格中与各自的演奏部件“贝司”、“和弦”、“乐句”、“低音鼓”、“小鼓”、“踩镲”、和“钹”相关联地被描述。“音符编号”是表示演奏部件被分配到键盘200的哪一个键范围的MIDI信息。根据MIDI信息,音符编号“60”被分配到键盘的“中央C”。利用音符编号“60”作为基础,小于等于第一阈值“45”的音符编号被分配到“贝司”部件,大于等于第二阈值“75”的音符编号被分配到“乐句”部件,而大于等于“46”但小于等于“74”的音符编号被分配到“和弦”部件,如图4A所示。注意,上述第一阈值“45”和第二阈值“75”仅仅为示例性的,并且可以由用户按需要来改变。另外,“通道信息”是表示演奏部件被分配到哪一个输入操作板的MIDI信息。在所示示例4A中,通道信息“ 14a”被分配到“低音鼓”部件,通道信息“ 14b”被分配到“小鼓”部件,通道信息“ 14c”被分配到“踩镲”部件,并且通道信息“ 14d”被分配到“钹”部件。也就是说,自动伴奏DB 221中的部件表格是存储了多个演奏部件与输入装置10中的各个控件之间的对应关系的表格的示例。图4B示出乐器类型表格的一个示例。“部件ID”与上面关于图4A的描述相同。“乐器类型ID”是唯一识别一个乐器的类型的识别符,“乐器类型ID”例如由三位数表示。“乐器类型”是表示乐器的类型的名称。例如,不同的乐器类型ID在乐器类型表格中与各自的乐器类型相关联地被描述,比如“木贝司”、“电贝司”和“击弦贝司(slap bass)”。例如,乐器类型“木贝司”在乐器类型表格中与乐器类型ID “001”相关联地描述。类似地,其他乐器类型在乐器类型表格中与它们各自的乐器类型ID相关联地描述。注意,图4B中示出的乐器类型仅仅为示例性的,并且可以描述其他乐器类型。注意,在本实施例中,“乐器类型”与音色数据(音色ID)同义。图4C示出节奏类别表格的一个示例。“节奏类别ID”是唯一识别节奏模式的类别(本文也称为“节奏类别”)的识别符,并且每个“节奏类别ID”例如由二位数表示。这里,每个节奏模式表示在预定时间长度的时间段之内要可听地产生各个音符的一系列时刻。特别地,在本实施例中,每个“节奏模式”表示在作为预定时间段的一个示例的一个小节(节)之内要可听地产生各个音符的一系列时刻。“节奏类别”是表示节奏类别的名称,并且在节奏类别表格中将多个唯一节奏类别ID与各自的节奏类别(如“八分”、“十六分”和“八分三连音”)相关联地描述。例如,“八分”节奏类别在节奏类别表格中与节奏类别ID “01”相关联地描述。注意,图4C中示出的节奏类别仅仅为示例性的,并且可以使用或描述其他任何节奏类别。例如,可以采用粗略地分成节拍或流派的分类方式,或者通过将单独的类别ID分配给每个节奏模式来实现更细的分类。图5不出节奏模式表格的一个不例。在该节奏模式表格中 ,针对唯一地识别一个演奏部件的每个部件ID来描述多个分组节奏模式记录(部件演奏数据)。在图5中,示出了 “贝司”部件(部件ID “01”)的多个节奏模式记录,作为节奏模式表格的一个示例。每一个节奏模式记录(部件演奏数据)都包括多个项目,比如“部件ID”、“乐器类型ID”、“节奏模式ID”、“节奏类别ID”、“节奏模式数据”和“击打强度模式数据”。如上所述,“乐器类型ID”是唯一识别乐器类型的识别符。以乐器类型ID对具有相同部件ID的节奏模式记录进行分组,并且用户可以在通过使用输入装置10输入节奏之前使用操作部分25来选择一个乐器类型。由用户选择的乐器类型被存储在RAM中。“节奏模式ID”是唯一识别节奏模式记录的识别符,并且其具有例如四位数的形式。“节奏类别ID”是识别出一个节奏模式记录属于哪一个节奏类别的识别符。在图5所示的示例中,“节奏类别ID”为“01”的节奏模式记录属于如图4C中所示节奏类别表格中指示的“八分”(即八分音符)节奏类别。“节奏模式数据”包括其中记录了构成一个小节的乐句的各个组件音符的声音产生起始时刻的数据文件;例如,该数据文件是具有这里所述的各个组件音符的声音产生起始时刻的文本文件。在后面描述的匹配操作中,节奏模式数据中的各声音产生起始时刻与输入节奏模式(被输入以用于搜索的查询模式,下文还将被称为“搜索查询模式”)中包括的、并且指示用户已经执行了演奏操作的触发数据相关联。这里,使用一个小节的长度作为值“ I”来预先对每个组件音符的声音产生起始时刻归一化。即,在节奏模式数据中描述的每个组件音符的声音产生起始时刻取从“O”至“I”的范围中的值。在所示示例中,对应于节奏模式(乐音生成模式)的乐音数据(波形数据)组被存储在不同于节奏模式的另一存储区域中,并且乐音数据(波形数据)组由相同演奏部件的乐器类型ID来识别。作为替代,可以将对应于节奏模式(乐音生成模式)的乐音数据(波形数据)组以及节奏模式(乐音生成模式)作为“节奏模式数据”存储在节奏模式表格中。在这样的情况下,节奏模式数据包括下文将描述的各种声音文件格式的任一个的音频数据。此外,可以针对每个演奏部件单独地存储乐音数据(波形数据)组,或者,作为另一示例,可以将多个演奏部件(例如构成一种“风格”的所有演奏部件)的乐音数据(波形数据)组存储在一起作为单个文件。在自动伴奏DB 221中包含的节奏模式表格和相关的乐音数据存储区对应于将乐音生成模式(节奏模式)和对应于乐音生成模式(节奏模式)的乐音数据组与各个演奏部件相关联地存储的存储装置。每个节奏模式是在预定时间长度的时间段(在此情况中为一个小节)之内的多个乐音的生成模式,其表示要在该时间段之内可听地产生各个音符的一系列声音产生时刻。可以以如下方式事先生成节奏模式数据。想要生成节奏模式数据的人员或操作者从可商业地得到的音频循环(loop)材料提取组件音符起始时刻。随后,操作者在可忽略的范围内从所提取的组件音符中去除不必要的组件音符起始时刻,比如幻音的起始时刻。可以将从中去除了这种不必要的组件音符的数据用作节奏模式数据。还可以通过从可商业地得到的音频循环材料中自动去除幻音来从材料提取节奏模式数据,而不限于上面所述的通过操作者从可商业地得到的音频循环材料中去除幻音的方式或方法。例如,在从中提取了节奏模式数据的数据为MIDI格式的情况下,可以通过计算机以下述方式来生成节奏模式数据。计算机的CPU从针对一个小节的MIDI格式的数据中提取特定通道的组件音符的产生起始时刻,并去除难以判断为节奏输入的幻音(比如具有极小速度数据的音符)。然后,如果在从中去除了幻音的MIDI格式的数据中在预定时间段之内存在多个输入,比如和弦输入,则计算机的CPU通过执行用于将这多个输入组织或组合成一个节奏输入的处理来自动生成节奏模式数据。此外,对于鼓部件,多个乐器(比如低音鼓、小鼓和钹)的声音有时会存在于一个通道内。在这样的情况下,计算机的CPU以如下方式提取节奏模式数据。另外,对于鼓部件,乐器声音在很多情况下都被预先固定地分配到各个音符编号。这里假设小鼓的音色被分配到音符编号“40”。基于该假设,计算机的CPU通过提取小鼓的音色所分配的音符编号的各·个组件音符的声音产生起始时刻,来在其中记录有伴奏声源的鼓部件的通道中提取小鼓的节奏模式数据。作为替代,在多个乐器(比如低音鼓、小鼓和钹)的声音存在于一个通道内的情况下,可以按照音高范围而不是按照乐器类型来将所述声音分成多个部分。例如,可以将其中存储了伴奏声源的多个鼓部件的通道的声音信号分成三个音高范围,即低音、中音和高音范围,以提取三个部分(音高范围部分)的声音信号,并且随后可以从被如此提取的每个音高范围部分的声音信号中提取节奏模式(乐音生成模式)。“击打强度模式数据”是其中记录有构成一个小节的乐句的各个组件音符的击打强度的数据文件;例如,击打强度模式数据是其中将各个组件音符的声音产生起始时刻描述为数字值的文本文件。击打强度对应于输入节奏模式中包括的速度数据,并且表示用户演奏操作的强度。即,每个击打强度表示乐句的组件音符的强度值。击打强度可以在文本文件中被描述为MIDI信息的速度数据本身。图5以示例方式主要示出“贝司”部件的节奏模式记录。不过,实际上在节奏模式表格中还描述了与多种类型的演奏部件(比如和弦、乐句、低音鼓、小鼓、踩镲和钹)相对应的节奏模式记录,如图5部分地示出的那样。图6示出了风格表格的一个示例。在存在多个不同类型的自动伴奏的情况下,术语“风格”不仅识别各个自动伴奏类型,而且唯一地识别相同类型的自动伴奏的每一个。在风格表格中存储了多个风格记录,每个风格记录按每个风格来将构成自动伴奏的各个演奏部件的信息相互关联。图6示出其音乐流派名称为“爵士”的多个风格记录。每个风格记录包括多个项目,比如“风格ID”、“流派名称”、“风格名称”、“基调”、“BPM(每分钟的节拍)”、“贝司节奏模式ID”、“和弦节奏模式ID”、“乐句节奏模式ID”、“低音鼓节奏模式ID”、“小鼓节奏模式ID”、“踩镲节奏模式ID”和“钹节奏模式ID”。“风格ID”是唯一识别风格记录的ID,“流派名称”指示风格记录所属的音乐流派,“风格名称”是唯一识别风格记录的名称,“基调”指示风格记录的音乐基调,并且“BPM”指示要对基于风格记录的音符进行再现所用的拍速。在每个风格记录中,以与所有前述演奏部件一对一相关联的方式来存储特定部件的节奏模式。在图6所示的示例中,风格ID“0001”的风格记录具有作为“贝司节奏模式ID”的值“0001”,其表明在节奏模式表格中,部件ID为“01”(贝司)且节奏模式ID为“0001”以及其节奏模式数据为“WoodBasslRhythm. txt”的节奏模式记录与其风格ID为“0001”的风格记录相互关联。在每个风格记录中,对除了贝司部件以外的其他演奏部件的节奏模式也描述了相似的关联。由于自动伴奏DB 221是以前述方式来构造的,因此用户可以执行以下搜索。即,一旦用户通过操作与节奏输入装置10上的给定演奏部件相对应的任何演奏控件来输入节奏模式,则信息处理装置20基于与操作的演奏控件相关联的演奏部件以及输入节奏模式来从节奏模式表格中识别至少一个节奏模式。随后,信息处理装置20基于识别的节奏模式记录的部件ID和节奏模式ID来搜索风格表格,以提取包括了该识别的节奏模式记录在内的一个或多个风格记录以作为其演奏部件之一,并在显示部分24上显 示所提取的一个或多个风格记录。然后,一旦用户选择了所显示的风格记录中的期望的一个,则借助于声音输出部分26将基于所选的风格记录的乐音数据组(即自动伴奏数据组)可听地输出为声音或乐音。即,通过输入期望的搜索目标节奏模式(乐音生成模式)作为与搜索目标演奏部件相关联的查询模式(搜索查询模式),用户可以通过用户的直观操作来容易地输入搜索查询,并且得到符合或匹配用户感觉或意愿的期望的搜出结果(自动伴奏)。图7是示出上述信息处理装置20的功能配置的框图。控制部分21执行小节线时钟输出部分211、输入节奏模式存储部分212、部件识别部分213、节奏模式搜索部分214、搜索信息处理部分215和再现控制部分216的各个功能。尽管下文将各种处理描述为由上述各种部分来执行,然而实际上执行处理的主要部件是控制部分21。在下面的描述中,术语“0N-设定”表明节奏输入装置10的输入状态已从关闭(OFF)切换或改变为打开(0N)。例如,术语“0N-设定”表明操作板已被敲击(如果操作板为节奏输入装置10的输入部件或手段)、键已被按下(如果键盘为节奏输入装置10的输入手段)、或者按钮已被按下(如果按钮为节奏输入装置10的输入手段)。此外,在下面的描述中,术语“0N-设定时刻”指示节奏输入装置10的输入状态已从OFF改变为ON的时间点。换句话说,“0N-设定时刻”指示在节奏输入装置10中已经出现(或已经产生)触发数据的时间点。此外,在下面的描述中,“0N-设定信息”是在ON-设定时刻从节奏输入装置10输入到信息处理装置20的信息。除了上述触发数据,“0N-设定信息”还包括键盘的音符编号、通道信息等。小节线时钟输出部分211每几十个毫秒(msec)向输入节奏模式存储部分212输出一次表示当前时刻在进程时间轴上于小节中所处的位置的数据,以作为时钟信号(下文中称为“小节线时钟信号”)。即,假设一个小节的长度被归一化为值“1”,则小节线时钟信号取介于“O”到“I”范围内的值。小节线时钟输出部分211基于由用户经由操作部分25所指定的BPM来产生这样的小节线时钟信号。随后,基于这种小节线时钟信号,输入节奏模式存储部分212按每个小节向RAM中存储出现触发数据的时间点(即On-设定时刻)。在按每个小节如此存入RAM中的一系列On-设定时刻构成了输入节奏模式(即搜索查询模式)。由于存入RAM中的On-设定时刻中每一个都基于小节线时钟信号,所以其与小节线时钟信号一样取介于“O”到“I”的范围内的值。即,小节线时钟输出部分211是时间过去或时间流逝通知部分的一个示例,其不仅用于使时间在预定时间长度的时间段(在该情况下为一个小节)内过去或流逝,而且用于通知或告知用户预定时间段内时间的过去或流逝。小节线时钟输出部分211、再现控制部分216和声音输出部分26—起构成了通知部分,其向用户通知拍速,用以协助用户输入搜索查询模式。另外,输入节奏模式存储部分212是获取部分的一个示例,其用于获取在小节线时钟输出部分211使预定长度的时间段(在该情况下为一个小节)内的时间流逝的同时(即,在小节线时钟输出部分211使预定长度的时间段前进的同时)已经由用户针对指定的演奏部件(搜索目标部件)而输入的、表示或代表了各个音符的一系列产生时刻(ON-设定时刻)的节奏模式。由小节线时钟输出部分211使其前进的预定长度的时间段可以重复,或者不需要重复。作为替代,可以将从外部源输入到信息处理装置20的小节线时钟信号用作上述小节线时钟信号。此外,必须从信息处理装置20将小节线起始的时间点反馈给用户,以便用户能够按每个小节准确输入节奏模式。为此,仅仅需要通过信息处理装置20在每个小节和/或节拍时产生声音或光来向用户可视地或可听地指示小节线的位置,例如节拍器之类。作为替代,再现控制部分216可以根据小节线时钟信号对已被预先添加了每个小节线位置的伴奏声源进行再现。在这种情况下,用户根据由用户从再现的伴奏声源感觉到的小节线来输入节奏模式。部件识别部分213基于从节奏输入装置10输入的ON-设定信息(具体地为MIDI信息)和包括在自动伴奏DB 221中的部件表格来确定用户已经操作了哪个演奏控件,即,构成乐音数据组的多个演奏部件中哪一个被用户指定用于节奏模式输入。更具体地说,如果接收的MIDI信息表示音符编号,则部件识别部分213将接收的音符编号与部件表格的描述内容相比较,从而确定用户的操作是在贝司乐音输入键盘范围11、和弦乐音输入键盘范围12和乐句音输入键盘范围中的哪一个上执行的。此外,如果接收的MIDI信息是通道信息,则部件识别部分213将接收的通道信息与部件表格的描述内容相比较,从而确定用户的操作是在低音鼓输入操作板14a、小鼓输入操作板14b、踩镲输入操作板14c和钹输入操作板14d中的哪一个上执行的。部件识别部分213向节奏模式搜索部分214输出与识别的演奏部件对应的部件ID。注意,部件识别部分213不仅可以识别一个演奏部件而且可以识别多个演奏部件来作为搜索目标或搜索对象演奏部件。节奏模式搜索部分214基于RAM中存储的输入节奏模式(查询模式)来搜索自动伴奏DB 221的节奏模式表格,并且其不仅将包括对输入节奏模式具有高相似度的节奏模式数据在内的节奏模式记录存储在RAM中,而且将这样的节奏模式记录输出到搜索信息处理部分215。即,节奏模式搜索部分214在存储装置(自动伴奏DB 221)中搜索不仅与指定的或识别的演奏部件匹配而且与查询模式匹配的节奏模式。搜索信息处理部分215基于每个输入节奏记录中包括的部件ID和节奏模式ID来搜索风格表格,并且将搜出的风格记录存储到RAM中。搜出风格记录每一个除了包括表示伴奏声源本身的数据以外还包括关于伴奏声源的信息,比如“流派名称”、“风格名称”、“基调”和“BPM”。搜索信息处理部分215在显示部分24上显示这种关于伴奏声源的信息。搜索信息处理部分215还可以基于用户经由操作部分25指定的“BPM”和“乐器类型ID”来对搜出的风格记录执行缩窄搜索。即,节奏模式搜索部分214和搜索信息处理部分215是搜索部分的一个示例,其用于搜索与满足以下条件的节奏模式相关联的乐音数据组该节奏模式与作为针对识别出的演奏部件的获取部分的所述输入节奏模式存储部分212所获得的乐音模式或节奏模式呈现出高相似度。再现控制部分216将搜出的风格记录设置为再现的对象,并基于该风格记录与小节线时钟信号同步地向声音输出部分26提供乐音数据组。随后,声音输出部分26基于该乐音数据组可听地产生乐音。由于节奏模式数据是MIDI格式的,因此用户可以经由操作部分25来改变风格记录中的BPM(每分钟的节拍)。在该情况下,再现控制部分216基于风格记录采用改变的BPM来与小节线时钟信号同步地向声音输出部分26提供乐音数据组。此外,如果再现控制部分216具有无需改变音高就能改变拍速的时间拉伸功能,那么即使在节奏模式数据是声音文件格式的音频数据(比如WAVE (RIFF波形音频格式)或mp3 (音频动态压缩第3层))的情况下,用户也能够通过操作部分25来改变风格记录中的BPM(每分钟的节拍)。从前文可明了,信息处理装置20是乐音数据处理装置的一个示例,其将这样的有关自动伴奏的乐音数据组输出作为搜出结果该有关自动伴奏的乐音数据组具有由满足与针对用户指定的演奏部件的用户想要的节奏模式具有高相似度这一预定条件的节奏模式所构成的乐句。〈行为〉接下来将参照图8至图10描述由节奏模式搜索部分214和搜索信息处理部分215执行的用于在搜索功能打开的同时基于输入节奏模式从风格表格中检测出特定风格记录的一系列操作。图8是示出由节奏模式搜索部分214和搜索信息处理部分215执行的搜索处理的一个示例操作序列。在下一步骤SI,节奏模式搜索部分214使用输入节奏模式表格中描述的所有节奏模式来按每个节奏类别计算ON-设定时刻间隔的分布。在每个节奏模式记录的节奏模式数据中包含了以一个小节长度作为“I”而进行归一化之后的各个组件音符的乐音或声音产生起始时刻,即ON-设定时刻。ON-设定时刻间隔每一个都是时间轴上处于一对相邻ON-设定时刻之间的间隔,并且由处于从“O”至“ I ”的范围内的数值来表示。此外,假设一个小节被分成48个相等时间片段,则ON-设定时刻间隔的分布可以由与各个时间片段相对应的ON-设定时刻间隔的数量来表示。将一个小节分成48个相等时间片段的原因在于,如果在每小节四拍节奏的前提下将每个节拍分成12个相等时间片段,那么就能够实现适合于在多种不同节奏类别(比如八分、八分三连音和十六分)当中进行识别的分辨率。这里,“分辨率”是通过能够以诸如音序器或本实施例中采用的应用程序之类的音序软件进行表达的最短长度的音符来确定的。在本实施例中,分辨率是每小节“48”,因此一个四分音符可分成12个片段。在下面关于输入节奏模式的描述中,术语“0N-设定时刻间隔”也使用与用于节奏模式记录中相同的含义。即,在输入节奏模式中,在时间轴上一对相邻ON-设定时刻之间的间隔每一个都表示ON-设定时刻间隔。将在上面步骤SI中按每个节奏类别计算的ON-设定时刻间隔的分布与在后面描述的步骤S3中计算的输入节奏模式中的ON-设定时刻间隔的分布相比较。在该流程图的开始就在步骤SI中计算ON-设定时刻间隔分布的原因在于,在步骤SI计算的ON-设定时刻间隔分布是恒定的,因此只要算出来,就无需再次计算。因此,在信息处理装置20上电之时或者在搜索处理启动之时就可以执行步骤SI的ON-设定时刻间隔分布。另外,可以在ROM等中预存表示在步骤SI计算的ON-设定时刻间隔分布的数据,从而控制部分21在搜索处理启动之时读出该数据。下面使用ON-设定时刻的具体值来描述在步骤SI如何计算ON-设定时刻间隔的、分布。这里假设在节奏模式记录的节奏模式数据中描述了如下面项目(i)中指示的八分节奏模式。(i) 0,O. 25,O. 375,O. 5,0. 625,O. 75 和 O. 875基于上面项目(i)中指示的输入节奏模式,节奏模式搜索部分214计算如下面项目(ii)中指示的ON-设定时刻间隔。(ii)O. 25,O. 125,O. 125,O. 125,O. 125 和 O. 125
然后,节奏模式搜索部分214通过将上面在(ii)中计算的每个ON-设定时刻间隔乘以值“48”、随后将“O. 5”加到得到的乘积上,并随后将得到的和的小数点之后的数字向下舍入(即“量化处理”),来计算如下面的项目(iii)中指示的一组值。(iii) 12,6,6,6,6 和 6这里,“量化处理”指的是节奏模式搜索部分214根据分辨率校正每个ON-设定时刻间隔。执行量化处理的原因如下。在节奏模式表格中的节奏模式数据中描述的声音产生时刻是基于分辨率的(在该情况中为“48”)。因此,如果使用ON-设定时刻间隔来搜索节奏模式表格,则搜索精度会降低,除非要用于搜索的ON-设定时刻间隔也是基于分辨率的。由于该原因,节奏模式搜索部分214对上面项目(ii)中指示的每个ON-设定时刻间隔执行量化处理。考虑下面在各个节奏模式记录的节奏模式数据中描述了两个八分节奏模式、两个十六分节奏模式和两个八分三连音节奏模式的情况·八分节奏类别(A) O, O. 25,O. 375,O. 5,0. 625,O. 75,和 O. 875,以及(B) O, O. 121,O. 252,O. 37,O. 51,O. 625,O. 749 和 O. 876 ;·十六分节奏类别(C)O, O. 125,0. 1875,0. 251,0. 374,0. 4325,0. 5,0. 625,0. 6875,0. 75,0. 876 和O. 9325,以及(D)O,O. 625,0. 125,0. 1875,0. 251,0. 3125,0. 375,0. 4325,0. 5,0. 5625,0. 625,O. 6875,O. 75,O. 8125,O. 875 和 O. 9325 ;以及·八分三连音节奏类别(E) O, O. 8333,O. 1666,O. 25,O. 3333,O. 4166,O. 5,0. 5833,O. 6666,O. 75,O. 8333 和O. 91666,以及(F) O, O. 1666,O. 25,O. 333,O. 4166,O. 5,0. 6666,O. 75,O. 8333 和 O. 91666。节奏模式搜索部分214针对上面(A)-(F)中指示的模式使用与前文类似的计算方式对每个节奏类别计算ON-设定时刻间隔的分布。图9A示出被分配了通过节奏模式搜索部分214针对各个节奏类别计算出的ON-设定时刻间隔分布的分布表格。在步骤SI之后的步骤S2,节奏模式搜索部分214根据从部件识别部分213输入的部件ID和存储在RAM中的乐器类型ID来搜索节奏模式表格。注意,乐器类型ID是通过用户之前经由操作部分25指定乐器类型而存储在RAM中的ID。不过,乐器类型的指定并非绝对必要的;如果没有指定乐器类型,则节奏模式搜索部分214仅根据输入部件ID来搜索节奏模式表格。在后续处理中,节奏模式搜索部分214使用在步骤S2搜出的节奏模式记录作为处理的对象。如上所述,输入节奏模式包括以一个小节的长度作为值“I”而进行了归一化的ON-设定时刻。在步骤S2之后的步骤S3,节奏模式搜索部分214使用与在步骤SI中相同的计算方式来计算输入节奏模式中的ON-设定时刻间隔的分布。对于具有如上面项目(i)中指示的节奏模式的输入节奏模式,ON-设定时刻被计算为如项目(ii)中所示,随后,计算出如项目(iii)中所示的一组数值。图9B示出被分配了通过节奏模式搜索部分214针对输入节奏类别计算出的ON-设定时刻间隔分布的分布表格。下面参照图9A至图9C中示出的分布表格进一步描述ON-设定时刻间隔的分布。图9B是在输入节奏模式中的ON-设定时刻间隔的分布表格。在图9B中,水平轴表示在将一个小节分成48个时间片段的情况下的时刻间隔,而垂直轴表示量化后的ON-设定时刻间隔的数量的比值(“数量比”)。另外,在图9B中,基于上面项目(iii)中指示的输入节奏模式的这组数值被分配到分布表格。通过节奏模式搜索部分214将数量比归一化,以使得数量比之和成为“I”(一)。从图9B可以看出,分布的峰值处在时刻间隔“6”处,其为量化后的ON-设定时刻间隔的项目(iii)的数值组中最大的数。在步骤S3之后的步骤S4,节奏模式搜索部分214通过使用图9A和图9B的分布表格来计算表示了如下相似度的各距离(以下也称为“相似度距离”),所述相似度是基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔分布与基于输入节奏·模式的ON-设定时刻间隔分布之间的相似度。图9C不出对基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔分布(图9A)与基于输入节奏模式的ON-设定时刻间隔分布(图9B)之间的差异进行表示的分布表格。可以以下述方式来执行步骤S4的相似度距离计算。首先,针对在基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔的分布表格以及基于输入节奏模式的ON-设定时刻间隔的分布表格两者中的每个相同时刻间隔,节奏模式搜索部分214计算这两个表格之间的数量比中的各差异的绝对值。随后,针对每个节奏类别,节奏模式搜索部分214计算通过将针对各个时刻间隔计算出的绝对值相加而得到的和的平方根。如此计算出的平方根的值表示了上述相似度距离。较小的相似度距离的值表示较高相似度,而较大的相似度距离的值表示较低的相似度。在图9C所示的示例中,八分节奏类别呈现出在基于图9A和图9B的分布表格的数量比中最小的差异,这表明在分布表格中所示的八分、十六分和八分三连音节奏类别当中,八分节奏类别与输入节奏模式具有最小相似度距离。在步骤S4之后的步骤S5,节奏模式搜索部分214确定在节奏模式表格中描述的节奏类别当中呈现最小相似度距离的一个节奏类别是输入节奏模式落入或属于的节奏类别。更具体地,在该步骤,节奏模式搜索部分214识别出输入节奏模式落入或属于八分节奏类另O。即,通过上面步骤S2至S5的操作,节奏模式搜索部分214识别出输入节奏模式最可能落入其中的一个特定节奏类别。随后,在步骤S6,节奏模式搜索部分214计算节奏模式表格中描述的所有节奏模式与输入节奏模式之间的差异的水平,以便从节奏模式表格中描述的节奏模式当中识别出与输入节奏模式呈现出最高相似度的节奏模式。这里,“差异的水平”表示输入节奏模式中的各个ON-设定时刻间隔与节奏模式表格中描述的各个节奏模式的各个ON-设定时刻间隔相互距离多远。也就是说,在输入节奏模式与节奏模式表格中描述的任一个节奏模式之间的较小的差异水平表示输入节奏模式与节奏模式表格中描述的这个节奏模式之间具有较高的相似度。
即,节奏模式搜索部分214在直至步骤S5的操作中识别与输入节奏模式最为匹配的节奏类别,而在步骤S6的操作中将属于所有节奏类别的节奏模式记录都作为计算对象进行处置。这么做的原因如下。在各节奏模式记录中包括的节奏模式数据当中,可能存在难以明确地确定其属于哪一个节奏类别的节奏模式数据,比如其中在同一个小节中存在数量基本相同的八分ON-设定时刻间隔和十六分On-设定时刻间隔这样的节奏模式数据。在这种情况下,通过如上所述的那样节奏模式搜索部分214在步骤S6中将属于所有节奏类别的乐句记录都作为计算对象进行处置,将会有利地提高准确检测出用户想要的节奏模式的可能性。下面参照图10更详细地描述步骤S6的操作。图10是说明节奏模式之间的差异的计算的示意性示图。如图10所示,输入节奏模式由“A”图示,在节奏模式记录中描述的节奏模式由“B”图示。输入节奏模式A与节奏模式B之间的差异水平通过如下方式来计算。(I)节奏模式搜索部分214计算输入节奏模式A的各ON-设定时刻与节奏模式B的最接近于输入节奏模式A的ON-设定时刻中相应的那些时刻的各ON-设定时刻之间的差 异的绝对值(图10的(I));换言之,基于输入节奏模式A的各个ON-设定时刻或者使用输入节奏模式A的ON-设定时刻作为计算基础来计算差异的绝对值。(2)然后,节奏模式搜索部分214计算在上面(I)中计算的绝对值的积分值。(3)然后,节奏模式搜索部分214计算节奏模式B的各个ON-设定时刻与输入节奏模式A的最接近于节奏模式B的ON-设定时刻中相应的那些时刻的各ON-设定时刻之间的差异的绝对值(图10的(3)),换言之,基于节奏模式B的各个ON-设定时刻或者使用节奏模式B的ON-设定时刻作为计算基础来计算差异的绝对值。(4)节奏模式搜索部分214计算在上面(3)中计算的绝对值的积分值。(5)然后,节奏模式搜索部分214计算在上面(2)中计算的积分值与在上面(4)中计算的积分值之间的平均值,作为输入节奏模式A与节奏模式B之间的差。在本实施例中,没有准备足够数量的节奏模式,如图10的(3)所示,节奏模式搜索部分214在积分值的计算中执行避免使用比参考时刻间隔(在所示示例中为“O. 125”,因为这里的节奏类别为“八分”)大的每个ON-设定时刻间隔差的绝对值的操作。另一方面,在可以准备足够数量的节奏模式的情况下,节奏模式搜索部分214不必进行上述的避免使用比参考时刻间隔大的每个ON-设定时刻间隔差的绝对值的操作。节奏模式搜索部分214针对节奏模式表格中包括的所有节奏模式记录中的节奏模式来执行上述计算(I)至(5)。也即,节奏模式搜索部分214是如下搜索部分的一个示例其对通过作为获取部分的输入节奏模式存储部分212获取的输入节奏模式所代表的各个声音产生时刻与由存储在存储部分中并且在时间轴上与通过获取部分获取的输入节奏模式所代表的声音产生时刻最接近的每个节奏模式所代表的声音产生时刻之间的差异的积分值进行计算,并且其识别出节奏模式当中计算的积分值最小的特定节奏模式,来作为满足与输入节奏模式呈现最高相似度的条件的节奏模式,然后取得与识别的特定节奏模式相关联的乐音数据组。接下来,在步骤S7,节奏模式搜索部分214将在上面步骤S4中对每个节奏类别计算的相似度距离乘以在步骤S6中计算的差,从而针对节奏模式表格中包括的、且具有与指定或识别的演奏部件相匹配的演奏部件的部件ID的所有节奏模式记录来从输入节奏模式计算出距离。下面是说明步骤S7的操作的数学表达式,其中“A”表示输入节奏模式,“B”表示第N个节奏模式记录中的节奏模式。注意,“与指定或识别的演奏部件相匹配的演奏部件”不限于与由用户输入作为搜索目标的一个或多个演奏部件相匹配的一个或多个演奏部件,而可以是与由用户输入作为搜索对象或搜索目标的至少一个演奏部件相似的一个或多个演奏部件。节奏模式A与节奏模式B之间的距离=(节奏模式A与节奏模式B所属的节奏类别之间的相似度距离)X (节奏模式A与B之间的差异)注意,较小的节奏模式A与B之间的距离表明节奏模式B具有与输入节奏模式A较高的相似度。即,节奏模式A与B之间的距离表示节奏模式A与B之间的相似度。在以下描述中,有时将会把节奏模式之间的小距离称为“节奏模式之间的高相似度”或类似表达。不过,注意在前述的距离计算中,执行下面的操作以使得从在上面步骤S5中已被确定为输入节奏模式所属的类别之内输出搜出结果。即,节奏模式搜索部分214确定在上面的步骤S5中识别的节奏类别与节奏模式B所属的节奏类别是否彼此相同,并且,如果不相同,则将一
个预定常数(例如O. 5)加到通过上述数学表达式计算的距离上。通过这种预定常数(例如O. 5)的添加,对于属于与在步骤S5中识别的节奏类别不相同的节奏类别的每个节奏模式记录而言,其节奏模式距离将会变得更大甚至非常大,因而可以更容易地从在步骤S5中被确定为输入节奏模式所属的节奏类别之内输出搜出结果。随后在步骤S8,节奏模式搜索部分214以与输入节奏模式的距离的升序来将具有与输入节奏模式之间为小距离的节奏模式数据的预定数量的节奏模式记录输出为搜出结果,从而将输出的节奏模式记录存储到RAM中。“预定数量”可以预先作为参数存储在存储部分22中,并且可以由用户使用操作部分25进行改变。然后,在步骤S9中,搜索信息处理部分215基于如上所述通过步骤S8存储在RAM中的节奏模式记录的节奏模式ID和部件ID来搜索风格表格,并将通过搜索识别出的风格记录存储在RAM中作为搜出结果。例如,如果在步骤S8将部件ID为“2”(和弦)以及节奏模式ID为“0004”的节奏模式记录存储在RAM中,那么搜索信息处理部分215从风格表格中搜出其和弦节奏模式ID为“0004”的风格记录,并将搜出的风格记录存储在RAM中。图IlA至图IlC是示出用于自动伴奏的搜出结果的列表的示图。更具体地说,图IlA示出在已被搜索信息处理部分215基于用户经由和弦乐音输入键盘范围12输入的节奏模式而输出为搜出结果之后被显示在显示部分24上的风格记录的列表。在图IlA至图IlC中,参考项目“相似度”表示输入节奏模式与每个搜出风格记录的节奏模式之间的距离。即,较小的“相似度”值表示与输入节奏模式较高的相似度。在图IlA中,以相似度值(即在步骤S7计算的节奏模式之间的距离)的升序,也就是与输入节奏模式的相似度的降序来显示风格记录。在该情况下,用户可以在使用项目“基调”、“流派”和“BPM”中的至少任意一个对搜出结果进行筛选之后使搜出结果被显示。一旦用户选择了图IlA所示示例中的期望的一个风格记录,信息处理装置20就以与用户输入节奏模式时相同的BPM(以下称为“输入BPM”)经由声音输出部分26来输出基于所选风格记录的乐音。在显示搜出结果时,不必显示如图IlA至图IlC所示的所有参考项目(“相似度”、“基调”、“流派”和“BPM”),并且可以仅显示一些参考项目,或者不显示参考项目。类似地,在显示进行了筛选之后的搜出结果时,不必显示所有参考项目(“相似度”、“基调”、“流派”和“BPM”),并且可以仅显示一些参考项目,或者不显示参考项目。
控制部分21具有用于仅将每一个都具有与输入BPM接近的BPM的风格记录输出为搜出结果的筛选功能,并且用户可以经由操作部分25按自己的期望来打开或关闭筛选功能。由于每个风格记录都具有“BPM”,因此控制部分21在筛选功能打开时仅将每一个都具有例如为输入BPM的O. 7至I. 4倍的BPM的风格记录显示为搜出结果。注意,应用于输入BPM的系数值O. 7至I. 4仅为示例性的,还可以是其他值。控制部分21具有筛选功能的原因如下。控制部分21以与输入BPM相同的BPM来提供基于风格记录的乐音数据组。如果控制部分21以远远不同于乐音数据组的原始BPM的BPM来提供基于风格记录的乐音数据组,那么基于该乐音数据组的乐音在可听地由声音输出部分26输出时会不期望地给用户一种不舒服的感觉。例如,假设用户以BMP “240”的拍速输入节奏模式并且由作为对具有前述节奏模式的乐音数据组进行搜索的结果而被获取的乐音数据组所表示的原始BPM是“60”的情况。在该情况下,基于搜出的乐音数据组的乐音被声音输出部分26以四倍于原始BPM的BPM输出,S卩,采用了四倍于原始BPM的BPM以快速向前的方式对基于乐音数据组的乐音进行了再现,其结果是将会带给用户不舒服的感觉。为避免这种不便,本实施例中的控制部分21具有筛选功能。 图IlB示出用户已经从图IlA所示的状态打开了筛选功能的状态。在图IlB中,控制部分21正使用上述系数O. 7至I. 4执行筛选。在图IlB所示的示例中,由于输入BPM为“ 100”,因此每一个都具有处于70至140范围内的BPM的风格数据组被显示为筛选结果。通过该方式,用户可以获得每个都具有与输入BPM接近的BPM的风格数据组作为搜出结果,从而利用该搜出结果用户可以具有更满意的感觉。此外,用户可以通过首先指定一个演奏部件以搜索每个具有与输入节奏模式接近的节奏模式的风格数据组(第一搜索)以及随后指定另一个演奏部件并输入节奏模式以再次搜索风格数据组(第二搜索)来得到从第一搜出风格数据缩窄了的第二搜出结果。图IlC示出在正在显示图IlA的搜出结果的状态下被显示为用户将踩镲部件指定为演奏部件并输入节奏模式的结果的内容。另外,在图IlC中,对拍子筛选器(time filter)303输入的音乐拍子信息为“4/4”的风格数据组被显示为搜出结果。图IlC中的“相似度”是通过将对象或目标演奏部件为“和弦”的情况下的相似度与目标演奏部件为“踩镲”的情况下的相似度相加而得到的值。尽管图11示出可以使用如由项目“第一搜索部件”和“第二搜索部件”表示的两个演奏部件来执行搜索,然而能够被指定为搜索目的的演奏部件的数量并不限于此。另外,如果用户在指定第一演奏部件(第一搜索部件)的第一搜索之后指定与第一指定演奏部件(第一搜索部件)不相同的不同演奏部件(第二搜索部件)并随后输入节奏模式,控制部分21可以不管使用(指定)第一搜索部件的搜出结果而仅输出使用(指定)第二搜索部件的搜出结果(仅使用第二搜索部件得到的这种搜出结果将被称为“覆写搜索”)。用户可以经由信息处理装置20的操作部分25来进行缩窄搜索与覆写搜索之间的切换。前文已经描述了由节奏模式搜索部分214和搜索信息处理部分215执行的用于在搜索功能为打开时基于用户输入的节奏模式从风格表格中将特定风格记录输出作为搜出结果的处理的操作序列。以前述方式构造的信息处理装置20可以针对用户指定的演奏部件来搜索具有由如下节奏模式构成的乐句的自动伴奏数据组,所述节奏模式满足与用户想要的节奏模式相似的预定条件。此时,用户在对与多个演奏控件相关联的多个演奏部件中的期望的一个进行指定之时或之后输入节奏模式。因此,只要用户想出一个特定演奏部件的节奏模式,用户就能通过输入该特定演奏部件的节奏模式而执行搜索。另外,由于用户仅需要在指定演奏部件之时或之后输入节奏模式,所以用户能够直观且有效地搜索自动伴奏数据组。〈改型〉本发明的上述优选实施例可以做出如下修改,必要时下述的各种改型也可以结

口 ο〈改型1>根据上述优选实施例,节奏模式搜索部分214以这样的方式来构造一旦用户在顺序地指定了多个不同演奏部件之后输入节奏模式,则节奏模式搜索部分214首先针对第一指定的演奏部件基于该节奏模式搜索风格记录(第一搜索),随后针对与第一指定演奏部件不同的第二指定演奏部件基于该节奏模式来执行缩窄搜索(第二搜索)。然而,在已经指定多个演奏部件时采用的搜索方案不限于上述方案。此外,尽管上述处理是基于以逐部件方式顺序地执行用户的演奏操作这一假设,然而当用户在同时指定了多个不同演奏部件之后已执行了演奏操作时可以执行如下处理。即,在这种情况下,节奏模式搜索部分214计算具有指定演奏部件的部件ID的每个节奏模式记录对每个用户指定演奏部件的输入节奏模式的相似度。即,对于每个指定的演奏部件,节奏模式搜索部分214计算具有指定的演奏部件的部件ID的各个节奏模式记录对输入节奏模式的相似度。然后,节奏模式搜索部分214针对与所指定的演奏部件的节奏模式记录相关联的每个风格记录来把分别针对这些节奏模式记录计算的相似度加到一起。然后,显示部分24从具有最高相似度(即最小的相似度值)的风格记录开始按相加后的相似度的预定次序来显示风格记录。例如,当用户在同时执行了对低音鼓和小鼓部件的演奏操作之后已经输入节奏模式时,节奏模式搜索部分214计算对低音鼓的相似度和对小鼓的相似度,随后针对低音鼓和小鼓部件共同的各风格记录或至少具有低音鼓和小鼓部件两者的各风格记录的每一个来将针对低音鼓以及针对小鼓计算的相似度加到一起。通过这种方式,用户能够通过同时指定多个演奏部件来搜出具有由满足对用户想要的节奏模式呈现高相似度这一条件的节奏模式构成的乐句的自动伴奏数据组。〈改型2>尽管上述优选实施例被构成为如下方式,即响应于用户在指定期望演奏部件之后输入节奏模式,信息处理装置20输出自动伴奏数据组作为搜出结果,然而本发明不限于此,并且可以响应于用户在指定期望演奏部件之后输入旋律模式而执行搜索。在这种情况下,自动伴奏DB 211还包含旋律模式表格。图12和图13是示出在改型2中采用的自动伴奏DB的示例内容的示意性示图,其中图12示出在自动伴奏DB中包含的旋律模式表格。旋律模式表格包括多个项目“部件ID”、“乐器类型ID”、“旋律模式ID”和“旋律模式数据”。“部件ID”和“乐器类型ID”与上面参照优选实施例描述的相同。“旋律模式ID”是唯一地识别旋律模式记录的识别符,并且例如具有四位数的形式。“旋律模式数据”是其中记录有构成一小节的乐句中的各个组件音符的音高和持续时间的时间变化的文件;例如,其为描述了一系列组件音符的音高和持续时间的文本文件。图13示出在改型2中采用的风格表、格。在图13所示的示例中,每个风格记录不仅包括各个演奏部件的节奏模式ID,而且包括各个演奏部件的旋律模式ID。信息处理装置20可以使用任一个公知方法来搜索旋律模式。例如,当用户已输入了“C-D-E”的和弦序列时,信息处理装置20的控制部分21以相关数值“0-2-4”来将具有表示了输入和弦序列中的音高进展的旋律模式数据的旋律模式记录输出作为搜出结果。随后,控制部分21在显示部分24上显示与搜出的旋律模式记录相关联的风格记录。例如,当用户已经输入了指定乐句部件的基于单音符的旋律模式“D-D-E-G”时,控制部分21产生表示该输入旋律模式的MIDI信息。MIDI信息包括构成旋律模式的各个组件音符的音高和持续时间。控制部分21将具有与产生的MIDI信息相同或相似的旋律模式数据的旋律模式记录输出作为搜出结果。然后,控制部分2 1在显示部分24上显示与搜出的旋律模式记录相关联的风格记录。用户可以经由信息处理装置20的操作部分25来在被用于本改型中的基于旋律模式的搜索与被用于上述优选实施例中的基于节奏模式的搜索之间进行切换。作为另一改型,用户输入的查询模式可以是对构成旋律模式的各个组件音符的音高和产生次序进行规定的模式,即不详细规定旋律模式的各个音符的持续时间而仅粗略规定旋律进展的一种模式。〈改型3>信息处理装置20可以搜索包括了其音色与输入节奏模式的音色相同或具有高相似度的乐句的自动伴奏数据组。在这种情况下,将另一项目“音色ID”添加到节奏模式表格的每个节奏模式记录中。当经由任一个演奏控件输入节奏模式时,用户对音色进行指定。一旦用户执行演奏操作,在演奏操作之时指定的音色的ID就被输入到信息处理装置20。随后,信息处理装置20将输入音色ID的音色与节奏模式表格的每个节奏模式记录中的音色ID的音色进行比较,从而从比较的结果当中识别出相似度高于预定阈值的节奏模式记录。这里,音色比较可以通过任一个公知方法执行,例如,通过比较各个乐音的波形的谱。然后,信息处理装置20基于所识别的节奏模式的节奏模式ID和部件ID来搜索风格表格,从而识别出一个风格记录。通过这种方式,用户能够得到对于指定的演奏部件不仅在节奏模式上而且在音色上都与用户的输入相似的自动伴奏数据组。〈改型4>尽管上面已经关于将乐音数据描述为自动伴奏DB中的MIDI信息的情况来描述了优选实施例,然而还可以在自动伴奏DB中描述包含乐音数据本身的音频文件的存储位置。在该情况下,音频文件每一个都是声音文件格式,比如WAVE(RIFF波形音频格式)或mp3 (音频动态压缩第3层),并在节奏模式表格的每个节奏模式记录中描述这样的音频文件的文件路径。一旦用户从搜出结果当中选择一个给定风格记录作为再现对象,就以相互同步的方式来再现风格记录中的各个演奏部件的音频文件。通过该方式,用户能够得到比使用MIDI信息的情况具有更好音质的自动伴奏。〈改型5>信息处理装置20可以配备随机访问再现功能,用于响应于用户对操作部分25的操作或者对节奏输入装置10上提供的诸如音量调节器、旋钮、转盘、按钮之类的控件的操作来从一小节的开头再现自动伴奏数据。在该情况下,一旦用户执行了上述操作,再现控制部分216就执行用于从小节的开头再现自动伴奏数据的控制。该随机访问再现功能被用在当用户想要检查哪里是自动伴奏乐音的开头或者想要仅将一部分自动伴奏乐音设置为重复再现的对象的时候。〈改型6>在一些自动伴奏数据组中,波形幅度(功率)在组件音符附近接近于值“O”处没有结束,在该情况下,在已可听地产生基于组件音符的乐音之后会出现削波噪声(clipnoise)。为避免这种不便,再现控制部分216可以具有在接近组件音符的开头或结尾处以预定范围自动渐强或渐弱的功能。这里,用户可以经由操作部分25或节奏输入装置10上提供的一些控件来选择是应用渐强还是应用渐弱的功能。图14是示出对自动伴奏数据组的各个组件音符应用了渐弱的一个示例的示意性示图。如图14所示,对由标示为“渐弱”的箭头示出的部分应用了渐弱,从而在每个标有箭头的部分中的波形幅度逐渐减小以在相应的组件音符的结尾时刻处取得基本为零的幅度。按照用户的期望可以在从几毫秒至几十毫秒的范围之内调节应用了渐弱的时间段。用于应 用渐弱的操作可以作为用户的演奏操作的预处理、作为实时处理、或者作为用户的演奏操作的后处理来执行。〈改型7>由用户与自动伴奏一同执行的演奏可以被再现控制部分216记录,并且可以以声源循环素材中传统使用的文件格式来输出这样记录的内容。采用这种演奏记录功能,用户能够将由用户与自动伴奏一同执行的演奏结果获取为数据。〈改型8>尽管优选实施例已被描述为涉及如下情况,其中节奏模式搜索部分214通过比较由用户的演奏操作输入的触发数据与存储在自动伴奏DB 221中的节奏模式数据来检测特定节奏模式记录,然而本发明不限于此。例如,节奏模式搜索部分214可以基于通过用户的演奏操作输入的触发数据和速度数据两者来搜索自动伴奏DB 221。在该情况下,如果存在具有相同节奏模式的两个节奏模式数据,则将与其中每个组件音符的击打强度更接近于通过用户演奏操作输入的速度数据的那个节奏模式数据相关联的风格记录检测为搜出结果。通过这种方式,在击打强度方面也接近于用户想象的自动伴奏数据组能够被输出作为搜出结果。〈改型9>在上述优选实施例中计算节奏模式之间的距离的方式仅仅是说明性的,并且可以以不同于前述的方式来计算这种距离。例如,可以在识别了输入节奏模式所属的节奏类别之后并且仅使用属于相同节奏类别的节奏模式记录作为计算的对象来执行步骤S6的节奏模式差异计算和步骤S7的节奏模式距离计算,从而能够可靠地输出与输入节奏模式的节奏类别相匹配的节奏模式记录作为搜出结果。尽管这样修改后的配置相比优选实施例而言仅能实现较小的搜索精度,但由于其能够减小必须的计算量,因此,该改型不仅能够实现降低的信息处理装置20的负荷而且能够实现减少的对用户响应的时间。〈改型10>另外,当搜索自动伴奏DB 221时,节奏模式搜索部分214在触发数据和速度数据之外还可以使用表示相同音符的可听产生所持续或延续的时间长度的持续时间数据。以通过从组件音符的OFF-设定时刻减去恰在该OFF-设定时刻之前的ON-设定时刻而计算得到的时间长度来表示每个组件音符的持续时间数据。具体地,在节奏输入装置10的输入手段为键盘的情况下,可以非常有效地使用持续时间数据,因为持续时间数据使得信息处理装置20能够明确地获取组件音符的OFF-设定时刻。在该情况下,将项目“持续时间模式数据”添加到图5的节奏模式表格中。持续时间模式数据是其中记录了构成一个小节的乐句中的各个组件音符的持续时间(可听的产生时间长度)的数据文件,比如文本文件。在这种情况下,可以将信息处理装置20构造为通过使用用户输入的一个小节的持续时间模式来搜索节奏模式表格,并且将具有与用户输入的持续时间模式最为相似(或最为接近)的持续时间模式数据的节奏模式记录从节奏模式表格中输出作为搜出结果。因此,即使存在多个具有相似节奏模式的节奏模式记录,信息处理装置20也能够从这些相似的节奏模式当中区分或识别出具有连奏、节奏模式断奏(跳跃感)之类的节奏模式,并输出识别的节奏模式作为搜出结果。〈改型11>
尽管已经将优选实施例描述为当输入时刻间隔柱状图与声音产生时刻间隔柱状图之间的差的绝对值为最小时确定该声音产生时刻间隔柱状图具有对输入时刻间隔柱状图的高相似度值,然而用于确定这两个柱状图之间的高相似度的条件不必限于两个柱状图之间的差的绝对值,而是可以为任何其他适当的条件,比如两个柱状图之间的相关度(比如两个柱状图的各个时刻间隔组件的乘积)为最大或大于一个预定阈值的条件,两个柱状图之间的差的平方为最小或小于一个预定阈值的条件,或者两个柱状图之间各个时刻间隔组件具有相似值的条件,等等。〈改型12>尽管上文已将优选实施例描述为涉及如下情况,其中信息处理装置20搜索具有与经由节奏输入装置10输入的节奏模式相似的节奏模式的节奏模式记录,并将与搜出的节奏模式记录相关联的风格记录输出作为搜出结果,然而还可以采用以下修改的配置。例如,在优选实施例执行的处理由网络服务器执行的情况下,优选实施例中信息处理装置20所拥有的功能由提供网络服务的服务器设备所拥有,并且作为客户机设备的用户终端(比如PC)经由互联网、专用线路等向服务器设备传送针对指定演奏部件而输入的节奏模式。基于从客户机设备接收的演奏部件和节奏模式,服务器设备搜索存储部分以查找具有与输入节奏模式相似的节奏模式的节奏模式记录,并随后将与该节奏模式记录相关联的风格记录传送到用户终端作为搜出结果。然后,该终端基于接收的风格记录来可听地输出乐音。注意,在该情况下,可以在由服务器设备提供的网站上或应用程序中向客户呈现小节线时钟信号。〈改型13>节奏输入装置10中的演奏控件可以是键盘和操作板类型(形状)以外的其他类型(形状),比如弦乐器类型、管乐器类型或按钮类型,只要演奏控件响应于用户执行的演奏操作至少输出触发数据即可。作为替代,演奏控件可以具有触摸板形式,在该情况下,具有触摸板功能的平板PC、智能手机、便携式或移动电话之类代替节奏输入装置10作为输入手段。现在考虑演奏控件具有触摸板形式的情况。在一些情况中,在触摸板的屏幕上显示多个图标。如果图标中显示了乐器的图像和乐器控件(例如键盘)的图像,则用户可以得知应当触摸哪个图标以基于特定乐器或乐器的特定控件来可听地产生乐音。在该情况下,触摸板显示图标的区域对应于上述优选实施例中提供的各个演奏控件。换句话说,在采用触摸板作为输入装置10的情况下,触摸板的屏幕可以分割或划分成多个区域,并且一个或多个演奏部件可以分配至每个划分的区域中,使得被用户触摸的被分配至任一区域的一个或多个演奏部件可被识别为查询部分。作为替代,可以采用弯音轮作为节奏输入装置10的演奏控件。作为另一示例,节奏输入装置(查询模式输入装置)10可以是除包括可手动操作的演奏控件的装置以外的装置,比如使用麦克风的声音输入装置或光信号产生装置。在该情况下,产生了与用户嗓音发音的时刻(时间点)相对应的输入节奏模式(查询模式)或与由用户的操作产生的光信号的时刻(时间点)相对应的输入节奏模式(查询模式)。另外,节奏输入装置(查询模式输入装置)10可以是除与由节拍器之类给出的拍速信息合拍地输入节奏模式(查询模式)的类型以外的其他类型,比如在编辑器屏幕上以图形方式输入期望节奏模式(查询模式)(例如,在屏幕上显示的时间轴上图形地指示出期望的定时,或者图形地输入期望的模式)的类型。〈改型14> 上述优选实施例以如下方式构造,其中由控制部分21以与输入BPM相同的BPM来提供基于风格记录的乐音数据。作为替代,由于风格记录包括先前被记录为信息的原始BPM,因此用户可以对操作部分25进行操作以使得控制部分21基于风格记录来以原始BPM提供乐音数据。作为另一替代,控制部分21可以紧接在用户从搜出结果当中选择了特定风格记录之后以与输入BPM相同的BPM来基于风格记录提供乐音数据,然后随着时间过去而以逐渐接近该风格记录的原始BPM的BPM来基于风格记录提供乐音数据。〈改型15>在上述优选实施例中,控制部分21具有筛选功能,用于将具有与用户输入的BPM接近的BPM的风格记录输出作为搜出结果。然而,使得用户能够以搜出结果具有更满意的感觉的方案不限于此。例如,可以将基于输入BPM与风格记录中包括的原始BPM之间的接近度的加权引入用于计算输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离的数学表达式中。假设“a”表示预定常数,“L”表示输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离,则用于计算相似度的(如参考图11所述)引入了加权的数学表达式可以被表达如下相似度=L+1输入BPM-风格记录中包括的BPMI/a不过要注意的是,用于计算这样的相似度的数学表达式不限于上面的数学表达式,并且可以采用任何其他数学表达式,只要随着输入BPM与风格记录中包括的BPM彼此变得接近而相似度距离减小(即相似度增大)即可。〈改型16>如果节奏输入装置10不包括输入操作板14,则节奏输入装置10可以被构造如下。这里,默认将贝司乐音输入键盘范围11、和弦乐音输入键盘范围12和乐句音输入键盘范围13分配给键盘200的各个预定键范围。一旦用户指示用户将要输入针对鼓部件的节奏模式,则控制部分21将鼓部件分配给键盘200的预定键范围;例如,控制部分21将低音鼓部件分配给“C3”,将小鼓部件分配给“D3”,将踩镲部件分配给“E3”,并将钹部件分配给“F3”。注意,在该情况下,控制部分21可以对处在键盘200的整个键范围中的每个控件(即键)分配不同的乐器乐音。另外,控制部分21可以在键盘200的每个控件(键)的上方或下方显示已分配的乐器乐音的图像(例如小鼓的图像)。〈改型17>为了使用户能够容易地视觉识别应当操作哪个控件来使得控制部分21执行对特定演奏部件的搜索,可以采用如下改型。例如,控制部分21在每一个预定的控件(键)上方或下方显示与分配的演奏部件相关的图像(例如,吉他的和弦被按下的图像、以单音符演奏来弹奏钢琴的图像(类似手指按下单个键的图像)、或小鼓的图像)。可以在显示部分24上而不是在预定控件(键)的上方或下方显示上述图像。在这种情况下,在显示部分24上不仅显示模拟键盘200的键盘图像,还显示与实际键盘200上具有相同的部件分配状态的分配到键盘图像各个键范围的演奏部件的图像。还可以采用如下替代的配置,以允许用户容易地听觉识别应当操作哪个控件来使得控制部分21执行对特定演奏部件的搜索。例如,一旦用户对贝司乐音输入键盘范围11进行输入,则控制部分21使得声音输出部分26输出贝司音。通过上述方式,用户能够视觉·或听觉识别应当操作哪个控件来使得控制部分21执行对特定演奏部件的搜索,从而方便了用户的输入操作;于是,用户能够更加方便地获得任何期望的伴奏声源。〈改型18>尽管上面已将图8的处理流程描述为关于在针对每个节奏类别来计算ON-设定时刻间隔的分布(步骤SI)之后计算输入节奏模式中的ON-设定时刻间隔的分布(步骤S3)的情况,然而步骤SI和S3的处理次序也可以颠倒。此外,不管是否颠倒步骤SI和S3的处理次序,控制部分21可以将针对每个节奏类别计算的ON-设定时刻间隔的分布在计算之后存储到RAM或存储部分22中。通过该方式,节奏模式搜索部分214不必再次计算曾计算出的结果,从而能够实现提高的处理速度。〈改型19>当用户通过在预定时间段之内操作多个控件来输入节奏模式时,例如,当用户按下键盘的多个键以输入和弦时,有可能会引起如下问题。这里假设用户已经在一小节内的时间点“O. 25”处输入了一个节奏。在这个情况下,即使用户试图在同一个时间点同时操作多个控件,用户实际上在“O. 25”的ON-设定时刻处仅操作了这些控件中的某一个,而在“O. 26”的ON-设定时刻处操作另一控件,在这种情况下,控制部分21将会准确地在这些ON-设定时刻处存储输入节奏模式。结果,会不期望地输出与用户的意愿不同的搜出结果;因此,不能向用户提供良好的操作性。为解决该问题,可以采用如下配置。在本改型19中,部件识别部分213基于从节奏输入装置10输入的ON-设定信息和自动伴奏DB 211中包含的部件表格来确定用户的操作是否是在同一时间点针对同一部件而对多个控件执行的。例如,如果在贝司乐音输入键盘范围11中包括的多个控件的一个的ON-设定时刻与贝司乐音输入键盘范围11中包括的多个控件的另一个的ON-设定时刻之间的差落入预定时间段内,那么部件识别部分213确定已在相同时间点处操作了这些控件。这里预定时间段例如是50msec (毫秒)。随后,部件识别部分213将确定结果(即,表示可以认为已在相同时间点操作了多个控件的信息)与具有相应ON-设定时刻的触发数据相关联地输出到节奏模式搜索部分214。然后,节奏模式搜索部分214在从输入节奏模式中排除了一个其ON-设定时刻表示声音产生起始时刻比其他触发数据的ON-设定时刻更晚的触发数据(该触发数据已与表示可以认为已在相同时间点操作了多个控件的信息相关联)之后,使用输入节奏模式来执行节奏模式搜索。即,在该情况下,在基于用户在预定时间段内执行的操作的ON-设定时刻当中,在节奏模式搜索中将会使用表示较早的声音产生起始时刻的ON-设定时刻。不过,作为替代,在基于用户在预定时间段内执行的操作的ON-设定时刻当中,在节奏模式搜索中也可以使用表示较晚声音产生起始时刻的ON-设定时刻。SP,节奏模式搜索部分214可以使用任一个基于用户在预定时间段内执行的操作的ON-设定时刻来执行节奏模式搜索。作为另一替代,节奏模式搜索部分214可以计算基于用户在预定时间段内执行的操作的ON-设定时刻的平均值,并随后使用如此计算出的平均值作为用户在预定时间段内执行操作的ON-设定时刻来执行节奏模式搜索。在上述方式中,即使用户在预定时间段内已使用了多个控件来输入节奏,也可以输出与用户的意图最为接近的搜出结果。〈改型20>如果输入节奏模式存储部分212按小节来存储输入节奏模式的定时被设置为与 基于小节线时钟信号的小节切换定时相一致,则可能产生如下问题。例如,当通过用户的操作来输入节奏模式时,在用户想要的节奏模式与由于用户正感觉到的时刻间隔和小节线时钟信号之间的差而引起的实际ON-设定时刻之间会出现从几毫秒至几十毫秒范围的误差。因此,即使用户想的是正在一个小节的开头处输入一个节拍,由于上述误差的存在,该节拍也可能被错误地当作前一小节的节奏输入。在该情况下,将会不利地输出不同于用户意愿的搜出结果;从而,不能为用户提供良好的操作性。为解决这种问题,当输入节奏模式存储部分212将输入节奏模式存储到RAM中时,将从比当前小节的开头早几十毫秒的时间点(即,前一小节中的最后几十毫秒)到比当前小节的结尾早几十毫秒的时间点的范围作为目标处理范围,就足够了。也就是说,控制部分21将要被存储到RAM中的输入节奏模式的目标范围向前偏移几十毫秒。通过该方式,本改型能够使得输出与用户意愿不同的搜出结果的概率最小。〈改型21>如果节奏模式搜索部分214执行节奏模式搜索的定时被设置为与基于小节线时钟信号的小节切换定时相一致,则可能产生如下问题。例如,本发明的搜索方法还可以应用于配备有回放功能的乐音数据处理设备,该功能允许将搜出的乐音数据设置为紧接在节奏输入之后的一个小节中与小节线时钟信号同步地回放或再现。在该情况下,为了从紧接在节奏输入操作之后的小节的开头再现搜出的乐音数据组(搜出结果),必须在该小节的开头的时间点之前(即在与进行节奏输入的小节相同的小节之内)输出搜出的结果。此外,在由于RAM的存储容量问题之类而不能提前将要被再现的乐音数据组读出并存储到RAM中的情况下,需要在与进行节奏输入的小节相同的小节之内读出搜出的乐音数据组并将读出的乐音数据组存储到RAM中。为解决这种问题,将节奏模式搜索部分214执行节奏模式搜索的定时向比小节切换定时更早的方向偏移几十毫秒就行了。通过这种方式,在小节切换生效之前执行搜索并将搜出的乐音数据组存储到RAM中,从而能够从紧接在节奏输入之后的小节的开头再现搜出的乐音数据组。〈改型22>可以作出如下配置以使得能够搜索多个小节(以下称为“N”个小节)的节奏模式而不仅仅是一个小节的节奏模式。例如,在该情况下可以采用这样的方法,其中节奏模式搜索部分214通过使用具有N个小节的输入节奏模式来搜索节奏模式表格。然而,采用该方法,用户不得不在按照小节线时钟信号输入节奏模式之时指定第一小节所处的位置。而且,由于搜出结果是在N个小节之后输出的,所以在输出搜出结果前将会花费很长的时间。为避免这种不便,可以进行如下配置。在本改型22中,自动伴奏DB 221的节奏模式表格包含每个都具有N个小节的节奏模式数据的节奏模式记录。用户经由操作部分25指定要被作为搜索目标的节奏模式(即搜索目标节奏模式)中的小节的数量。在显示部分24上显示这样的用户指定内容。这里假设用户已指定“2”作为搜索目标节奏模式中的小节数量。一旦用户使用任何控件输入了节奏,控制部分21就首先存储第一小节的输入节奏模式,并随后基于第一小节的输入节奏模式来搜索节奏模式。按照如下操作序列来执行该搜索。首先,对于每个都具有两小节的节奏模式数据的节奏模式记录,节奏模式搜索部分214计算第一小节的输入节奏模式与每个节奏模式数据的第一小节和第二小节的节奏模式之间的距离。随后,针对每个节奏模式 数据,节奏模式搜索部分214向RAM中存储计算出的第一小节的输入节奏模式与节奏模式数据的第一小节的节奏模式之间的距离以及计算出的第一小节的输入节奏模式与节奏模式数据的第二小节的节奏模式之间的距离中较小的一个。随后,控制部分21对第二小节的输入节奏模式执行类似的操作。之后,节奏模式搜索部分214将如此存储在RAM中的这些距离针对每个节奏模式数据进行相加,并随后将和(相加的结果)设置为表示节奏模式数据与输入节奏模式之间距离的分数。随后,搜索信息处理部分215将上述分数小于预定阈值的各个节奏模式数据按上述分数的降序来重新排列,然后将这样的节奏模式数据输出作为搜出结果。通过上述方式,可以搜索具有多个小节的节奏模式数据。由于输入节奏模式与节奏模式数据之间的距离是针对每个小节来计算的,所以用户无需指定第一小节处在哪个位置,并且在搜出结果被输出之前不会花费很长时间。〈改型23>尽管上面已将改型2描述为基于在用户指定演奏部件之后所输入的旋律模式来执行搜索,然而本发明不限于此。例如,在通过对用户指定了演奏部件之后所输入的节奏模式作出响应而执行的搜索所得到的搜出结果当中,可以将在旋律模式上与用户的输入更相似的风格记录输出作为搜出结果。如在改型2中那样,在改型23中采用的风格表格中的每个风格记录除了包括每个演奏部件的节奏模式ID以外,还包括如图13所示的每个演奏部件的旋律模式ID。另外,在本改型中,与前文相似,ON-设定时刻除了触发数据以外还包括键盘的音符编号。这里,触发数据中的一系列ON-设定时刻对应于输入节奏模式,并且键盘的一系列音符编号对应于输入旋律模式。在改型23中,对由节奏模式搜索部分214和搜索信息处理部分215执行的图8的上述搜索处理添加以下处理。这里假设已操作了贝司乐音输入键盘范围11,以输入四分(音符)节奏的旋律模式“C-E-G-E”。输入的旋律模式例如由一系列音符编号“60,64,67,64”表示。由于这里演奏部件是“贝司”,所以节奏模式搜索部分214将旋律模式表格中包含的其部件ID为“01 (贝司)”的旋律模式记录识别为比较对象,并计算被识别为比较对象的这些旋律模式记录中的每一个所包括的旋律模式数据与输入旋律模式的差异。节奏模式搜索部分214计算输入旋律模式与由部件ID为“01 (贝司)”的旋律模式记录的每一个中包括的旋律模式数据所表示的旋律模式之间的音高差分方差;下文将把后一个旋律模式称为“声源旋律模式”。这是基于如下思想两者(即输入旋律模式与声源旋律模式)之间的音高差异的方差越小,则可以认为两个旋律模式越相似。这里假设输入旋律模式由如上所述的“60,64,67,64”表示,并且给出的声源旋律模式由“57,60,64,60”表示。在该情况下,可以通过按照数学表达式(I)计算音高差异的平均值来按照数学表达式(2)计算输入旋律模式与声源旋律模式之间的音高差异方差。((I 60-57 I) + (I 64-60 |) + (| 67-64 |) + (| 64-60 |)) /4 = 3. 5......数学表达式(I)((I 3. 5-3 I)2+ (I 3. 5-4 |)2+ (| 3. 5-3 |)2+ (| 3. 5-4 |)2) /4 = O. 25......数学表达式(2)如上面的数学表达式所不,由“60,64,67,64”表不的输入旋律模式与由“57,60,64,60”表示的声源旋律模式之间的音高差异方差被计算为“O. 25”。节奏模式搜索部分214对所有的声源旋律模式计算这样的音高差异方差。接下来,在步骤S7,节奏模式搜索部分214在考虑了输入节奏模式与搜出节奏模式各自旋律模式的情况下得到它们之间的相似度。如果将输入节奏模式与搜出节奏模式之间没有考虑它们各自旋律模式的相似度定义为“S,,并且音高差异方差定义为“V”,那么可以通过使用变量X和常数y的如下数学表达式(3)来表达输入节奏模式与搜出节奏模式之间考虑了它们各自旋律模式的相似度Sp,其中0〈x < I且y > O :Sp= (1-x) S+xyV......数学表达式(3)如果变量X为“0”,则上述数学表达式变成“Sp = S”,所算出的相似度将不会反映旋律模式。随着变量X趋近于值“ I ”,通过上述数学表达式得到的相似度将反映更多的旋律模式。用户可以经由操作部分25来改变变量X的值。并且,在数学表达式(3)中,可以使用音高差异的平均误差来替代音高差异方差。于是,搜索信息处理部分215按搜出节奏模式与输入节奏模式之间考虑了它们各自旋律模式的相似度的降序(即距离的升序)来重新排列搜出的风格记录,并随后存储重新排列后的搜出风格记录。此外,输入旋律模式中的ON-设定时刻和ON-设定的数量以及构成声源旋律模式的各个音符的ON-设定时刻和ON-设定的数量没有必要彼此一致。在这种情况下,节奏模式搜索部分214按照下述操作步骤序列,针对输入旋律模式的每个ON-设定来确定声源旋律模式的哪些音符对应于输入旋律模式的该ON-设定。(I)通过使用输入旋律模式的各个音符的ON设定时刻的每一个作为计算基础,节奏搜索部分214计算输入旋律模式的ON-设定时刻的音符与声源旋律模式的最接近于输入旋律模式的该ON-设定时刻的ON-设定时刻的音符之间的音高差异。(2)通过使用声源旋律模式的各个音符的ON设定时刻的每一个作为计算基础,节奏搜索部分214计算声源旋律模式的ON-设定时刻的音符与输入旋律模式的最接近于声源旋律模式的该ON-设定时刻的ON-设定时刻的音符之间的音高差异。(3)随后,节奏搜索部分214将在上面步骤(I)中计算的差异与在上面步骤(2)中计算的差异之间的平均值作为输入旋律模式与声源旋律模式之间的音高差异。注意,为了减小必要的计算量,可以仅使用上面步骤⑴和(2)中的任一个来计算输入旋律模式与声源旋律模式之间的音高差异。
通过上述方式,可以将不仅接近于用户想要的节奏模式而且接近于用户想要的旋律模式的风格记录输出作为搜出结果。因此,用户可以得到节奏模式与输入节奏模式相同然而旋律模式与输入节奏模式不同的风格记录作为搜出结果。==输入节奏模式与节奏类别之间距离的计算方式==上面用于计算输入节奏模式和节奏模式的方法仅为示例性的,并且可以以任何其他不同方法或使用任何其他不同方法来计算这样的距离,现说明如下。-对于类别唯一的输入时刻间隔的数量-〈改型24>在改型24中,控制部分21基于输入节奏模式中包括的对于要与输入节奏模式比较的节奏模式而言为表征性的或唯一的ON-设定时刻间隔的数量来计算输入节奏模式与 每个节奏模式之间的距离。图15是示出预存在存储部分22中的ON-设定时刻间隔表格的一个示例。该ON-设定时刻间隔表格包括表示节奏类别的分类的名称与各个节奏类别的目标ON-设定时刻间隔的组合。注意,采用通过将一个小节分成48个相等时间片段而进行了归一化的ON-设定时刻间隔来对ON-设定时刻间隔表格的内容进行预定。这里假设控制部分21已经从输入节奏模式的ON-设定时刻计算出了 ON-设定时刻间隔,并随后计算了以下面(a)中指示的一组值作为对计算出的ON-设定时刻间隔执行量化处理的结果。(a) 12,6,6,6,6,6按照计算出的这组值和图15所示的ON-设定时刻间隔表格,控制部分21识别出在输入节奏模式中有一个四分(音符)ON-设定时刻间隔和五个八分(音符)ON-设定时刻间隔。于是,控制部分21将输入节奏模式与每个节奏类别之间的距离计算如下输入节奏模式与节奏类别N之间的距离=1_(输入节奏模式中与节奏类别N相关的ON-设定时刻间隔的数量)/ (输入节奏模式中的ON-设定时刻间隔的总数量)......数学表达式(4)注意,上述数学表达式仅为示例性的,并且可以采用任何其他数学表达式,只要其使得节奏类别与输入模式的距离随着节奏类别包括更多相关ON-设定时刻间隔而被计算为更小的值即可。并且,通过使用上面的数学表达式(4),控制部分21例如计算出输入节奏模式与八分(音符)节奏模式之间的距离为“O. 166”,或者计算出输入节奏模式与四分(音符)节奏模式之间的距离为“O. 833”。通过上述方式,控制部分21计算输入节奏模式与每个节奏类别之间的距离,并确定输入节奏模式属于其计算出的距离在这些节奏类别当中最小的特定节奏类别。-DB节奏类别与输入节奏类别之间的矩阵-〈改型25>用于计算输入节奏模式与节奏类别之间的距离的方法不限于上述方法,并且可以被修改如下。即,在改型25中,在存储部分22中预存距离参考表格。图16是示出该距离参考表格的一个示例的示图,其中输入模式可能属于的节奏类别与存储在自动伴奏数据库221中的各个节奏模式记录可能属于的类别之间的距离被以矩阵配置来表示。这里假设控制部分21已经确定输入模式所属的节奏类别是八分(即八分音符)节奏类别。在该情况下,控制部分21基于输入模式已被确定为所属的节奏类别以及该距离参考表格来识别输入节奏模式与各个节奏类别之间的距离。例如,在该情况下,控制部分21识别出输入节奏模式与四分(四分音符)节奏类别之间的距离为“O. 8”,并且识别出输入节奏模式与八分节奏类别之间的距离为“O”。因此,控制部分21确定八分节奏类别与输入节奏模式之间的距
离最小。-基于对类别唯一的输入时刻以及分数-〈改型26>用于计算输入节奏模式与节奏类别之间的距离的方法不限于上述方法,并且可以被修改如下。即,在改型26中,控制部分21基于输入节奏模式中对于要与输入节奏模式相比较的节奏类别而言为表征性的或唯一的ON-设定时刻的数量来计算输入节奏模式与每个节奏类别之间的距离。图17是示出预存在存储部分22中的ON-设定时刻表格的一个示例的示图。该ON-设定时刻表格包括如下项的组合表示节奏类别的分类的名称、各个节奏 类别中的对象或目标ON-设定时刻、和在输入节奏模式包括该目标ON-设定时刻的情况下要相加的分数。注意,通过将一个小节分成48个相等片段进行归一化来对该ON-设定时刻表格的内容进行预定。这里假设控制部分21已经获得如下(b)所表示的ON-设定时刻。(b)0,12,18,24,30,36,42在该情况下,控制部分21计算输入节奏模式相对于每个节奏类别的分数。这里,控制部分21计算出“8”为输入节奏模式相对于四分节奏类别的分数,“10”为输入节奏模式相对于八分节奏类别的分数,“4”为输入节奏模式相对于八分三连音节奏类别的分数,以及“7”为输入节奏模式相对于十六分节奏类别的分数。于是,控制部分21确定计算出的分数最大的那个节奏类别为与输入节奏模式具有最小距离的节奏类别。前文已经描述了用于计算输入节奏模式与每个节奏类别之间的距离的方法的变型。< 改型 27>本发明还可以被实施为除乐音数据处理设备外的其他形式,比如用于实现这种乐音数据处理的方法,或者用于使得计算机实现图4所示功能的程序。这样的程序可以被存储在存储介质(比如光盘)中来提供给用户,或者经由互联网之类被下载并安装到用户的计算机上。<其他改型>尽管已经将优选实施例描述为涉及步骤S6的节奏模式差别计算使用两个时刻差异(即节奏模式A基于节奏模式B的时刻差异和节奏模式B基于节奏模式A的时刻差异)的情况(所谓的“对称距离方案或方法”),然而本发明不限于此,并且在节奏模式差异计算中可以仅使用上述两个时刻差异中的任何一个。另外,在使用MIDI数据执行上述搜索或可听再现的情况以及以多音轨方式再现多个演奏部件的演奏数据组的情况下,可以仅对音轨中的特定一个执行搜索。此外,节奏类别确定或识别操作(步骤S2至S5)可以省略,在该情况下步骤S7的节奏模式距离计算操作可以仅使用步骤S6的节奏模式差异计算的结果来执行。此外,在节奏模式差异计算(步骤S6)中,计算的差异的值可以乘以相应组件音符的击打强度的值,从而可以容易地从搜出结果候选中排除包括了具有较大击打强度的组件音符的节奏模式记录。此外,尽管优选实施例已被描述为使用每一个具有一小节长度的自动伴奏数据组,然而声音长度不必限定于此。另外,尽管上面已将优选实施例描述为涉及如下情况,其中响应于用户经由任何演奏控件的输入操作,基于与操作的演奏控件对应的演奏部件来搜索风格记录,然而本发明不限于此。用户可以使用操作部分25而不是任何演奏控件来指定演奏部件。在该情况下,在指定了演奏部件之后当用户操作任何演奏控件时,对指定演奏部件进行输入。例如,在该情况下,即使用户在经由操作部分25指定了 “贝司”部件之后操作的是和弦乐音输入键盘范围12,控制部分21也会将用户的该操作认作“贝司”部件的输入。此外,尽管上面已将优选实施例描述为涉及如下情况,其中按一一对应关系将诸如低音鼓输入操作板14a、小鼓输入操作板14b、踩镲输入操作板14c和钹输入操作板14d之类的不同操作板分配给不同音色的各个节奏部件,然而本发明不限于此,并且可以被配置为针对不同音色的节奏部件的输入操作可以经由单个操作板执行的方式。在这种情况 下,用户可以经由操作部分25指定期望节奏部件的音色。并且,尽管上面已将优选实施例描述为涉及如下情况,其中乐音数据是波形数据并且使用本发明的搜索技术以搜索与乐音生成模式相关联的乐音数据(波形数据),然而本发明的应用不限于此。例如,本发明的搜索技术还可以用于搜索与乐音生成模式相关联的音色数据(音色ID或乐器类型ID),或者与乐音生成模式相关联的任何其他类型的乐音数据。即,本发明中使用的术语“乐音数据”不限于波形数据,而是涵盖了包括音色数据和其他类型的乐音相关数据在内的宽泛概念。上面已将优选实施例描述为涉及如下情况,其中在演奏数据组(自动演奏数据组)中包含的演奏部件的类型是和弦、低音鼓、小鼓、踩镲和钹。然而演奏数据组(自动演奏数据组)中包含的演奏部件的类型和数量并不限于上述类型和数量,而可以根据需要增加或减少。此外,可以根据需要来对演奏数据组(自动演奏数据组)中的演奏部件的形式作出各种修改。另外,在本发明中,构成演奏数据组的声音不限于上面关于优选实施例描述的打击乐器的声音,而可以是任何其他乐器的声音,或者可以是非乐器声音。例如,除了乐器声音以外,可以根据需要采用诸如人类(人)的语音或动物声音或者通过敲击某个对象而产生的声音之类的各种声音,来作为节奏部件(比如鼓、踩镲和钹)的声音。
权利要求
1.一种用于在存储装置中搜索演奏数据组的设备,所述存储装置存储多个演奏数据组,每个演奏数据组包括多个演奏部件的部件演奏数据,每个演奏部件的部件演奏数据包括声音生成模式,所述设备包括 识别部分,其将所述多个演奏部件中的至少一个识别为搜索目标部件; 查询获取部分,其获取搜索查询模式,所述搜索查询模式表示要作为搜索目标的声音生成模式;和 搜索部分,其在存储部分中搜索包括如下声音生成模式的部件演奏数据,所述声音生成模式不仅与所述识别部分识别的演奏部件匹配,还与通过所述查询获取部分获取的搜索查询模式匹配。
2.如权利要求I所述的设备,其中所述搜索部分还从所述存储装置中提取包括了从所述存储装置搜出的部件演奏数据的至少一个演奏数据组。
3.如权利要求I所述的设备,其中所述搜索部分搜索满足了与搜索查询模式具有高相似度的预定条件的声音生成模式,来作为与搜索查询模式匹配的声音生成模式。
4.如权利要求I所述的设备,其中所述识别部分响应于用户用于选择演奏部件的输入操作来识别出多个演奏部件中的至少一个,来作为搜索目标部件。
5.如权利要求I所述的设备,其中所述查询获取部分响应于用户用于输入期望的声音生成模式的输入操作来获取搜索查询模式。
6.如权利要求5所述的设备,其中所述用户用于输入期望的声音生成模式的输入操作包括输入与经过的时间相关联的节奏模式,从而所述搜索查询模式是与经过的时间相关联的输入节奏模式。
7.如权利要求6所述的设备,其中所述用户用于输入期望的声音生成模式的输入操作还包括输入旋律,从而所述搜索查询模式是和与经过的时间相关联的输入节奏模式相结合的旋律模式。
8.如权利要求6或7所述的设备,还包括辅助用户的输入操作的拍速通知装置。
9.如权利要求5所述的设备,其中所述用户用于输入期望的声音生成模式的输入操作包括输入节奏模式和旋律进展中的至少一种,从而所述搜索查询模式是表示节奏模式和旋律进展中的至少一种的模式。
10.如权利要求5或9所述的设备,所述用户用于输入期望的声音生成模式的输入操作包括在显示屏幕上图形地输入搜索查询模式。
11.如权利要求I至5中任一项所述的设备,其中存储在存储装置中的演奏数据组是自动伴奏数据组。
12.如权利要求I所述的设备,其连接至提供可由用户单独操作的多个区域的输入装置,所述设备还包括对应关系表,在所述对应关系表中存储多个演奏部件中的各个演奏部件与输入装置的多个区域中的各个区域之间的对应关系,并且 其中所述识别部分根据用户在输入装置上已经操作的任一区域并通过参照所述对应关系表来识别多个演奏部件中的至少一个。
13.如权利要求I或12所述的设备,还包括通知部分,其使得时间在预定长度的时间段内前进并且将经过的时间通知用户,并且 其中声音生成模式是指示在所述预定长度的时间段内要可听地生成各个音符的声音生成时刻的序列的节奏模式,并且 所述获取部分获取用户针对通过所述识别部分识别的演奏部件而输入的搜索查询模式,同时所述通知部分使得时间在所述时间段内前进。
14.如权利要求I或12所述的设备,还包括通知部分,其使得时间在预定长度的时间段内前进并且将经过的时间通知用户,并且 其中声音生成模式是作为在所述预定长度的时间段内要可听地生成各个声音的持续时间和音高的时间变化模式的旋律模式,并且 所述获取部分获取用户针对通过所述识别部分识别的演奏部件而输入的搜索查询模式,同时所述通知部分使得时间在所述时间段内前进。
15.如权利要求1-5和12中的任一项所述的设备,其中在所述存储装置中与各个演奏数据组相关联地或者与各个演奏部件的部件演奏数据相关联地存储声音数据组。
16.一种用于在存储装置中搜索演奏数据组的计算机实现方法,所述存储装置存储多个演奏数据组,每个演奏数据组包括多个演奏部件的部件演奏数据,每个演奏部件的部件演奏数据包括声音生成模式,所述方法包括 识别步骤,用于将所述多个演奏部件中的至少一个识别为搜索目标部件; 获取步骤,用于获取表示要作为搜索目标的声音生成模式的搜索查询模式;和 搜索步骤,用于在存储部分中搜索包括如下声音生成模式的部件演奏数据,所述声音生成模式不仅与所述识别部分识别的演奏部件匹配,还与通过所述获取部分获取的搜索查询模式匹配。
全文摘要
本发明提供了一种用于在存储装置中搜索演奏数据组的设备和使用这种搜索技术的方法。用户使用节奏输入装置中与构成演奏数据组(自动伴奏数据组)的多个演奏部件中的期望的一个相对应的控件,输入期望的搜索目标节奏模式来作为查询模式。输入节奏模式存储部分基于从小节线时钟输出部分输出的时钟信号将输入节奏模式(查询模式)存储到RAM中并输入触发数据。部件识别部分识别与用户操作的控件对应的搜索目标演奏部件。对于识别的演奏部件,节奏模式搜索部分在自动演奏数据库中搜索包括了与输入节奏模式(查询模式)匹配即具有最高相似度的节奏模式的自动演奏数据组。
文档编号G10H1/00GK102760426SQ201210120948
公开日2012年10月31日 申请日期2012年4月23日 优先权日2011年4月21日
发明者渡边大地, 藤岛琢哉 申请人:雅马哈株式会社
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1