用于运行听力设备的方法和听力设备与流程

文档序号:24729100发布日期:2021-04-20 11:08阅读:43来源:国知局
用于运行听力设备的方法和听力设备与流程

1.本发明涉及一种用于运行听力设备的方法和一种相应的听力设备。


背景技术:

2.听力设备用于照顾典型的听力受损的用户。听力设备具有麦克风,麦克风接收来自用户的环境的声音信号,并且将其转换为电输入信号。在听力设备的信号处理器中尤其根据用户的听力图修改该电输入信号。作为修改的结果,由信号处理器产生电输出信号,电输出信号被输送至听力设备的听筒,听筒将电输出信号转换为输出声音信号并且将其输出给用户。
3.依据一个或多个参数、更准确地说依据信号处理参数进行在信号处理器内的修改。参数分别被设置为特定的值,从而每个参数在给定的时间点具有特定的设置。适宜地,取决于情况地选择相应的设置和相应相关的值。为了确定情况,听力设备例如具有分类器,分类器根据电输入信号确定当前的情况并且随后依据当前的情况适当地设置信号处理器的参数。
4.在ep 2 255 548 b1中例如描述了一种听力设备,在该听力设备中,分类器从输入信号提取多个特征并且产生分类器输出信号,借助分类器输出信号调整信号处理器的传递函数的参数。分类器输出信号与借助来自用户的反馈而更新的权重有关。在此还描述了一种具有被动的更新方案的半监控的学习方法。在此假定,只有当必须改变分类器的设置时,才进行反馈。如果不进行反馈,则相反地保持当前的设置。


技术实现要素:

5.基于该背景,本发明所要解决的技术问题在于,改进听力设备的运行,即提供一种用于运行听力设备的更好的方法。在此尤其应该改进针对听力设备的尽可能最佳的设置的学习。此外还提供一种改进的听力设备。
6.根据本发明,该技术问题通过具有根据本发明的特征的方法以及通过具有根据本发明的特征的听力设备来解决。有利的设计方案、扩展方案和变型方案是从本发明的主题。与该方法相关联的实施方案也类似地适用于听力设备,反之亦然。如果随后描述方法步骤,则尤其是以如下方式得到针对听力设备的有利的设计方案,即,使该听力设备被构造为用于实施这些方法步骤中的一个或多个。
7.该方法用于运行听力设备,因此是针对听力设备的运行方法。听力设备具有信号处理器,信号处理器具有至少一个可设置的参数,该参数在给定的时间点具有给定的设置。设置尤其是针对参数的特定的值、例如针对特定的放大或音量或用于利用听力设备进行定向倾听的定向波瓣的宽度的特定的值。在常规的使用中,听力设备的用户将听力设备佩戴在耳朵中或上。听力设备优选用于照顾听力受损的用户。听力设备优选具有至少一个用于接收环境声响的麦克风和用于将声响输出给用户听筒。麦克风从环境声响产生电输入信号,电输入信号被转发至信号处理器,并且其然后由信号处理器依据参数进行修改、例如放
大。由此产生修改的输入信号,修改的输入信号是电输出信号,并且为了输出将其转发至听筒。特别是在听力受损的用户的情况下,由信号处理器依据个体化的听力图修改输入信号,听力图尤其存储在听力设备中。信号处理器优选具有修改单元,修改单元依据参数修改输入信号。
8.通过依据当前的环境情况并且借助学习机器选择针对参数的设置,来取决于情况地设置参数。优选反复地取决于情况地设置参数。对参数的取决于情况的设置尤其自动通过信号处理器进行并且作为听力设备的运行的一部分。适宜地,参数附加地也还可以以其他的方式设置,例如由用户手动设置。为了取决于情况地设置,首先识别当前的环境情况。根据分配规则,给该环境情况分配特定的设置,随后选择特定的设置,从而相应地设置参数。学习机器尤其具有分类器,借助分类器识别环境情况。学习机器、特别是分类器尤其分析由麦克风产生的输入信号,并且给当前的环境情况分配一个类别、例如语音、音乐或噪声。随后根据类别来设置参数,即选择针对参数的适当的设置。借助学习机器,听力设备随着时间学习在哪个环境情况中哪个设置是最合适的,并且随后选择该设置。因此,当前不是静态地、而是动态地通过学习机器调整给相应的环境情况分配相应的设置。换言之:通过学习机器持续调整设置与环境情况之间的分配规则。
9.可以通过听力设备的用户的反馈来评价参数的当前的设置。当前的设置是在当前的时间点所设置的那个设置。用户可以通过反馈评价该设置。反馈通常包括用户对听力设备的改变当前的设置、即不同地设置参数的要求或请求。通常通过听力设备的输入元件、例如用于手动输入的键控器或用于语音输入的麦克风或其他的用于采集用户输入的传感器进行反馈。用户通过反馈表达他对当前的设置满意。由此,例如以计数器的形式给参数的相应的设置分配评价。由此依据反馈改变评价,并且该评价因此通常说明了用户对该设置满意。通常,如上面描述的那样,设置被分配给特定的类别并且因此被分配给特定的环境情况,从而该评价说明了用户对针对分配的环境情况的该设置满意。原则上可能的是,给单个类别分配多个不同的设置,或给单个设置分配多个不同的类别,或两种情况都有。因此,单个设置可以针对多个类别得到并且具有不同的评价。
10.在该方法的范围内,在第一训练中,通过用户的反馈被评价为对当前的设置不满意,并且通过只要没有进行反馈,就假定用户对当前的设置满意,来通过负反馈被动地训练学习机器。因此,该方法包括针对学习机器的学习方法。第一训练是被动的训练。在此理解的是,在第一训练的范围内,不是明确要求或查询用户的反馈,而是评价用户的自愿发出的反馈。替代主动向用户查询对设置的满意,从用户的行为中推导出该满意。如果用户给出反馈,则假定在反馈的时间点的设置是不令人满意的,并且因此进行反馈。与此相对,在没有反馈时假定当前的设置是令人满意的。
11.在该方法的范围内,除了第一训练以外还在第二训练中,通过与用户的反馈无关地并且尽管假定对当前的设置满意,但还是对所述设置进行改变,从而向用户提供随后可以相应通过反馈评价的另外的设置,来附加地训练学习机器。因此从被动的第一训练出发,向用户提供自发地(unaufgefordert)不同的设置,以便针对该设置得到附加的评价,尽管当前的设置本身被假定为是令人满意的。尤其地,在第二训练中,参数的当前的设置在环境情况不变的情况下改变,以便针对相同的环境情况测试不同的设置。也就是在该方法的范围内,利用不同的设置进行试验,从而第二训练也被称为试验性的训练。学习机器除了已经
假定为令人满意的当前的设置以外还利用另外的设置进行试验,其方法是,尽管假定满意,但仍舍弃该当前的设置,以便测试另外的设置。
12.由此,在第二训练中发起设置的改变首先是不重要的。然而适当的是以下设计方案,在该设计方案中,如果在特定的时间段内没有进行自动的改变或手动的改变或者自动和手动的改变,则在第二训练中改变当前的设置。如果在特定的时间段内没有进行取决于情况的改变,则优选改变当前的设置。时间段通常优选是在5分钟至15分钟之间。替换地或附加地,在有利的设计方案中,如果当前的设置被评价为令人满意的,则在第二训练中改变当前的设置。
13.本发明首先假定以下观察,即,学习机器的主动的训练通常会让用户感到烦恼,因为可能甚至在用户无法为此自己确定时间点的情况下需要定期的反馈。由此,在某些情况下,使用听力设备甚至会给用户带来负面的情绪。在主动训练时,向用户提供不同的设置,用户随后相应应该通过相应的反馈评价所述不同的设置。与此相对,学习机器的被动的训练是明显更有利的,在被动的训练中刚好不需要这种主动的反馈。在常规使用听力设备时,这种被动的训练具有明显更高的接受度。然而,主动咨询用户的主动的训练具有以下优点,即,通常可以提供更多的反馈,并且也可以在需要时产生更多的反馈,从而与在被动的训练中相比,学习机器明显更快地学会满意的设置。
14.在组合被动的第一训练和试验性的第二训练时产生特别的优点,由此,总体上获得与仅利用被动的训练相比更快速的学习。通过试验性的训练,引发潜在附加的反馈,并且因此产生潜在附加的评价,但在此保留了被动的训练的优点、即与主动的训练相比更少的用户交互。取而代之,在第二训练的范围内原则上进一步使用和利用第一训练的机制,以便通过有意改变设置来检验除了当前的设置以外还有另外的设置对于用户来说仍是满意的。也就是说,随后在持续运行中并且作为当前的设置的替换,自发地馈入另外的设置。通过第二训练,扩大了通过用户可获得的被动评价的参数的值范围。因此总体上明显加速了总系统、特别是学习机器朝针对相应的用户的尽可能最佳的设置的收敛(konvergenz)。因此加速并且相应改进最佳的设置的学习。
15.术语“第一训练”和“第二训练”当前用于说明在学习机器的优选的设计方案中的学习的两个平面,即,一方面自身简单的被动的训练,和另一方面试验和测试附加的设置。在听力设备运行时,两个训练尤其同时进行。原则上,由第一和第二训练构成的组合因此简单地相应于修改的、被动的训练。因为在此未询问地馈入附加的设置,所以该形式的训练也被称为“注入式学习(injected learning)”。因为即使在附加地馈入另外的设置的情况下,总体上也不主动要求用户的反馈,所以该训练原则上还是被动的。
16.在优选的设计方案中,通过不主动要求用户的反馈,学习机器的第二训练是被动的。因此,如在第一训练中那样,在第二训练中优选也不主动要求用户的反馈,而是能够对另外的设置进行评价就已经足够了。也就是,用户可以评价所述另外的设置,但不一定必须这样做。换言之:用户的反馈被评价为对当前的设置不满意,并且只要没有进行反馈,就假定用户对当前的设置满意。优选地,为了评价另外的设置甚至使用与针对第一训练相同的机制。在任何情况下,如果用户在反馈的范围内改变了设置,则学习机器会将反馈评价为对直接在反馈之前或在反馈的时间点的设置不满意,而不是评价为对直接在反馈之后的设置满意。
17.适宜地并且原则上尤其与第二训练无关地,学习机器在对设置满意时提高该设置的评价,并且在不满意时降低评价。该设计以如下构思为基础,即以相应的评价的形式存储各个设置的适当性,以便随后在听力设备运行时取决于情况地设置参数的情况下,选择相应最佳的设置。在环境情况改变的情况下识别新的环境情况,并且随后选择具有针对该环境情况的最高的评价的那样设置。在环境情况不变的情况下设置并且就此而言测试由原理引起地被评价为较差的另外的设置。用户随后可以通过负反馈将最初评价不佳的设置评价为实际上更差。在适当的扩展方案中,在没有反馈时假定对评价较差的设置满意,并且随后提高其评价。
18.优选地,原则上尤其与第二训练无关地,如果在特定的时间段内没有进行反馈,则学习机器自动假定用户对当前的设置满意。该方式支持在训练时通常被动的方案。与之无关地,原则上有利的是以下设计方案,在该设计方案中,包括参数通过用户改变的反馈被评价为对由用户新选择的设置满意。但这本身不是强制性的,并且在任何情况下此外需要用户的反馈,以便产生正面的评价,即提高设置的评价。与此相对,在没有通过用户改变设置的情况下,在一定的时间段之后自动假定用户满意的情况下,实现没有主动的用户交互的正面的评价,由此进一步改进训练的收敛。等待直到假定对当前的设置满意的时间段优选是5分钟到15分钟之间。只有当环境情况在该时间段期间也是相同的,即没有改变时,才适宜地提高当前的设置的评价。
19.原则上可以任意或随机地选择另外的设置,但是适宜地进行特定的选择,所述另外的设置在试验性的训练的范围内未询问地提供给用户。在适当的设计方案中,为此在第二训练中,根据该设置与另外的设置相比的之前的评价来选择另外的设置。例如适当的是以下设计方案,在该设计方案中,选择至少针对当前的环境情况与当前的设置相比具有更小数量的评价的设置,以便随后得到潜在另外的评价。
20.替换地或附加地,另外的设置适宜地依据其与当前的设置的类似性进行选择。为此在适当的设计方案中,在第二训练中,另外的设置与当前的设置相差最多10%,因此另外的设置是类似的。例如,参数是音量,并且设置是针对该音量的值,该值随后通过试验性的训练在+/

10%的范围内改变。通常,通过测试稍微不同的设置,学习机器以有利的方式尝试选择类似的设置,用以扩大参数的可接受的值范围。如果用户通过反馈表达对新的设置不满意,则将该新的设置评价为负面的。否则,新的设置尤其在经过一定的时间段之后如之前已经描述的那样自动被评价为正面的,即提高其评价。由此总体上,除了取决于情况地从一开始就选择的设置以外,在没有主动要求用户交互的情况下被动地检查另外的设置的适当性。
21.替换地或附加地,另外的设置适宜地依据另外的用户的评价进行选择。换言之:在适当的设计方案中,在第二训练中,依据另外的用户针对该设置的之前的评价来选择另外的设置。优选地,以如下方式进一步限制选择,即仅考虑与该用户类似的、例如具有类似的听力图或属于类似的人群或具有类似的年龄的这种另外的用户的评价。
22.原则上,所描述的修改的被动的训练也可以与主动的训练组合。在适当的设计方案中,在第三训练中,通过要求用户反馈以评价当前的设置,来附加地主动训练学习机器。主动的训练取决于时间或情况地进行,或通过用户本身发起。例如,在特定的时间点或在特定的时间段流逝之后,或在环境情况改变时实施主动的训练。然而,通过修改的被动的训练
有利地减小针对主动的训练的必要性,从而明显更少地实施主动的训练。
23.在优选的设计方案中,用户的反馈是,用户例如手动改变参数。为此,听力设备或与听力设备连接的附加设备具有输入元件,如上面已经描述的那样。与自动的取决于情况的设置不同,借助输入元件可以通过用户本身设置、即手动设置参数。因此,用户可以在对设置不满意的情况下改变参数并且因此改变其设置。这随后由学习机器评价为对直接在反馈之前所设置的设置不满意,并且相应降低其评价。然后通过反馈设置新的设置。在有利的扩展方案中假定,该新的设置对于用户来说是令人满意的,因为用户具体地选择了该设置,即假定对新的设置满意并且相应提高该设置的评价。
24.适当地,反馈包括用户的以下操作中的一个:改变听力设备的音量、改变听力设备的程序、改变听力设备的焦点。此外,另外的操作也是可想到的和适当的。
25.优选地,在听力设备的常规运行期间,即在听力设备由用户佩戴并使用期间,并且刚好不是仅在声学家的匹配阶段中或在特别的训练情况下,进行第一和第二训练。优选在线地在听力设备的持续运行时进行学习机器的修改的被动的训练。
26.学习机器例如是神经网络、支持向量机等。适当地,学习机器被构造为集成电路,尤其在程序技术上例如被构造为微控制器或在电路技术上例如被构造为asic。优选地,学习机器集成到听力设备中,尤其与信号处理器一起或作为其一部分集成到听力设备中。替换地,以下设计方案也是适当的,在该设计方案中,将学习机器转移到附加设备,附加设备与听力设备连接、优选无线地连接。
27.该技术问题与听力设备和用于运行听力设备的方法无关地尤其也通过学习机器来解决,如上面描述的那样,学习机器适用于与听力设备一起如描述的那样使用。
附图说明
28.随后根据附图详细阐述本发明的实施例。在附图中分别示意性地:
29.图1示出了听力设备;
30.图2示出了用于运行听力设备的方法;
31.图3示出了学习机器的训练。
具体实施方式
32.图1示出了一种听力设备2,该听力设备具有信号处理器4,信号处理器具有至少一个可设置的参数p,该参数在给定的时间点具有给定的设置e、即针对参数p、例如特定的放大或音量的特定的值。在常规的使用中,听力设备2的未详细示出的用户将该听力设备佩戴在耳朵中或上。听力设备2具有至少一个用于接收环境声响的麦克风6和用于将声响输出到用户的听筒8。麦克风6从环境声响产生电输入信号,电输入信号被转发至信号处理器4,并且由信号处理器依据参数p进行修改、例如放大。由此产生修改的输入信号,修改的输入信号是电输出信号,并且为了输出被转发至听筒8。当前,信号处理器4具有修改单元9,修改单元依据参数p修改输入信号。
33.在用于运行听力设备2的方法中,通过依据当前的环境情况并且借助学习机器10选择尽可能适当的针对参数p的设置e,来取决于情况地设置参数p。这一点反复以及自动地通过信号处理器4进行,并且作为听力设备2的运行的一部分进行。附加地,当前也可以还经
由输入元件12通过用户手动设置参数p。图2示出了针对该方法的实施例。针对取决于情况的设置,首先在第一步骤s1中识别当前的环境情况。根据分配规则,给该环境情况分配特定的设置e,随后在第二步骤s2中选择该设置,从而相应设置参数p。
34.在步骤s1中,借助学习机器10的分类器14识别环境情况。分类器14对输入信号进行分析,输入信号由麦克风产生,并且给当前的环境情况分配一个类别。然后根据类别,在第二步骤s2中设置参数p。借助学习机器10,听力设备2随着时间学习在哪个环境情况中哪个设置e是最合适的,并且随后选择该设置。在第三步骤s3中,与两个步骤s1和s2并行地进行学习,并且影响在步骤s2中针对参数p的设置e的选择,如在图2中示出的那样。因此当前不是静态地、而是动态地通过学习机器10对给相应的环境情况分配相应的设置e进行调整。
35.可以通过听力设备2的用户的反馈r评价参数p的当前的设置e。当前的设置e是在当前的时间点所设置的那个设置e。用户可以在第四步骤s4中通过反馈r评价该设置e。反馈r通常包括用户对听力设备2的改变当前的设置e的要求或请求。当前通过听力设备2的输入元件12、例如用于手动输入的键控器或麦克风、例如用于输入语音的麦克风6或其他的用于采集用户输入的传感器进行反馈r。用户通过反馈r表达他对当前的设置e满意。然后,例如以计数器的形式,给参数p的相应的设置e分配评价。依据反馈r改变评价,并且该评价说明了用户对针对分配的环境情况的相应的设置e满意。
36.该方法包括针对学习机器10的学习方法。随后参考图3阐述实施例。在第一训练中,通过在步骤b

中将用户的反馈r评价为对当前的设置e不满意,并且通过只要没有进行反馈r,就在步骤b+中假定用户对当前的设置e满意,来通过负反馈r被动地训练学习机器10。在此不是明确要求或查询用户的反馈r,而是评价用户的自愿发出的反馈r。
37.附加地,在所示的实施例中,在第二训练中,通过与用户的反馈r无关地并且尽管假定对当前的设置e满意,但在第五步骤s5中还是对所述设置进行改变,从而向用户提供随后可以相应通过反馈r评价的另外的设置e,来附加地训练学习机器10。因此从被动的第一训练出发,向用户提供自发地不同的设置e,以便在步骤b

、b+中针对该设置e得到附加的评价,尽管当前的设置e本身被假定为是令人满意的。因此,参数p的当前的设置e在环境情况不变的情况下改变,以便针对相同的环境情况测试不同的设置,即学习机器10利用不同的设置e进行试验,从而第二训练也被称为试验性的训练。通过借助第五步骤s5的试验性的训练,引发潜在附加的反馈r,并且因此随后在步骤b

、b+中产生潜在附加的评价,但在此保留了被动的训练的优点、即与主动的训练相比更少的用户交互。
38.当前,通过不主动要求用户的反馈r,学习机器10的第二训练也是被动的。因此,在第二训练中也没有主动要求用户的反馈r,而是能够评价另外的设置e就已经足够了。用户可以评价所述另外的设置e,但不一定必须这样做。当前,为了评价甚至使用与针对第一训练相同的机制。在任何情况下,如果用户在反馈r的范围内改变了设置e,则学习机器10会将反馈r评价为对直接在反馈r之前或在反馈r的时间点的设置不满意,而不是评价为对直接在反馈r之后的设置满意。
39.总体上,学习机器10在对设置e满意时提高该设置e的评价,并且在不满意时降低评价。由此,以相应的评价的形式存储各个设置e的适当性,以便随后在第二步骤s2中取决于情况地设置参数p的情况下,选择相应最佳的设置e。在环境情况改变的情况下识别新的环境情况,并且随后选择具有针对该环境情况的最高的评价的那个设置e。在环境情况不变
的情况下设置并且就此而言测试由原理引起地被评价为较差的另外的设置e。
40.当前,如果在特定的时间段t中没有进行反馈r,则学习机器10自动假定用户对当前的设置e满意。在图3的实施例中也是这样的情况。在没有通过用户改变设置e的情况下,在一定的时间段t之后自动假定用户满意的情况下,无需主动的用户交互地实现正面的评价。等待的时间段t例如是5分钟到15分钟之间。
41.原则上可以任意或随机地选择另外的设置e,但是当前进行特定的选择,所述另外的设置在试验性的训练的范围内未询问地提供给用户。也就是,当前依据该设置e与另外的设置e相比的之前的评价来选择另外的设置e。例如选择与当前的设置e相比至少针对当前的环境情况具有更小数量的评价的设置e,以便随后得到潜在另外的评价。
42.替换地或附加地,另外的设置e依据其与当前的设置e的类似性进行选择,并且例如与当前的设置e相差最多10%,因此另外的设置是类似的。例如,参数p是音量,并且设置e是针对该音量的值,该值随后通过试验性的训练在+/

10%的范围内改变。
43.替换地或附加地,另外的设置e依据另外的用户的评价进行选择。在示例性的扩展方案中,以如下方式进一步限制选择,即仅考虑与该用户类似的、例如具有类似的听力图或属于类似的人群或具有类似的年龄的这种另外的用户的评价。
44.除了示例性示出的、仅具有修改的被动的训练的实施方式以外,该被动的训练在变型方案中与主动的训练组合。在第三训练中,通过要求用户反馈r以评价当前的设置e,来附加地主动训练学习机器10。主动的训练取决于时间或情况地进行,或者通过用户本身发起。例如,在特定的时间点或在特定的时间段流逝之后,或在环境情况改变时实施主动的训练。
45.用户的反馈r当前是,用户借助输入元件12手动改变参数p。在未示出的变型方案中,输入元件12不是如图1所示的那样是听力设备2的一部分,而是附加设备的一部分,附加设备与听力设备2连接以用于传输数据。附加设备例如是针对听力设备2的远程遥控装置或智能手机等。同样在图3中示出参数p借助输入元件12的手动的设置e。因此,用户可以在对设置e不满意时改变参数p。这由学习机器10评价为对直接在反馈r之前所设置的设置e不满意,并且相应在步骤b

中降低该设置的评价。然后通过反馈r设置新的设置e。在扩展方案中附加地假定,该新的设置e对于用户来说是令人满意的,因为用户具体地选择了该设置e,即假定对新的设置e满意,并且相应在步骤b+中提高该设置的评价。在图3中未详细示出该变型方案。
46.反馈r例如包括用户的以下操作中的一个:改变听力设备2的音量、改变听力设备2的程序、改变听力设备2的焦点。此外,另外的操作也是可想到的和适当的。
47.学习机器10例如是神经网络、支持向量机等。学习机器10当前被构造为集成电路,例如在程序技术上被构造为微控制器或在电路技术上被构造为asic。当前,学习机器10集成到听力设备2中,在所示的实施例中甚至作为信号处理器4的一部分。替换地,未示出的设计方案也是适当的,其中将学习机器10转移到附加设备,如上面描述的那样,附加设备与听力设备2连接、例如无线地连接。
48.之前描述的并且在图1

3中示出的各个方面原则上也可以彼此独立地实现,并且原则上也可以相互任意组合,从而得到另外的实施例。
49.附图标记列表
[0050]2ꢀꢀꢀꢀꢀꢀꢀ
听力设备
[0051]4ꢀꢀꢀꢀꢀꢀꢀ
信号处理器
[0052]6ꢀꢀꢀꢀꢀꢀꢀ
麦克风
[0053]8ꢀꢀꢀꢀꢀꢀꢀ
听筒
[0054]9ꢀꢀꢀꢀꢀꢀꢀ
修改单元
[0055]
10
ꢀꢀꢀꢀꢀꢀ
学习机器
[0056]
12
ꢀꢀꢀꢀꢀꢀ
输入元件
[0057]
14
ꢀꢀꢀꢀꢀꢀ
分类器
[0058]
b

、b+
ꢀꢀ
步骤(用于评价)
[0059]
e
ꢀꢀꢀꢀꢀꢀꢀ
设置
[0060]
p
ꢀꢀꢀꢀꢀꢀꢀ
参数
[0061]
r
ꢀꢀꢀꢀꢀꢀꢀ
反馈
[0062]
s1
ꢀꢀꢀꢀꢀꢀ
第一步骤
[0063]
s2
ꢀꢀꢀꢀꢀꢀ
第二步骤
[0064]
s3
ꢀꢀꢀꢀꢀꢀ
第三步骤
[0065]
s4
ꢀꢀꢀꢀꢀꢀ
第四步骤
[0066]
s5
ꢀꢀꢀꢀꢀꢀ
第五步骤(改变针对第二训练的当前的设置)
[0067]
t
ꢀꢀꢀꢀꢀꢀꢀ
时间段
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1