数据处理方法、装置及电子设备与流程

文档序号:32162518发布日期:2022-11-12 03:07阅读:44来源:国知局
数据处理方法、装置及电子设备与流程

1.本技术涉及计算机技术领域,尤其涉及一种数据处理方法、装置及电子设备。


背景技术:

2.随着技术发展,计算机上所配置的应用程序越来越多种多样。某些应用程序对设备内存的要求较高。一旦应用程序所需要的内存超出计算机所配置的内存量,就会存在卡顿甚至死机的情况。


技术实现要素:

3.有鉴于此,本技术提供一种数据处理方法、装置及电子设备,如下:
4.一种数据处理方法,包括:
5.获得处理单元的数据读取请求,所述数据读取请求至少包含待读取数据的数据标识;
6.若第一存储器满足直接读取条件,从第二存储器读取所述数据标识对应的目标数据到所述处理单元中,以使得所述处理单元能够根据所述数据读取请求对所述目标数据进行处理;
7.其中,所述第一存储器与所述第二存储器不同;
8.若所述第一存储器不满足所述直接读取条件,从所述第二存储器读取所述目标数据到所述第一存储器中,以使得所述处理单元能够根据所述数据读取请求将所述目标数据从所述第一存储器中读取到所述处理单元中并对所述目标数据进行处理。
9.上述方法,优选的,所述处理单元中存储有数据映射表,所述数据映射表至少包含数据的数据标识和数据的存储地址;
10.其中,在所述获得处理单元的数据读取请求之后,所述方法还包括:
11.根据所述数据映射表,获得所述目标数据的存储地址;
12.其中,若所述存储地址指向所述第一存储器,所述处理单元按照所述存储地址在所述第一存储器中读取所述目标数据到所述处理单元并对所述目标数据进行处理;
13.在所述存储地址指向所述第二存储器的情况下,执行所述:从第二存储器读取所述数据标识对应的目标数据到所述处理单元中,或执行所述:从所述第二存储器读取所述目标数据到所述第一存储器中。
14.上述方法,优选的,在所述从所述第二存储器读取所述目标数据到所述第一存储器中之后,所述方法还包括:
15.根据所述目标数据在所述第一存储器中的存储地址,更新所述第二存储器中的数据映射表;
16.将所述第二存储器中的所述数据映射表更新到所述处理单元中。
17.上述方法,优选的,在所述获得处理单元的数据读取请求之后,所述方法还包括:
18.检测所述数据标识对应的处理任务;
19.如果所述处理任务满足并行读取条件,从第二存储器读取所述数据标识对应的第一部分数据到所述处理单元中,且,从所述第二存储器读取所述数据标识对应的第二部分数据到所述第一存储器中,以使得所述处理单元能够根据所述数据读取请求将所述第二部分数据从所述第一存储器中读取到所述处理单元中,并使得所述处理单元对所述第一部分数据和所述第二部分数据进行处理;
20.其中,所述并行读取条件包括:所述处理任务为数据处理量大于或等于处理阈值的任务,或者,所述处理任务为目标类型的任务。
21.上述方法,优选的,所述处理单元对所述第一部分数据和所述第二部分数据进行处理,包括:
22.所述处理单元将分别对应于相同的所述数据标识的所述第一部分数据和所述第二部分数据进行合并,以得到所述数据标识对应的目标数据;
23.所述处理单元对所述目标数据进行处理。
24.上述方法,优选的,从第二存储器读取所述数据标识对应的目标数据到所述处理单元,包括:
25.利用任务调度器从第二存储器读取所述数据标识对应的目标数据,以使得所述任务调度器将所述目标数据写入所述处理单元中的缓存区域。
26.上述方法,优选的,所述任务调度器与所述第二存储器之间基于第一总线接口连接;
27.所述任务调度器与所述处理单元之间基于第二总线接口连接,所述第一总线接口和所述第二总线接口的总线延迟低于预设的延迟阈值。
28.上述方法,优选的,所述第一存储器满足直接读取条件包括:所述第一存储器的可用存储区域小于或等于预设的存储阈值。
29.一种数据处理装置,包括:
30.请求获得单元,用于获得处理单元的数据读取请求,所述数据读取请求至少包含待读取数据的数据标识;
31.第一读取单元,用于若第一存储器满足直接读取条件,从第二存储器读取所述数据标识对应的目标数据到所述处理单元中,以使得所述处理单元能够根据所述数据读取请求对所述目标数据进行处理;
32.其中,所述第一存储器与所述第二存储器不同;
33.第二读取单元,用于若所述第一存储器不满足所述直接读取条件,从所述第二存储器读取所述目标数据到所述第一存储器中,以使得所述处理单元能够根据所述数据读取请求将所述目标数据从所述第一存储器中读取到所述处理单元中并对所述目标数据进行处理。
34.一种电子设备,包括:
35.第一存储器;
36.第二存储器;
37.处理单元;
38.任务调度器,用于获得所述处理单元的数据读取请求,所述数据读取请求至少包含待读取数据的数据标识;若所述第一存储器满足直接读取条件,从第二存储器读取所述
数据标识对应的目标数据到所述处理单元中,以使得所述处理单元能够根据所述数据读取请求对所述目标数据进行处理;其中,所述第一存储器与所述第二存储器不同;若所述第一存储器不满足所述直接读取条件,从所述第二存储器读取所述目标数据到所述第一存储器中,以使得所述处理单元能够根据所述数据读取请求将所述目标数据从所述第一存储器中读取到所述处理单元中并对所述目标数据进行处理。
39.从上述技术方案可以看出,本技术公开的一种数据处理方法、装置及电子设备中,在获得到处理单元的数据读取请求之后,如果第一存储器满足直接读取条件,那么从第二存储器中读取数据标识对应的目标数据到处理单元中,由此处理单元可以根据数据读取请求对目标数据进行处理,而如果第一存储器不满足直接读取条件,那么在从第二存储器中读取目标数据到第一存储器之后,再由处理单元将目标数据从第一存储器读取到处理单元中,进而由处理单元对目标数据进行处理。可见,本技术中优先在第二存储器中读取目标数据到第一存储器,再由处理单元将目标数据从第一存储器读取到处理单元中,而在第一存储器满足直接读取条件时可以直接从第二存储器中直接读取目标数据到处理单元中,由此可以不受限于第一存储器是否正常使用,均可以实现从第二存储器中的数据读取,避免因为第一存储器无法正常读取数据而导致的卡顿甚至死机的情况,从而提高对电子设备的使用体验。
附图说明
40.为了更清楚地说明本技术实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
41.图1为本技术实施例一提供的一种数据处理方法的流程图;
42.图2及图3分别为本技术实施例一提供的一种数据处理方法的另一流程图;
43.图4为本技术实施例二提供的一种数据处理装置的结构示意图;
44.图5为本技术实施例三提供的一种电子设备的结构示意图;
45.图6为本技术适用于电子设备的硬件逻辑架构图;
46.图7为本技术适用于电子设备的部分硬件逻辑架构图。
具体实施方式
47.下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
48.参考图1所示,为本技术实施例一提供的一种数据处理方法的实现流程图,该方法可以适用于能够进行数据处理的电子设备,如手机或计算机等。本实施例中的技术方案主要用于提高对电子设备的使用体验。
49.具体的,本实施例中的方法可以包含如下步骤:
50.步骤101:获得处理单元的数据读取请求。
51.其中,处理单元可以为电子设备中的处理器,如中央处理器cpu(central processing unit);或者,处理单元可以为电子设备中装载的程序模块,用于实现相应的功能。
52.具体的,数据读取请求中至少包含有待读取数据的数据标识,如数据名称等,用以唯一表征处理单元所需要读取的目标数据。
53.步骤102:判断第一存储器是否满足直接读取条件,如果第一存储器满足直接读取条件,执行步骤103,如果第一存储器不满足直接读取条件,执行步骤104。
54.其中,步骤102中判断第一存储器是否满足直接读取条件具体可以为:判断第一存储器的可用存储区域是否满足直接读取条件。
55.具体的,直接读取条件可以为:第一存储器的可用存储区域小于或等于预设的存储阈值。例如,第一存储器可以为电子设备中的内存设备,如低功耗内存lpddrs(low power double data rate sdram),其中,sdram是指同步动态随机存取内存(synchronous dynamic random-access memory)。电子设备中还可以包含有其他存储器,如第二存储器,第二存储器与第一存储器不同,第二存储器与第一存储器在数据存储的性能上不同,和/或,第二存储器与第一存储器在数据存储的功能上不同。例如,第二存储器可以为存储有电子设备中各处理单元所需要的目标数据的存储器,如固态硬盘ssd(solid state disk或solid state drive),也称为nvme ssd(nvm express,non volatile memory host controller interface specification)ssd,即非易失性内存主机控制器接口规范ssd。基于此,直接读取条件可以为:电子设备中内存的剩余空间小于或等于预设的存储阈值。
56.步骤103:从第二存储器读取数据标识对应的目标数据到处理单元中,以使得处理单元能够根据数据读取请求对目标数据进行处理。
57.例如,本实施例中在lpddr剩余空间不足时,直接从ssd中读取目标数据到cpu中,由此,cpu可以按照数据读取请求对其内的目标数据进行处理。
58.步骤104:从第二存储器读取目标数据到第一存储器中,以使得处理单元能够根据数据读取请求将目标数据从第一存储器中读取到处理单元中并对目标数据进行处理。
59.例如,本实施例中在lpddr剩余空间充足时,先从ssd中读取目标数据到lpddr中,再由cpu从lpddr中读取目标数据到cpu中,由此,cpu可以按照数据读取请求对其内的目标数据进行处理。可见,本实施例中即使lpddr剩余空间不足,也不影响cpu中对目标数据的读取和处理。
60.从上述技术方案可以看出,本技术实施例一提供的一种数据处理方法中,在获得到处理单元的数据读取请求之后,如果第一存储器满足直接读取条件,那么从第二存储器中读取数据标识对应的目标数据到处理单元中,由此处理单元可以根据数据读取请求对目标数据进行处理,而如果第一存储器不满足直接读取条件,那么在从第二存储器中读取目标数据到第一存储器之后,再由处理单元将目标数据从第一存储器读取到处理单元中,进而由处理单元对目标数据进行处理。可见,本技术中优先在第二存储器中读取目标数据到第一存储器,再由处理单元将目标数据从第一存储器读取到处理单元中,而在第一存储器满足直接读取条件时可以直接从第二存储器中直接读取目标数据到处理单元中,由此可以不受限于第一存储器是否正常使用,均可以实现从第二存储器中的数据读取,避免因为第一存储器无法正常读取数据而导致的卡顿甚至死机的情况,从而提高对电子设备的使用体
验。
61.在一种实现方式中,处理单元中存储有数据映射表,数据映射表至少包含有数据的数据标识和数据的存储地址。处理单元中存储的数据映射表可以基于第二存储器中的数据映射表得到。例如,将第二存储器中存储的数据映射表复制到处理单元中。而第二存储器中可以根据其所存储的数据被读取的状态来生成数据映射表。例如,数据映射表中初始状态下包含有第二存储器中所存储的所有数据的记录内容,每条数据的记录内容包含有该数据的数据标识和数据的存储地址,随着电子设备的运行,如果有某个数据被读取到第一存储器,那么在第二存储器的数据映射表中调整该数据对应的记录内容,该记录内容包含被读取到第一存储器的数据的数据标识及其在第一存储器中的存储地址。
62.基于此,本实施例中在步骤101之后,还可以包含如下步骤,如图2中所示:
63.步骤105:根据数据映射表,获得目标数据的存储地址。
64.在一种实现方式中,本实施例中可以在处理单元所存储的数据映射表中,根据数据获取请求中的数据标识,查询目标数据的存储地址,该存储地址指向第一存储器或指向第二存储器。需要说明的是,第二存储器中的数据映射表在每次有数据被读取到第一存储器的时候更新并更新到处理单元中。
65.在另一种实现方式中,本实施例中可以先从第二存储器中读取数据映射表并更新到处理单元中,再在处理单元中的数据映射表中根据数据标识查询目标数据的存储地址。需要说明的是,第二存储器中的数据映射表在每次有数据被读取到第一存储器的时候更新。
66.在另一种实现方式中,本实施例中可以直接在第二存储器中的数据映射表中根据数据标识查询目标数据的存储地址。
67.步骤106:判断目标数据的存储地址指向第一存储器或指向第二存储器,在目标数据的存储地址指向第一存储器的情况下,执行步骤107,在目标数据的存储地址执行第二存储器的情况下,执行步骤102,进而在第一存储器满足直接读取条件的情况下,执行步骤103,在第一存储器不满足直接读取条件的情况下,执行步骤104。
68.步骤107:处理单元按照存储地址在第一存储器中读取目标数据到处理单元并对目标数据进行处理。
69.也就是说,本实施例中在接收到数据读取请求之后,先判断第一存储器中是否已经存储有从第二存储器读取来的目标数据,如果有,那么可以由处理单元直接按照存储地址从第一存储器中读取目标数据即可,而如果第一存储器中没有目标数据,也就是目标数据的存储地址指向第二存储器,那么可以先判断第一存储器是否满足直接读取条件,如第一存储器的可用存储区域是否小于或等于存储阈值,如果第一存储器的可用存储区域小于存储阈值,那么可以直接从第二存储器读取目标数据到处理单元中,而如果第一存储器的可用存储区域大于存储阈值,那么可以先从第二存储器中读取目标数据到第一存储器中,以便于处理单元从第一存储器读取目标数据到处理单元中,基于此,处理单元就可以实现对目标数据的处理。可见,本实施例中在优先使用第一存储器实现目标数据读取的前提下,能够保证即使第一存储器不能正常使用也能够实现目标数据的读取,同时,本实施例中在接收到数据获取请求之后优先查看第一存储器中是否已经存储有目标数据,从而在第一存储器中存储有目标数据的情况下可以减少目标数据的读取流程,从而提高目标数据的读取
和处理效率。
70.基于以上实现方案,本实施例中在步骤104中从第二存储器读取目标数据到第一存储器中之后,还可以根据目标数据在第一存储器中的存储地址,更新第二存储器中的数据映射表,之后,将第二存储器中的数据映射表更新到处理单元中,以此来保证处理单元中的数据映射表能够更加准确的表征各个数据的存储地址。
71.需要说明的是,本实施例中更新第二存储器中的数据映射表时,具体为:在数据映射表中添加目标数据的数据标识和目标数据在第一存储器中的存储地址,以表征在第一存储器的相应存储地址上存储有目标数据。基于此,将第二存储器中的数据映射表更新到处理单元之后,能够通过处理单元中的数据映射表确定目标数据的存储地址是否指向第一存储器。
72.在一种实现方式中,在步骤101之后,本实施例中还可以包含如下步骤,如图3中所示:
73.步骤108:检测数据标识对应的处理任务,如果处理任务满足并行读取条件,执行步骤109,如果处理任务不满足并行读取条件,执行步骤102。
74.其中,并行读取条件可以为:处理任务为数据处理量大于或等于处理阈值的任务,和/或,处理任务为特定的目标类型的任务。例如,处理任务为大型三维渲染的处理任务,需要进行数据读取的数据量大于处理阈值。
75.基于此,本实施例中可以通过检测数据标识对应的处理任务的数据处理量或任务类型来确定处理任务是否满足并行读取条件,并在处理任务满足并行读取条件的情况下,执行步骤109,如果处理任务不满足并行读取条件,执行步骤102。
76.步骤109:从第二存储器读取数据标识对应的第一部分数据到处理单元中,且从第二存储器读取数据标识对应的第二部分数据到第一存储器中,以使得处理单元能够根据数据读取请求将第二部分数据从第一存储器中读取到处理单元中,并使得处理单元对第一部分数据和第二部分数据进行处理。
77.其中,第一部分数据和第二部分数据组成数据标识对应的目标数据。
78.也就是说,本实施例中在检测到数据标识对应的处理任务满足并行读取条件时,可以采用步骤103和步骤104并行执行所形成的并行读取方案,也就是说,在使用第一存储器从第二存储器读取一部分数据到处理单元中的同时,从第二存储器读取另一部分数据到处理单元中,由此实现并行的数据读取,基于此,在处理单元中就可以得到数据标识对应的目标数据,进而可以实现数据处理。可见,本实施例中根据处理任务灵活实现数据的读取,以保证处理任务的正常执行。
79.基于以上实现方案,处理单元在对第一部分数据和第二部分数据进行处理时,具体可以通过以下方式实现:
80.首先,处理单元将分别对应于相同的数据标识的第一部分数据和第二部分数据进行合并,以得到数据标识对应的目标数据;之后,处理单元就可以对目标数据进行处理。
81.也就是说,在处理单元中可能包含有多个数据标识各自对应的多个部分数据,在处理单元进行数据处理之前,先将原本对应于同一数据标识的数据进行合并,然后再对合并后的数据进行处理。
82.在一种实现方式中,步骤103在从第二存储器读取数据标识对应的目标数据到处
理单元时,可以通过以下方式实现:
83.利用任务调度器,从第二存储器读取数据标识对应的目标数据,以使得任务调度器将目标数据写入到处理单元中的缓存区域。
84.例如,通过计算机中的access scheduler先从ssd中读取目标数据,然后,access scheduler将读取到的目标数据发送到cpu的l4 cache中,以便于cpu对l4 cache中的目标数据进行读取以及处理。
85.具体实现中,任务调度器与第二存储器之间基于第一总线接口连接,任务调度器与处理单元之间基于第二总线接口连接,第一总线接口和第二总线接口的总线延迟低于预设的延迟阈值。
86.例如,计算机中的access scheduler与ssd之间可以通过高速串行计算机扩展总线标准pci-e(pci-express(peripheral component interconnect express)是一种)接口或cxl(compute express link)接口连接,计算机中的access scheduler与cpu之间可以通过cxl连接。
87.其中,任务调度器可以通过能够实现以上功能的控制芯片实现,或者,任务调度器可以为处理器中具有以上功能的程序模块。
88.参考图4,为本技术实施例二提供的一种数据处理装置的结构示意图,该装置可以配置在能够进行数据处理的电子设备,如手机或计算机等。本实施例中的技术方案主要用于提高对电子设备的使用体验。
89.具体的,本实施例中的装置可以包含如下单元:
90.请求获得单元401,用于获得处理单元的数据读取请求,所述数据读取请求至少包含待读取数据的数据标识;
91.第一读取单元402,用于若第一存储器满足直接读取条件,从第二存储器读取所述数据标识对应的目标数据到所述处理单元中,以使得所述处理单元能够根据所述数据读取请求对所述目标数据进行处理;
92.其中,所述第一存储器与所述第二存储器不同;
93.第二读取单元403,用于若所述第一存储器不满足所述直接读取条件,从所述第二存储器读取所述目标数据到所述第一存储器中,以使得所述处理单元能够根据所述数据读取请求将所述目标数据从所述第一存储器中读取到所述处理单元中并对所述目标数据进行处理。
94.从上述技术方案可以看出,本技术实施例二提供的一种数据处理装置中,在获得到处理单元的数据读取请求之后,如果第一存储器满足直接读取条件,那么从第二存储器中读取数据标识对应的目标数据到处理单元中,由此处理单元可以根据数据读取请求对目标数据进行处理,而如果第一存储器不满足直接读取条件,那么在从第二存储器中读取目标数据到第一存储器之后,再由处理单元将目标数据从第一存储器读取到处理单元中,进而由处理单元对目标数据进行处理。可见,本技术中优先在第二存储器中读取目标数据到第一存储器,再由处理单元将目标数据从第一存储器读取到处理单元中,而在第一存储器满足直接读取条件时可以直接从第二存储器中直接读取目标数据到处理单元中,由此可以不受限于第一存储器是否正常使用,均可以实现从第二存储器中的数据读取,避免因为第一存储器无法正常读取数据而导致的卡顿甚至死机的情况,从而提高对电子设备的使用体
验。
95.在一种实现方式中,所述处理单元中存储有数据映射表,所述数据映射表至少包含数据的数据标识和数据的存储地址;
96.其中,在请求获得单元401获得处理单元的数据读取请求之后,还用于:根据所述数据映射表,获得所述目标数据的存储地址;其中,若所述存储地址指向所述第一存储器,所述处理单元按照所述存储地址在所述第一存储器中读取所述目标数据到所述处理单元并对所述目标数据进行处理;在所述存储地址指向所述第二存储器的情况下,触发所述第一读取单元402,以从第二存储器读取所述数据标识对应的目标数据到所述处理单元中,或触发第二读取单元403,以从所述第二存储器读取所述目标数据到所述第一存储器中。
97.基于以上实现,在所述第一读取单元402从所述第二存储器读取所述目标数据到所述第一存储器中之后,还用于:根据所述目标数据在所述第一存储器中的存储地址,更新所述第二存储器中的数据映射表;将所述第二存储器中的所述数据映射表更新到所述处理单元中。
98.在一种实现方式中,在所述请求获得单元401获得处理单元的数据读取请求之后,还用于:检测所述数据标识对应的处理任务;如果所述处理任务满足并行读取条件,触发第一读取单元402从第二存储器读取所述数据标识对应的第一部分数据到所述处理单元中,且,触发第二读取单元403从所述第二存储器读取所述数据标识对应的第二部分数据到所述第一存储器中,以使得所述处理单元能够根据所述数据读取请求将所述第二部分数据从所述第一存储器中读取到所述处理单元中,并使得所述处理单元对所述第一部分数据和所述第二部分数据进行处理。
99.基于以上实现方案,所述处理单元对所述第一部分数据和所述第二部分数据进行处理时,具体用于:所述处理单元将分别对应于相同的所述数据标识的所述第一部分数据和所述第二部分数据进行合并,以得到所述数据标识对应的目标数据;所述处理单元对所述目标数据进行处理。
100.在一种实现方式中,第一读取单元402在从第二存储器读取所述数据标识对应的目标数据到所述处理单元时,具体用于:利用任务调度器从第二存储器读取所述数据标识对应的目标数据,以使得所述任务调度器将所述目标数据写入所述处理单元中的缓存区域。
101.具体的,所述任务调度器与所述第二存储器之间基于第一总线接口连接;所述任务调度器与所述处理单元之间基于第二总线接口连接,所述第一总线接口和所述第二总线接口的总线延迟低于预设的延迟阈值。
102.在一种实现方式中,所述第一存储器满足直接读取条件包括:所述第一存储器的可用存储区域小于或等于预设的存储阈值。
103.需要说明的是,本实施例中各单元的具体实现可以参考前文中的相应内容,此处不再详述。
104.参考图5,为本技术实施例三提供的一种电子设备的结构示意图,该电子设备可以包含如下结构:
105.第一存储器501;第一存储器501可以为由一个或多个存储芯片组成的存储集群;
106.第二存储器502;第二存储器502可以为由一个或多个存储芯片组成的存储集群;
107.处理单元503;处理单元503可以为包含一个或多个内核的处理器,或者,处理单元503可以为具有相应功能的程序模块。
108.任务调度器504,用于获得所述处理单元503的数据读取请求,所述数据读取请求至少包含待读取数据的数据标识;若所述第一存储器501满足直接读取条件,从第二存储器502读取所述数据标识对应的目标数据到所述处理单元503中,以使得所述处理单元503能够根据所述数据读取请求对所述目标数据进行处理;其中,所述第一存储器501与所述第二存储器502不同;若所述第一存储器501不满足所述直接读取条件,从所述第二存储器502读取所述目标数据到所述第一存储器501中,以使得所述处理单元503能够根据所述数据读取请求将所述目标数据从所述第一存储器501中读取到所述处理单元503中并对所述目标数据进行处理。
109.其中,任务调度器504可以为能够实现以上功能的控制芯片,或者,任务调度器可以为处理器中具有以上功能的程序模块。
110.从上述技术方案可以看出,本技术实施例三提供的一种电子设备中,在获得到处理单元的数据读取请求之后,如果第一存储器满足直接读取条件,那么从第二存储器中读取数据标识对应的目标数据到处理单元中,由此处理单元可以根据数据读取请求对目标数据进行处理,而如果第一存储器不满足直接读取条件,那么在从第二存储器中读取目标数据到第一存储器之后,再由处理单元将目标数据从第一存储器读取到处理单元中,进而由处理单元对目标数据进行处理。可见,本技术中优先在第二存储器中读取目标数据到第一存储器,再由处理单元将目标数据从第一存储器读取到处理单元中,而在第一存储器满足直接读取条件时可以直接从第二存储器中直接读取目标数据到处理单元中,由此可以不受限于第一存储器是否正常使用,均可以实现从第二存储器中的数据读取,避免因为第一存储器无法正常读取数据而导致的卡顿甚至死机的情况,从而提高对电子设备的使用体验。
111.以电子设备为creator笔记本为例,也就是设计师笔记本,专业平面设计对电脑的要求非常高,首要的是cpu必须是多核心多线程,越多越好,同时要求cpu的主频尽可能的高。其次是内存的容量要大,最起码要在32gb以上,甚至有些程序比如3d max要求内存越大越好,有多大用多大,因此,当设计师运行的程序需要的内存高于笔记本配置的内存容量时,就会爆内存,目前是的做法是通过虚拟内存的方式,但这种方式很慢,会造成用户程序lag,影响设计师工作效率。但笔记本设计来说,一般主流配置是16gb,最大也就32gb,增大内存会大幅度的增加笔记本成本。
112.有鉴于此,本技术中的技术方案主要通过提出一种新型的cpu设计架构,动态随机存取存储器infinity dram(dynamic random access memory)通过cpu对nvme与lpddr并行访问的方案,运用nvme,去大幅度扩展lpddr的容量,从而提高设计师运行程序的速度,进而提高效率.让creator再也不用为内存容量爆而影响工作。
113.参考图6所示的硬件逻辑示意图,笔记本中包含有nvme ssd和raid以及lpddr,另外,还有系统级芯片soc(system on chip),其中包含有cpu、存储控制器memory controller和access scheduler,以及相应的pcie controller。cpu中包含有多个内核core和igpu(integrated graphics processor unit),内核和igpu中粉笔具有缓存cache,在笔记本中实现如下方案:
114.首先,本技术中通过infinity dram architecture、类存内计算、磁盘阵列raid
(redundant arrays of independent disks)、accelerator(加速器)结合复合传输架构,以提升nvme访问速度。并且,通过lpddr/ssd parallel access(并行存取)architecture为creator解决程序爆内存/显存的问题。可见,本技术中通过重新定义cpu存储的访问(access)架构,动态实现nvme与lpddr并行数据访问,实现infinity dram。具体如下:
115.首先,对于latency(延迟),一般l1(l1 d-cache和l1 i-cache)为2~4个时钟周期,l2 cache为11~13个,l3 cache为30~35个,lpddr为大概100个,pcie为大概300个,而对于cxl bus,挂在ring上,可以将pcie延迟提升到200以内。
116.其次,本技术中新定义nvme和pcie控制器与pcie复用的cxl.io架构,将其与系统内存并列,挂在cpu ring bus(环形总线)上。
117.而在nvme or cxl.io device中,采用类存内计算存储nvme,增加dram以及accelerator用于数据访问加速,用于减少data access latency。
118.基于此,本技术中对程序(即前文中的处理单元)使用内存的状况进行实时监控:
119.首先,ssd把ftl映射表(即前文中的数据映射表)完整地放入dram缓存中;
120.对于lpddr capacity可以满足的程序,数据的访问通过直接存储器访问dma(direct memory access)读取(call)数据到lpddr,然后cpu再从lpddr进行数据access。
121.对于某些非常吃内存的程序,比如大型3d渲染等,启用ssd/lpddr并行访问模式,ssd同步把ftl映射表放入l4 cache/esram/edram中,优先将数据call到lpddr,cpu从lpddr访问,当数据溢出lpddr容量时,cpu通过pcie or cxl直接从ssd call数据到cpu l3 or l4 cache,这样可以实现内存容量无限扩展,弥补lpddr容量的不足。
122.另外,同时需要保持最后一笔数据得一致性,当lpddr最后一笔与ssd第一笔数据属于同一个数据时,需要保持cache地址独占,需要将这两笔数据在cache中合并为一比数据。
123.而当lpddr数据并清除一部分时,即lpddr5容量够用,则cpu数据访问继续回到单一通过lpddr读取ssd中数据的访问方式,如图7中所示:
124.cpu需要访问数据时,dma先将数据从ssd搬运到lpddr,cpu再把数据从lpddr搬运到cpu cache;
125.检测到内存容量即将溢出时,cpu管理数据访问模式,直接将ssd data通过cxl.io bus or pcie bus从ssd直接call到cpu cache。
126.需要说明的是,cpu与lpddr之间可以通过多种方式实现数据传输。
127.本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
128.专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
129.结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(ram)、内存、只读存储器(rom)、电可编程rom、电可擦除可编程rom、寄存器、硬盘、可移动磁盘、cd-rom、或技术领域内所公知的任意其它形式的存储介质中。
130.对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本技术。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1