一种llc芯片及缓存系统
技术领域
1.本技术涉及数据缓存领域,特别是涉及一种llc芯片及缓存系统。
背景技术:
2.现有技术中cpu(central processing unit,
中央处理器)为了实现llc(last-level cache,终极缓存),在cpu的mlc(mid-level cache,次级缓存)和llc之间增加一个noc(network-on-chip,片上网络),以增加cpu对llc访问的带宽,llc通过使用mram存储器模块进行数据缓存,其中mram存储器为介质存储器,容量较小。
技术实现要素:
3.本技术至少提供一种llc芯片及缓存系统,用于实现大容量、高带宽的llc。
4.本技术第一方面提供了一种llc芯片,该llc芯片包括存储
晶圆、接口逻辑单元和封装基板,接口逻辑单元与存储晶圆依次设置于封装基板上,存储晶圆与接口逻辑单元通过三维集成,以形成llc芯片,
多个处理组件连接接口逻辑单元,以通过接口逻辑单元对存储晶圆进行读写操作;
5.存储晶圆包括至少一个存储空间,多个处理组件对特定存储空间或任一存储空间进行读写操作,以实现非共享独立存储访问或共享存储访问;其中,存储晶圆的存储空间根据多个处理组件的访问量或访问速度划分。
6.可选地,接口逻辑单元包括多个独立的接口、控制器以及寄存器,存储晶圆包括多个独立的dram阵列,多个独立的接口、控制器与寄存器形成独立访问多个dram阵列的通路,多个处理组件分别通过对应的接口连接通路,以对独立对应的dram阵列进行非共享独立存储访问。
7.可选地,多个处理组件中的至少一个处理组件通过接口逻辑单元对与其对应设置的dram阵列进行读写操作。
8.可选地,存储晶圆包括至少一个dram晶圆,多个dram阵列分布于同一dram晶圆的不同区域;或,多个dram阵列分布于多个存储晶圆,对应多个存储晶圆层或多个存储晶圆的投影重叠区域。
9.可选地,存储晶圆的存储空间为dram阵列容量,dram阵列容量根据多个处理组件的访问量或访问速度进行分配。
10.可选地,存储晶圆还包括多个第一键合柱,接口逻辑单元还包括多个第二键合柱和多个凸点,封装基板包括多个引线端口,
11.每个第一键合柱与对应的第二键合柱连接,以使存储晶圆连接接口逻辑单元,接口逻辑单元通过多个凸点连接封装基板,封装基板通过多个引线端口连接多个处理组件。
12.可选地,接口逻辑单元还包括片上网络,片上网络的每个节点连接单个控制器,控制器用于访问存储晶圆,寄存器的一端连接控制器,寄存器的另一端连接存储晶圆,寄存器用于进行数据缓冲;
13.处理组件通过接口逻辑单元输入地址,接口逻辑单元根据地址,驱动与地址对应的节点连接的控制器,以使处理组件对存储晶圆进行读写操作。
14.可选地,控制器包括缓存一致性协议控制器,llc芯片还包括ddr控制器与ddr存储器,缓存一致性协议控制器通过片上网络访问ddr控制器,以实现对ddr存储器的读写操作;
15.其中,多个控制器的缓存一致性协议控制器通过片上网络相互通讯。
16.可选地,llc芯片包括多个存储晶圆,多个存储晶圆依次堆叠设置于接口逻辑单元上,多个存储晶圆中相邻的两个存储晶圆通过键合的方式进行连接。
17.本技术第二方面提供了一种缓存系统,该缓存系统包括如上述的llc芯片以及多个处理组件,每个处理组件包括至少两个中央处理器、至少两个l1级缓存与一个l2级缓存,多个处理组件连接llc芯片,以进行读写操作;
18.缓存系统根据多个处理组件的访问量或访问速度划分存储晶圆的存储空间,以使每个中央处理器对对应的存储空间进行读写操作;
19.或,多个处理组件中的任一中央处理器对存储晶圆的任一存储空间进行读写操作。
20.本技术的有益效果是:区别于现有技术,本技术通过三维集成存储晶圆与接口逻辑单元,进而通过多个分布式的接口提高llc芯片的信号传输带宽;同时,本技术通过非共享模式或共享模式进行数据缓存,以使处理组件对存储晶圆进行读写操作,提高处理组件访问数据的效率。
21.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本技术。
附图说明
22.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
23.图1是本技术llc芯片一实施例的第一结构示意图;
24.图2是本技术llc芯片一实施例的第二结构示意图;
25.图3是图1中接口逻辑单元一实施例的结构示意图;
26.图4是图1中接口逻辑单元另一实施例的结构示意图;
27.图5是本技术llc芯片另一实施例的结构示意图;
28.图6是本技术llc芯片又一实施例的结构示意图;
29.图7是本技术dram阵列排布方式的结构示意图;
30.图8是本技术llc芯片再一实施例的结构示意图;
31.图9是本技术llc芯片进行读写操作的流程示意图;
32.图10是是本技术缓存系统的结构示意图。
具体实施方式
33.为使本领域的技术人员更好地理解本技术的技术方案,下面结合附图和具体实施
方式对本技术所提供的llc芯片及缓存系统做进一步详细描述。可以理解的是,所描述的实施例仅仅是本技术一部分实施例,而不是全部实施例。基于本技术中的实施例,本领域普通技术人员在没有做出创造性的劳动前提下所获得的所有其它实施例,都属于本技术保护的范围。
34.本技术中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排它的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
35.现有技术中,cpu缓存数据的方式包括flc(first-level cache,初级缓存)、mlc(mid-level cache,次级缓存)和llc(last-level cache,终极缓存),分别对应l1级缓存、l2级缓存和l3级缓存。相较与l1级缓存以及l2级缓存,l3级缓存具有更高的频率以及更低的时延进行数据访问的优点。
36.为了实现llc,现有技术通过在cpu的mlc和llc之间增加一个noc以增加cpu对llc访问的带宽。同时llc通过使用mram存储器模块进行数据缓存,而mram存储器为介质存储器,容量较小。
37.因此,本技术提供一种llc芯片,用于实现大容量、高带宽的llc。
38.请参阅图1与图2,图1是本技术llc芯片一实施例的第一结构示意图,图2是本技术llc芯片一实施例的第二结构示意图。如图1所示,llc芯片1包括封装基板10、接口逻辑单元20和存储晶圆30。其中,接口逻辑单元20与存储晶圆30依次设置于封装基板10上,存储晶圆30与接口逻辑单元20通过三维集成于封装基板10,以形成llc芯片1。
39.其中,封装基板10连接接口逻辑单元20,接口逻辑单元20进一步连接存储晶圆30。
40.cpu通过llc芯片的封装基板10与llc芯片互连。具体地,cpu和llc芯片,通过额外的封装基板,和/或,电路板互连;或者cpu被装配到llc芯片的封装基板上,与llc芯片互连。以下以cpu和llc芯片,通过额外的封装基板,和/或,电路板互连为例。
41.如图2所示,存储晶圆30包括多个第一键合柱31,接口逻辑单元20包括多个第二键合柱22和多个凸点21,封装基板10包括多个引线端口11。
42.其中,多个第一键合柱31与多个第二键合柱22对应设置,每个第一键合柱31与对应的第二键合柱22连接,以使存储晶圆30连接接口逻辑单元20。接口逻辑单元20通过多个凸点(bump)21连接封装基板10,封装基板10通过多个引线端口11连接中央处理器。
43.当中央处理器对llc芯片1输出读写指令时,存储晶圆30依次通过接口逻辑单元20和封装基板10连接中央处理器,使得中央处理器对存储晶圆30进行读写操作。
44.本实施例llc芯片1三维集成存储晶圆30与接口逻辑单元20,通过多个第一键合柱31与多个第二键合柱22对应设置的方式连接存储晶圆30与接口逻辑单元20,进而通过多个分布式的接口提高信号传输带宽。
45.可选地,本实施例中通过第一键合柱31与第二键合柱22之间的键合设置为实现存储晶圆30与接口逻辑单元20连接的方式之一,在其它实施例中,存储晶圆30与接口逻辑单元20还可通过tsv(through silicon via)、rdl(redistribution layer)或bump的方式进行连接。
46.结合图1-2,进一步参阅图3,图3是图1中接口逻辑单元一实施例的结构示意图。如图3所示,接口逻辑单元20包括片上网络23、控制器24和寄存器25。
47.中央处理器(cpu)2通过接口40连接接口逻辑单元20。其中,中央处理器2集成有l1级缓存201以及l2级缓存202,以构成处理组件200,处理组件200通过接口40进一步连接llc芯片1,即连接l3级缓存。在另一实施例中,中央处理器2中集成的l2级缓存202可以被省略。
48.可选地,接口40可为现有的llc逻辑接口。具体地,在本实施例中,接口40可由接口逻辑单元20的多个凸点21、封装基板10以及封装基板10的多个引线端口11组成。
49.片上网络23的一端连接接口40,片上网络23的另一端连接控制器24的一端,控制器24的另一端连接寄存器25的一端,寄存器25的另一端连接存储晶圆30。
50.其中,接口40用于连接中央处理器2与片上网络23,以使接口逻辑单元20根据中央处理器2的输入信息寻片上网络23对应的节点,进而驱动该节点对应的控制器24;控制器24用于访问存储晶圆30;寄存器25用于进行数据缓冲。
51.具体地,寄存器25通过多个端口与存储晶圆30连接,用于数据缓冲。
52.当处理组件200的中央处理器2对llc芯片1输出读写指令时,中央处理器2依次通过l1级缓存201、l2级缓存202、接口40、片上网络23、控制器24以及寄存器25对存储晶圆30进行读写操作。在一实施例中,
所述读写操作行为符合缓存一致性协议,如mesi协议等。
53.其中,在本实施例中,存储晶圆30为dram(动态随机存取存储器,dynamic random access memory)晶圆,dram晶圆包括至少一个dram阵列32,接口逻辑单元20连接至少一个dram阵列32,以使中央处理器2进行读写操作。
54.其中,dram为易失性存储器,区别于非易失性存储器,dram能够更快速的进行数据访问,且数据访问延迟更低。
55.本实施例llc芯片1使用易失性存储器的dram晶圆作为存储晶圆30,提高数据访问速度,进一步提高中央处理器2对llc芯片1进行读写操作的速度。同时,本实施例llc芯片1设置与存储晶圆30和控制器24连接的寄存器25,降低数据频繁切换所造成的性能损失。
56.结合图1-3,进一步参阅图4,图4是图1中接口逻辑单元另一实施例的结构示意图。如图4所示,区别于上述实施例,本实施例接口逻辑单元20包括多个控制器24以及多个寄存器25。
57.片上网络23连接多个控制器24,每一个控制器24通过一个寄存器25连接存储晶圆30。
58.可选地,片上网络23包括多个相互连接的路由器,以形成多个节点,每个节点连接单个控制器24,中央处理器2通过访问路由器的地址即可访问对应该路由器的控制器24,以进行数据的读写操作。
59.即中央处理器2通过接口逻辑单元20输入地址,接口逻辑单元20根据地址,驱动与地址对应的节点连接的控制器24,以使中央处理器2对存储晶圆30进行读写操作。
60.其中,在本实施例中,中央处理器2可为两个,两个中央处理器2各自集成有l1级缓存201,两个中央处理器2共同使用l2级缓存202。其中,两个中央处理器2、两个l1级缓存201与共同使用的l2级缓存202构成处理组件200,处理组件200通过接口40连接llc芯片1。
61.其中,处理组件200可通过非共享独立存储访问或共享存储访问对llc芯片1进行读写操作。
62.具体地,存储晶圆30包括至少一个存储空间,处理组件200中的两个中央处理器2分别对应不同的存储空间,处理组件200通过对特定存储空间进行读写操作,以使特定的中央处理器2进行存储访问。
63.当llc芯片1接收两个中央处理器2中的至少一个中央处理器2发出的读写指令时,多个中央处理器2中的至少一个中央处理器2通过接口逻辑单元20对与其对应设置的dram阵列32进行读写操作,即对特定存储空间进行读写操作。
64.可选地,两个中央处理器2可同时或单独对存储晶圆30进行读写操作,即实现llc芯片1的非共享模式缓存数据。
65.可选地,在其它实施例中,llc芯片1还可以通过共享模式进行数据缓存。具体地,处理组件200中的任一中央处理器2可通过片上网络23对存储晶圆30中的任一dram阵列32进行读写操作,即对存储晶圆30的任一存储空间进行读写操作。当中央处理器2对dram阵列32进行读写操作时,下一待运行的中央处理2无论是要对当前中央处理器2执行读写操作的dram阵列32进一步进行读写操作,或对另一dram阵列32进行读写操作,都需等当前的中央处理器2完成对应读写操作,方可访问待执行的目标dram阵列32,以执行读写操作。
66.本实施例llc芯片1通过片上网络23连接多个控制器24,通过地址对应控制器24的方式,实现快速寻目标控制器24,进而实现大规模高速计算。同时,本实施例llc芯片1通过非共享模式或共享模式进行数据缓存,以使中央处理器2对目标对象dram阵列32进行读写操作,提高中央处理器2访问数据的效率。
67.结合图1-4,进一步参阅图5,图5是本技术llc芯片另一实施例的结构示意图。如图5所示,区别于上述实施例,本实施例可包括多个中央处理器2,其中至少两个中央处理器2共同使用l2级缓存202,构成处理组件200,多个处理组件200通过接口40连接llc芯片1。
68.具体地,每个处理组件200的访问量或访问速度不同,其所需的存储空间不同,即所需的dram阵列32数量不同。因此,多个处理组件200可根据需求对应连接不同数量的dram阵列32,作为自身对应的存储空间。
69.可选地,dram阵列32具有一定数量的行和列,对dram阵列32的划分可为将具有预设数量的行和列作为个体dram阵列32,不同处理组件200对应不同数量的个体dram阵列32。
70.或,按不同处理组件200的存储空间需求的比例,对dram阵列32的行数进行划分,每一处理组件200包含对应行数的dram阵列32。
71.或,按不同处理组件200的存储空间需求的比例,对dram阵列32的列数进行划分,每一处理组件200包含对应列数的dram阵列32。
72.可选地,在另一实施例中,处理组件200中只包含一个中央处理器2、一个l1级缓存201和一个l2级缓存202。
73.结合图1-5,进一步参阅图6,图6是本技术llc芯片又一实施例的结构示意图。如图6所示,区别于上述实施例,至少一个中央处理器2共同使用l2级缓存202,构成处理组件200,至少一个处理组件200分别通过独立对应的接口40连接llc芯片1中的控制器24、寄存器25通路,对独立对应的dram阵列32进行非共享独立存储访问。
74.具体地,llc芯片1上包含多个接口40,每个接口40对应一个ddr存储阵列访问通道,分别通过独立的控制器24、独立的寄存器25,对应并独立访问,非共享的,存储阵列32。
75.控制器24中包含,dram阵列32的存储访问控制器(图未示),用于建立对对应dram
阵列32的存储访问;缓存一致性协议控制器(图未示),用于通过片上网络23,访问ddr控制器26,进而实现对ddr存储器50(主内存)的读写操作。
76.多个控制器24中的缓存一致性协议控制器,还借助片上网络23实现相互通讯,用于实现至少部分构成处理组件200之间的数据交换,以克服非共享存储结构中,多个中央处理器2之间的数据同步,完善缓存一致性协议的功能。
77.非共享存储结构中,每个处理组件200都能独立实现对大容量高带宽的llc存储空间读写,可以为每个处理组件200设计独立的缓存行(cache line),以增加缓存交换效率;还可以增加部分或全部处理组件200的缓存行位宽,以充分利用三维集成存键合的存储晶圆30的超大带宽优势。
78.可选地,可以设计多组ddr控制器26与片上网络23互连,用于形成多个ddr通道,分别控制多组ddr存储器50。
79.可选地,多个dram阵列32排布方式可如图7所示,图7是本技术dram阵列排布方式的结构示意图。
80.具体地,如图7(a)所示,多个dram阵列32可以分布在同一个存储晶圆30的不同区域。
81.如图7(b)所示,多个dram阵列32也可以分布在多个存储晶圆30上,每个存储晶圆30为一层存储晶圆层,多个dram阵列32分别对应分布于多个存储晶圆层。
82.如图7(c)所示,多个dram阵列32也可以分布在多个存储晶圆30上,本示意图以两个存储晶圆30为例,两个存储晶圆30在平行于存储晶圆30的平面上的投影存在部分重叠区域,则dram阵列32分布于该部分重叠区域。当存在多个存储晶圆30时,不同的存储晶圆30之间在平行于存储晶圆30的平面上的投影存在不同的部分重叠区域,则多个dram阵列32分别对应不同的存储晶圆30投影的部分重叠区域。
83.存储晶圆30上包含dram阵列32,所形成的存储容量(几百m到几十g),较现有技术(十几m)提高2~4个数量级,足以为每组处理组件200提供独立的非共享llc存储空间,存储容量仍远大于现有技术,大大增加llc命中率,降低对主内存的存储访问频率。
84.存储晶圆30上包含dram阵列32,通过三维集成键合,连接llc芯片1,互连密度极大(1微米间距,每平方毫米百万量级连接点),可以在存储晶圆30和llc芯片1之间建立极大的总线位宽(几千到几十万),较现有技术(64位)提高提高2~4个数量级,拆分存储晶圆30和llc芯片1之间建立极大的总线位宽,为至少部分或全部处理组件200提供独立的非共享llc存储访问通道,访存带宽仍远大于现有技术。
85.非共享存储结构中,每个处理组件200都能独立实现对大容量高带宽的llc存储空间读写,摆脱了共享存储llc结构中,控制器24的总线的束缚,不用建立相互等待分时访问机制,不仅简化了控制器24的设计难度,更实现了处理组件200对大容量高带宽的llc存储空间的并发读写,充分释放了三维集成键合的存储晶圆30的超大带宽优势。
86.结合图1-7,进一步参阅图8,图8是本技术llc芯片再一实施例的结构示意图。如图8所示,区别于上述实施例,llc芯片1包括多个存储晶圆30。可选地,存储晶圆30的数量可为2、3、4等等。
87.其中,多个存储晶圆30依次堆叠设置于接口逻辑单元20上,多个存储晶圆30中相邻的两个存储晶圆30通过键合的方式进行连接。
88.可选地,本实施例llc芯片1的多个存储晶圆30均包含dram阵列32,在本实施例中,当中央处理器2采用非共享模式缓存数据时,多个中央处理器2可根据需求对存储空间的划分的具体操作,可为将单个存储晶圆30的dram阵列32作为个体dram阵列32,不同中央处理器2对应不同数量的个体dram阵列32,即不同中央处理器2对应不同数量的存储晶圆30。
89.可选地,在其它实施例中,当中央处理器2采用非共享模式缓存数据时,多个中央处理器2可根据需求对存储空间的划分的具体操作,可为将多个层叠存储晶圆30构成的存储晶圆阵列中,不同存储晶圆30的投影部分重叠的部分区域,作为个体dram阵列32,不同中央处理器2对应不同容量的个体dram阵列32,即不同中央处理器2对应存储晶圆阵列中,不同面积的投影部分重叠的部分区域。
90.可选地,在其它实施例中,当中央处理器2采用共享模式缓存数据时,多个中央处理器2无需对存储空间进行划分,可直接根据地址访问对应的dram阵列32。
91.本实施例llc芯片1通过多个存储晶圆30依次堆叠,提高llc芯片1的数据容量,并通过多个存储晶圆30之间键合的连接方式,提高数据访问的速率,实现大容量、高宽带的数据缓存。
92.本技术通过三维集成存储晶圆30与接口逻辑单元20,通过多个第一键合柱31与多个第二键合柱22对应设置的方式连接存储晶圆30与接口逻辑单元20,进而通过多个分布式的接口提高信号传输带宽。
93.其次,本技术使用易失性存储器的dram晶圆作为存储晶圆30,提高数据访问的带宽和速度,进一步提高中央处理器2对llc芯片1进行读写操作的速度。同时,本技术通过非共享模式进行数据缓存,以使中央处理器2对目标对象dram阵列32进行读写操作,提高中央处理器2访问数据的效率。
94.再次,本技术通过多个存储晶圆30依次堆叠,提高llc芯片1的数据容量,并通过多个存储晶圆30之间键合的连接方式,提高数据访问的速率,实现大容量、高宽带的数据缓存。
95.本技术还提供一种llc芯片进行读写操作的方法,其流程示意图如图9所示。请结合图1-8,参阅图9,图9是本技术llc芯片进行读写操作的流程示意图。具体而言,本实施例的llc芯片进行读写操作的方法可以包括以下步骤:
96.步骤s11:接收中央处理器输入信息。
97.其中,llc芯片1接收中央处理器2通过多个引线端口11输入的信息。具体地,输入信息包括读写指令以及地址信息。当读写指令具体为写指令时,输入信号还包括待存储的数据信息。
98.步骤s12:根据输入信息,驱动对应的控制器。
99.其中,输入信息依次通过封装基板10的多个引线端口11、封装基板10以及多个凸点21传输至接口逻辑单元20,接口逻辑单元20根据输入信息所包含的地址信息寻片上网络23中与地址信息对应的节点,进而驱动与该节点连接的控制器24;并且,输入信息中的数据信息通过控制器24暂存于寄存器25内。
100.步骤s13:访问dram阵列,以进行读写操作。
101.其中,当寄存器25的存储空间存储满时,中央处理器2进一步访问存储晶圆30,通过寄存器25将临时保存的数据通过端口传输至存储晶圆30所包含的dram阵列32,以进行读
写操作。
102.当输入信息包含读指令时,中央处理器2通过控制器24和寄存器25读取存储于与中央处理器2对应的dram阵列32中的数据信息,该数据信息预存于寄存器25。当寄存器25的存储空间存储满时,寄存器25进一步将数据信息通过控制器24以及片上网络23传输至中央处理器2。
103.本技术还提供一种缓存系统,请参阅图10,图10是是本技术缓存系统的结构示意图。如图10所示,缓存系统50包括llc芯片51以及多个处理组件52。其中,该llc芯片51为上述实施例所揭示的llc芯片1,处理组件52为上述实施例所揭示的处理组件200,在此不再赘述。
104.多个处理组件52分别连接llc芯片51,以对llc芯片51进行读写操作。具体地,多个处理组件52可单独对llc芯片51进行读写操作,或多个处理组件52同时对llc芯片51进行读写操作,或多个处理组件52中的至少两个同时对llc芯片51进行读写操作。
105.可选地,缓存系统50根据多个处理组件52的访问量或访问速度划分存储晶圆30的存储空间,以使每个处理组件52对对应的存储空间进行读写操作。其中,具体的划分方法如上,在此不再赘述。
106.可选地,在另一实施例中,多个处理组件52,被封装在同一个器件内。
107.以上仅为本技术的实施例,并非因此限制本技术的专利范围,凡是利用本技术说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本技术的专利保护范围内。
技术特征:
1.一种llc芯片,其特征在于,所述llc芯片包括存储晶圆、接口逻辑单元和封装基板,所述接口逻辑单元与所述存储晶圆依次设置于所述封装基板上,所述存储晶圆与所述接口逻辑单元通过三维集成,以形成所述llc芯片,多个处理组件连接所述接口逻辑单元,以通过所述接口逻辑单元对所述存储晶圆进行读写操作;所述存储晶圆包括至少一个存储空间,多个所述处理组件对特定所述存储空间或任一所述存储空间进行读写操作,以实现非共享独立存储访问或共享存储访问;其中,所述存储晶圆的存储空间根据多个所述处理组件的访问量或访问速度划分。2.根据权利要求1所述的llc芯片,其特征在于,所述接口逻辑单元包括多个独立的接口、控制器以及寄存器,所述存储晶圆包括多个独立的dram阵列,多个独立的所述接口、所述控制器与所述寄存器形成独立访问多个所述dram阵列的通路,多个所述处理组件分别通过对应的所述接口连接所述通路,以对独立对应的所述dram阵列进行非共享独立存储访问。3.根据权利要求2所述的llc芯片,其特征在于,多个所述处理组件中的至少一个所述处理组件通过所述接口逻辑单元对与其对应设置的所述dram阵列进行读写操作。4.根据权利要求2所述的llc芯片,其特征在于,所述存储晶圆包括至少一个dram晶圆,多个所述dram阵列分布于同一所述dram晶圆的不同区域;或,多个所述dram阵列分布于多个所述存储晶圆,对应多个所述存储晶圆层或多个所述存储晶圆的投影重叠区域。5.根据权利要求4所述的llc芯片,其特征在于,所述存储晶圆的存储空间为dram阵列容量,所述dram阵列容量根据多个所述处理组件的访问量或访问速度进行分配。6.根据权利要求2所述的llc芯片,其特征在于,所述存储晶圆还包括多个第一键合柱,所述接口逻辑单元还包括多个第二键合柱和多个凸点,所述封装基板包括多个引线端口,每个所述第一键合柱与对应的所述第二键合柱连接,以使所述存储晶圆连接所述接口逻辑单元,所述接口逻辑单元通过多个所述凸点连接所述封装基板,所述封装基板通过多个所述引线端口连接多个所述处理组件。7.根据权利要求6所述的llc芯片,其特征在于,所述接口逻辑单元还包括片上网络,所述片上网络的每个节点连接单个所述控制器,所述控制器用于访问所述存储晶圆,所述寄存器的一端连接所述控制器,所述寄存器的另一端连接所述存储晶圆,所述寄存器用于进行数据缓冲;所述处理组件通过所述接口逻辑单元输入地址,所述接口逻辑单元根据所述地址,驱动与所述地址对应的所述节点连接的控制器,以使所述处理组件对所述存储晶圆进行读写操作。8.根据权利要求7所述的llc芯片,其特征在于,所述控制器包括缓存一致性协议控制器,所述llc芯片还包括ddr控制器与ddr存储器,所述缓存一致性协议控制器通过所述片上网络访问所述ddr控制器,以实现对所述ddr存储器的读写操作;其中,多个所述控制器的缓存一致性协议控制器通过所述片上网络相互通讯。9.根据权利要求1所述的llc芯片,其特征在于,所述llc芯片包括多个所述存储晶圆,多个所述存储晶圆依次堆叠设置于所述接口逻辑单元上,多个所述存储晶圆中相邻的两个所述存储晶圆通过键合的方式进行连接。10.一种缓存系统,其特征在于,包括如权利要求1-9任一项所述的llc芯片以及多个处
理组件,每个所述处理组件包括至少两个中央处理器、至少两个l1级缓存与一个l2级缓存,多个所述处理组件连接所述llc芯片,以进行读写操作;所述缓存系统根据多个所述处理组件的访问量或访问速度划分所述存储晶圆的存储空间,以使每个所述中央处理器对对应的所述存储空间进行读写操作;或,多个所述处理组件中的任一所述中央处理器对所述存储晶圆的任一所述存储空间进行读写操作。
技术总结
本申请公开了一种LLC芯片及缓存系统,该LLC芯片包括存储晶圆、接口逻辑单元和封装基板,接口逻辑单元与存储晶圆依次设置于封装基板上,存储晶圆与接口逻辑单元通过三维集成,以形成LLC芯片,多个处理组件连接接口逻辑单元,以通过接口逻辑单元对存储晶圆进行读写操作;存储晶圆包括至少一个存储空间,多个处理组件对特定存储空间或任一存储空间进行读写操作,以实现非共享独立存储访问或共享存储访问;其中,存储晶圆的存储空间根据多个处理组件的访问量或访问速度划分。本申请通过三维集成存储晶圆与接口逻辑单元,进而通过多个分布式的接口提高信号传输带宽,并通过非共享模式或共享模式进行数据缓存,提高处理组件访问数据的效率。据的效率。据的效率。
技术研发人员:
江喜平 周小锋
受保护的技术使用者:
西安紫光国芯半导体有限公司
技术研发日:
2021.09.02
技术公布日:
2022/3/22