CN104583957A - 具有无消歧乱序加载存储队列的重新排序的推测性指令序列 - Google Patents
具有无消歧乱序加载存储队列的重新排序的推测性指令序列 Download PDFInfo
- Publication number
- CN104583957A CN104583957A CN201380043003.7A CN201380043003A CN104583957A CN 104583957 A CN104583957 A CN 104583957A CN 201380043003 A CN201380043003 A CN 201380043003A CN 104583957 A CN104583957 A CN 104583957A
- Authority
- CN
- China
- Prior art keywords
- storage
- load
- queue
- store
- loading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 82
- 238000003860 storage Methods 0.000 claims description 208
- 238000011068 loading method Methods 0.000 claims description 159
- 238000010168 coupling process Methods 0.000 claims description 35
- 238000005859 coupling reaction Methods 0.000 claims description 35
- 230000008878 coupling Effects 0.000 claims description 34
- 230000008707 rearrangement Effects 0.000 claims description 13
- 239000012634 fragment Substances 0.000 description 33
- 230000008569 process Effects 0.000 description 31
- 230000006870 function Effects 0.000 description 19
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012797 qualification Methods 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 230000000977 initiatory effect Effects 0.000 description 5
- 230000014759 maintenance of location Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000033228 biological regulation Effects 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 3
- 230000004087 circulation Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 241001062472 Stokellia anisodon Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/3004—Arrangements for executing specific machine instructions to perform operations on memory
- G06F9/30043—LOAD or STORE instructions; Clear instruction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/30007—Arrangements for executing specific machine instructions to perform operations on data operands
- G06F9/30032—Movement instructions, e.g. MOVE, SHIFT, ROTATE, SHUFFLE
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/3004—Arrangements for executing specific machine instructions to perform operations on memory
- G06F9/30047—Prefetch instructions; cache control instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/3017—Runtime instruction translation, e.g. macros
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30181—Instruction operation extension or modification
- G06F9/30185—Instruction operation extension or modification according to one or more bits in the instruction, e.g. prefix, sub-opcode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3824—Operand accessing
- G06F9/3826—Bypassing or forwarding of data results, e.g. locally between pipeline stages or within a pipeline stage
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3824—Operand accessing
- G06F9/3834—Maintaining memory consistency
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3836—Instruction issuing, e.g. dynamic instruction scheduling or out of order instruction execution
- G06F9/3842—Speculative instruction execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3854—Instruction completion, e.g. retiring, committing or graduating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3854—Instruction completion, e.g. retiring, committing or graduating
- G06F9/3858—Result writeback, i.e. updating the architectural state or memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/38—Concurrent instruction execution, e.g. pipeline or look ahead
- G06F9/3854—Instruction completion, e.g. retiring, committing or graduating
- G06F9/3856—Reordering of instructions, e.g. using queues or age tags
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Advance Control (AREA)
Abstract
在处理器中,一种无消歧乱序加载存储队列方法。该方法包括:实现能够被多个异步核心访问的存储器资源;实现存储退出缓冲器,其中来自存储队列的存储具有按照原始程序顺序的存储退出缓冲器中的条目;以及实现推测性执行,其中能够将推测性执行的结果保存在存储退出/重新排序缓冲器中作为推测性状态。该方法还包括:在分派来自加载队列的后续加载时,在存储退出缓冲器中搜索地址匹配;以及在其中存在多个地址匹配的情况下,通过针对第一匹配扫描存储退出缓冲器来定位正确的转发条目,并且将来自第一匹配的数据转发至后续加载。一旦已知推测性结果,则使推测性状态退出至存储器。
Description
本申请要求2012年6月15日由Mohammad A.Abdallah提交的题为“REORDERED SPECULATIVE INSTRUCTION SEOUENCES WITH ADISAMBIGUATION-FREE OUT OF ORDER LOAD STORE QUEUE”的共同待决共同转让的美国临时专利申请序号61/660,539的权益,并且该申请被整体地并入到本文中。
技术领域
本发明总体涉及数字计算机系统,更具体地涉及用于选择指令(包括指令序列)的系统和方法。
背景技术
要求处理器来处理相关或完全独立的多个任务。此类处理器的内部状态通常由在程序执行的每个特定时刻可能保持不同的值的寄存器组成。在程序执行的每个时刻,将内部状态图像称为处理器的架构状态。
当架构代码执行切换成运行另一功能(例如,另一线程、进程或程序)时,然后必须保存机器/处理器的状态,使得新功能可以利用内部寄存器以构建其新状态。一旦新功能已终止,则可以丢弃其状态,并且先前情境的状态将被恢复且该执行又继续。此类切换过程称为情境切换,并且通常包括10个或数百个循环,尤其是在采用大量寄存器(例如,64、128、256)和/或乱序执行的现代架构的情况下。
在线程感知硬件架构中,硬件支持用于有限数目的硬件支持线程的多个情境状态是正常的。在这种情况下,硬件复制用于每个所支持线程的所有架构状态元素。这消除了在执行新线程时的情境切换的需要。然而,这仍具有多个缺点,即复制用于用硬件中所支持的每个附加线程的所有架构状态元素(即,寄存器)的面积、功率和复杂性。另外,如果软件线程的数目超过明确支持的硬件线程的数目,则仍必须执行情境切换。
这变得常见,因为在要求大量线程的细粒度基础上需要并行性。具有复制情境状态硬件存储的硬件线程感知架构无助于非线程软件代码,并且仅仅减少了用于被线程化的软件的情境切换的次数。然而,那些线程通常是针对粗粒并行性而构造的,并且导致用于发起和同步、离开细粒并行性的沉重软件开销,诸如函数调用和回路并行执行,而没有高效的线程化发起/自动生成。此类所述开销伴随着针对非明确/容易并行化/线程化软件代码而使用现有技术编译程序或用户并行化技术进行此类代码的自动并行化的困难。
发明内容
在一个实施例中,将本发明实现为一种无消歧乱序加载存储队列方法。该方法包括:实现能够被多个异步核心访问的存储器资源;实现存储退出缓冲器,其中来自存储队列的存储具有按照原始程序顺序的存储退出缓冲器中的条目;以及实现推测性执行,其中能够将推测性执行的结果保存在存储退出/重新排序缓冲器中作为推测性状态。该方法还包括:在分派来自加载队列的后续加载时,在存储退出缓冲器中搜索地址匹配;以及在其中存在多个地址匹配的情况下,通过针对第一匹配扫描存储退出缓冲器来定位正确的转发条目,并且将来自第一匹配的数据转发至后续加载。一旦已知推测性结果,则使推测性状态退出至存储器。
前述是概要且因此必要地包含细节的简化、一般化以及省略;因此,本领域的技术人员将认识到的是该概要仅仅是说明性的且并不意图以任何方式是限制性的。单独地由权利要求定义的本发明的其他方面、发明特征以及优点在下面阐述的非限制性详细描述中将变得显而易见。
附图说明
在附图中以示例的方式而不是以限制的方式举例说明本发明,并且在附图中相同的附图标记指示类似元件。
图1示出了根据本发明的一个实施例的加载队列和存储队列。
图2示出了根据本发明的一个实施例的加载和存储指令分离的第一图。
图3示出了根据本发明的一个实施例的加载和存储指令分离的第二图。
图4示出了根据本发明的一个实施例的过程的步骤的流程图,其中图示出用于实现从由加载存储重新排序和优化所引发的推测性转发缺失预测/错误中恢复的规则。
图5示出了图示出根据本发明的一个实施例的用处理器的加载队列和存储队列资源来实现过程300的规则的方式的图。
图6示出了图示出根据本发明的一个实施例的用处理器的加载队列和存储队列资源来实现过程300的规则的方式的另一图。
图7示出了图示出根据本发明的一个实施例的用处理器的加载队列和存储队列资源来实现过程300的规则的方式的另一图。
图8示出了根据本发明的一个实施例的其中在加载之后分派存储的分派功能的概述的过程的流程图。
图9示出了根据本发明的一个实施例的其中在存储之后分派存储的分派功能的概述的过程的流程图。
图10示出了根据本发明的一个实施例的统一加载队列的图。
图11示出了示出根据本发明的一个实施例的滑动加载分派窗口的统一加载队列。
图12示出了根据本发明的一个实施例的分布式加载队列。
图13示出了根据本发明的一个实施例的具有按序连续性的分布式加载队列。
图14示出了根据本发明的一个实施例的用于多核处理器的分段存储器子系统的图。
图15示出了如何通过本发明的实施例来处理加载和存储的图。
图16示出了根据本发明的一个实施例的存储过滤算法的图。
图17示出了根据本发明的一个实施例的在组成按序从存储器进行读取的加载的存储器一致性模型中具有乱序加载的信号量实现方式。
图18示出了根据本发明的一个实施例的到通过使用基于锁的模型和基于事务的模型两者而组成按序的用于存储器的加载读取的存储器一致性模型中的乱序加载。
图19示出了根据本发明的一个实施例的多核分段存储器子系统的多个核心。
图20示出了根据本发明的一个实施例的访问统一存储队列的异步核心的图,其中存储可以基于存储资历而从任一线程获得。
图21示出了描绘根据本发明的一个实施例的其中存储相比于其他线程中的对应存储而言具有资历的功能的图。
图22示出了根据本发明的一个实施例的非消歧乱序加载存储队列退出实现方式。
图23示出了根据本发明的一个实施例的非消歧乱序加载存储队列重新排序实现方式的重新排序实现方式。
图24示出了根据本发明的一个实施例的指令序列(例如,踪迹)重新排序的推测性执行实现方式。
图25示出了根据本发明的一个实施例的示例性微处理器管线的图。
具体实施方式
虽然已结合一个实施例描述了本发明,但本发明并不意图局限于本文中所阐述的特定形式。相反地,其意图涵盖可以适当地包括在由所附权利要求定义的本发明的范围内的此类替换、修改以及等同物。
在以下详细描述中,已阐述了许多特定细节,诸如特定方法顺序、结构、元件以及连接。然而应理解的是不需要利用这些及其他特定细节来实施本发明的实施例。在其他情况下,已省略众所周知的结构、元件或连接或未特别详细地描述以避免不必要地使本描述含糊。
在本说明书内对“一个实施例”或“实施例”的引用意图指示在本发明的至少一个实施例中包括结合该实施例所述的特定特征、结构或特性。短语“在一个实施例中”在本说明书内的各种位置上的出现并不一定全部参考同一实施例,也不是其他实施例的互斥的单独或替换实施例。此外,描述了某些实施例可展示出而其他的没有的各种特征。同样地,描述了对于某些实施例而言可能是要求但其他实施例并非如此的各种要求。
随后的详细描述的某些部分是在对计算机存储器内的数据位的操作的程序、步骤、逻辑块、处理及其他符号表示方面提出的。这些算法描述和表示是数据处理领域的技术人员用来最有效地向本领域的其他人传达其工作的实质的手段。程序、计算机执行步骤、逻辑块、过程等在这里且一般地被设想为是导致期望结果的步骤或指令的自相一致序列。该步骤是要求物理量的物理操作的那些。通常但不一定,这些量采取计算机可读存储介质的电或磁信号的形式,并且能够在计算机系统中被存储、传输、组合、比较以及操纵。主要由于一般使用的原因,已证明将这些信号称为位、值、元素、符号、字符、项、数字等有时是方便的。
然而,应记住的是所有这些和类似术语将与适当的物理量相关联且仅仅是应用于这些量的方便标记。如从以下讨论显而易见的那样,除非另外具体地说,应认识到的是遍及本发明,利用诸如“处理”或“访问”或“写”或“存储”或“复制”等等术语的讨论指的是计算机系统或类似电子计算设备的动作或过程,其对在计算机系统的寄存器和存储器及其他计算机可读介质内表示为物理(例如,电子)量的数据进行操纵并变换成在计算机系统存储器或寄存器或其他此类信息存储、传输或显示设备内同样地表示为物理量的其他数据。
本发明的实施例实现了乱序指令调度过程,其中允许输入指令序列内的指令在处理器资源可用于执行它们时就立即乱序发出。本发明的实施例能够确保外部代理见到指令按序执行(例如,存储器一致性规则/模型)。确保指令对外部代理可见地按序执行,从而确保无错误程序执行。本发明的实施例确保处理器的存储器分级结构(例如,L1高速缓存、L2高速缓存、系统存储器等)见到指令的一致按序执行。
图1示出了根据本发明的一个实施例的加载队列和存储队列。图1还示出了输入指令序列。如上所述,处理器的存储器分级结构(例如,L1高速缓存、L2高速缓存、系统存储器等)见到指令的一致性按序执行。其后常常称为加载/存储队列的加载队列和存储队列可以用来保持按序执行的语义。
另外,加载和存储的乱序执行引发推测性执行。当执行推测性执行时,机器需要识别推测性错误。在图1的实施例中,加载/存储队列提供了一种用于实现从由加载存储重新排序和优化引发的推测性转发或缺失预测/错误中恢复的系统。加载/存储队列包括允许从作为转发、分支和错误的结果而由加载存储重新排序/优化引发的推测性错误中恢复的硬件支持。为了允许机器从推测性错误中恢复,将推测性执行的结果保持在加载队列和存储队列中。加载队列和存储队列保持推测性执行的结果直至可以修正错误且可以使存储结果退出(retire)至存储器为止。加载队列和存储队列的推测性执行内容对于外部代理而言是不可见的。相对于可见性,存储需要按序退出至存储器。
图2示出了根据本发明的一个实施例的加载和存储指令分离的第一图。本发明的一个特征是这样的事实,即加载被分离成两个宏指令,第一个进行地址计算并取读到临时位置(加载存储队列),并且第二个是存储器地址内容(数据)到寄存器或ALU目的地的加载。应注意的是虽然在将加载和存储指令分离成两个相应宏指令并将其重新排序的情境内描述了本发明的实施例,但可以通过在微代码情境内将加载和存储指令分离成两个相应微指令并将其重新排序来实现该方法和系统。
该功能对于存储而言是相同的。存储也被分离成两个宏指令。第一指令是存储地址和取读,第二指令是该地址处的数据的存储。存储和两个指令的分离遵循与下面针对加载所述的相同规则。
加载到两个指令的分离允许运行时间优化器在给定指令序列内早得多地调度地址计算和取读指令。这允许通过将数据预取读到与高速缓存分级结构分离的临时缓冲器中而更容易地从存储器缺失恢复。使用临时缓冲器以便保证关于LA/SA和LD/SD之间的一一对应的经预取读的数据的可用性。如果存在与处于加载地址与加载数据之间的窗口中的在先存储的别名使用(例如,如果从先前的存储检测到转发情况)或者如果地址计算存在任何错误问题(例如,页面错误),则对应的加载数据指令可以重新发出。另外,将加载分离成两个指令还可以包括将信息复制到两个指令中。此类信息可以是地址信息、源信息、其他附加标识符等。此复制允许在不存在LA/SA的情况下进行两个指令的LD/SD的独立分派。
加载地址和取读指令可以在不等待加载数据返回的情况下从实际机器退出窗口退出,由此甚至在高速缓存缺失该地址(例如,在段落开头处提到的加载地址)的情况下允许机器向前进行。例如,在高速缓存缺失该地址(例如,地址X)时,机器可能停顿达几百个循环等待从存储器分级结构取读数据。通过在不等待加载数据返回的情况下使加载地址和取读指令从实际机器退出窗口退出,机器仍可以向前进行。
应注意的是指令的分离使得本发明的实施例的关键优点能够将LA/SA指令重新排序得早于且更加远离LD/SD指令序列以使得能够实现加载和存储的较早分派和执行。
图3示出了根据本发明的一个实施例的加载和存储指令分离的第二图。图2实施例示出了如何使用复制特征以便规定加载指令的分离。在本实施例中,将加载复制成两个宏指令,第一个是地址计算和取读到临时位置(加载存储队列)中,并且第二个是存储器地址内容(数据)到寄存器或ALU目的地中的加载。应注意的是虽然在将加载和存储指令复制成两个相应宏指令并将其重新排序的情境下描述本发明的实施例,但可以通过在微代码情境下将加载和存储指令复制成两个相应微指令并将其重新排序来实现该方法和系统。
现在描述根据本发明的一个实施例的指令分离功能的更详细描述。在一个实施例中,指令集不具有到LA、SA、LD或SD的直接模拟指令。在此类实施例中,用指令前缀LAF、SAF、LASAF和伴随后缀指令的组合来实现这些概念。并且粗略地确实映射到LA上的指令集具有LAD且SA具有SAD,并且可以实现组合LADSAD。还可以将这些概念实现为微代码内的微指令。
a)可以将在这里被定义为LAF—前缀+后缀指令的描述为‘LD’。
b)可以将在这里被定义为SAF—前缀+后缀指令的描述为‘SD’。
c)可以将在这里被定义为LAD指令的描述为‘LA’。
d)可以将在这里被定义为SAD指令的描述为‘SA’。
e)此外,我们具有LASAF指令和LADSAD指令。这些指令包括可以用来实现信号量(锁定原子)操作的组合LAF/SAF—前缀+后缀指令。还可能定义组合LAD—SAD指令以再次地预取读存储器操作数,结果产生硬件的复杂化。
LAD代表‘LA-去融合’
LAD指令发起到执行管线中的数据预取读。其与正常预取读的不同之处在于其直接地加载到执行管线中,可承担比一级高速缓存更低的执行时延。在一个实施例中,通过将固定储存装置用于可以使用在LA—LD对之间的ID链路(例如QID数)来标记的LA—LD对来实现此功能。LAD指令计算有效存储器地址(例如,来自潜在复杂规范),指定操作数大小(字节、半字、字、双字或更大);发起存储器引用;通过TLB和高速缓存分级结构。记录例外(翻页缺失、特权、保护)以在LAF+后缀执行时报告,或者替换实现方式可以使Q条目取消/无效,迫使LAF+后缀指令重新执行,并且其将出现例外。
LAD指令具有一般格式和操作数:
LAD(os) QID,M[EA]
·EA—是有效地址规范,其可以是基础寄存器、索引寄存器、移位因数和/或索引偏移的组合。例如M[B,RI,sf,offset]
·os—是要读取的字节数的指示
·QID—将被用于存储器引用操作的加载存储器QID。其还用来链接LAD的操作和后续LAF前缀的指令。QID在1至N范围内,N是实现特定值。期望值是31、63、127。QID=0被预留给不具有前LAD的LAF指令的特殊情况。QID=0始终立即被LAF使用,因为其不可用于LAD。
LAF代表‘LA-融合’。
LAF是指令前缀,意味着其必须与后缀指令直接耦合(或融合)。后缀指令可以是独立的。后缀指令可以是具有至少一个源寄存器的任何指令。作为前缀的LAF必须被耦合。LAF前缀改变后缀指令的性质。其寄存器操作数中的一个或多个被前缀重新定义为存储器队列标识符(QID)。此外,被关联为源自于寄存器的数据现在源自于存储器队列。
LAF-前缀+后缀指令可具有也可不具有前LAD指令。如果QID==0,则LAF没有前LAD。如果QID!=0,则LAF具有或曾具有前LAD。当意图创建加载指令到LA和LD的分离时,则LAF将具有QID!=0且将用在LAF前面的同一QID将LAD实例化(例如,这基本上创建LA/LD对)。
当LAF/后缀执行且具有QID==0时,使用存储器队列的0条目来完成‘LA’操作、存储器读、将数据升级到存储器队列,并且然后通过将数据加载到后缀指令源来完成,将所应用的操作与潜在其他源组合,并将结果写入一个或多个后缀指令目的地寄存器。另一方面,如果QID!=0,则针对匹配QID查阅存储器队列(查找),如果存在的话,则从存储器队列读取数据,并且应用后缀指令的操作,并将结果写入目的地寄存器。如果匹配QID是有效但不完整的,则数据停顿直至数据可用为止。如果QID是无效的,则LAF具有足够的信息(地址和数据操作操作数大小)以重新开始该操作。匹配的QID可能由于多种原因而不存在,其中的某些是:
a)前LAD从未执行、坏编码或其他原因。
b)LAF与前LAD之间的执行流程被例外或中断所打断
c)居间的存储操作与LAD的地址别名使用且使其数据完整性无效。
在这些情况中的任何一个中,LAF前缀+后缀具有足以重复LAD(LA)操作的信息。这种能力使得我们的LAD指令成为暗示。LAD不必成功地执行或者在这方面甚至超过作为用于正确代码的NOP以使用它之外而实现。
具有后缀指令的LAF指令的一般格式和操作数是:
LAF M[ea]
SUFFIX(os) Rt,QID,….
LAF指令借用是操作数大小、QID,并且来自后缀指令的编码。如果后缀是SIMD,则其还从后缀借用操作的SIMD宽度。始终在后缀指令的源寄存器规范字段中的一个中对QID进行编码。在SMI的特定实现方式中,这始终是位23:18,但情况不必如此。
SAD代表‘SA-去融合’
SAD是到仅用于存储的LAD的并行指令。其也预取读数据,将数据送到高速缓存以用于修改。此外,其创建存储器存储队列条目。主要SAD具有2个主要用途:
a)作为预取读,读取以用于数据的修改
b)保持正确的存储器排序并暴露并处理在存储(写)之前促进加载(读)之后的潜在读后写危险
SAD是暗示指令。SAD指令计算有效存储器地址(潜在地来自复杂规范),指定凑作数大小(字节、半字、字、双字等);发起存储器引用;通过TLB、高速缓存/存储器分级结构。在SAF+后缀执行时记录例外(翻页缺失、特权、保护)以重新执行且其出现例外。
SAD指令具有一般格式和操作数:
SAD(os) M[ea],QID
·Ea—是有效地址规范,其可以是基础寄存器、索引寄存器、移位因数和/或索引偏移的组合。例如M[B,RI,sf,offset]
·Os—是要写入Ea的字节数的指示
·QID—将被用于存储器引用操作的存储存储器QID。其还用来链接SAD的操作和后续SAF前缀指令。QID在1至N范围内,N是实现特定值。期望值是31、63、127。QID=0被预留给不具有前SAD的SAF指令的特殊情况。此QID始终立即被SAF使用。
SAF代表‘SA-融合’
SAF是LAF前缀的并行前缀,仅用于存储。作为前缀,其必须与后缀指令直接地耦合(或融合)。后缀指令可以是独立的。后缀指令可以是具有至少一个目标寄存器的任何指令。作为前缀的SAF耦必须被合。SAF改变后缀指令的性质:目的地寄存器操作数中的一个或多个,其正常地是到存储器存储队列标识符(QID)中的寄存器选择索引,并且操作从以寄存器为目标到以存储器(更确切地存储器队列条目)为目标。同样地,其将寄存器操作变成存储存储器操作。
SAF指令可具有也可不具有前SAD。如果QID==0,则SAF没有前SAD。如果QID!=0,则SAF具有或曾具有前SAD。当SAF/后缀执行时,如果QID==0,则使用存储器队列的0条目来完成‘SA’操作,存储器写,将数据升级到存储器队列,并且然后通过存储由后缀指令源供应的数据来完成。另一方面,如果QID!=0,则针对匹配QID查阅存储器队列(查找),如果存在的话,数据将在应用后缀指令时被写入存储器队列条目。如果匹配QID是有效但不完整的,则数据停顿直至数据可用为止。如果QID是无效的,则SAF具有足够的信息(地址和数据操作操作数大小)以又继续该操作并完成存储器写操作。。匹配QID可能由于多种原因而不存在,其中的某些是:
a)前SAD从未执行、坏编码或其他原因。
b)SAF与前SAD之间的执行流程被例外或中断所打断
在这些情况中的任何一个中,SAF前缀+后缀具有足以重复SAD(SA)操作的信息。这种能力使得我们的SAD指令称为暗示。SAD不必成功地执行或者在这方面甚至超过作为用于正确代码的NOP以使用它之外而实现。
LASAF是指令前缀
作为前缀的LASAF修改与源和目的地具有相同寄存器的指令。LASAF将此类指令变成原子存储器引用读/写一次操作。使用来自加载存储器队列的一个和来自存储存储器队列的一个。不存在前LAD或SAD指令。
LASAF M[ea3]
ADD QID1,QID2,R1
LASAF创建加载和存储存储器队列两者中的QID条目。并且其将使用QID2来读取存储器[ea3],添加R1并将结果存储在存储存储器QID1中,实行M[ea3]的原子读修改写。
SMI实现(如果我们将实现它)将要求QID1==QID2==0。但是我们不想只局限于该实现方式。
我们可以具有LASAD指令,认为是这样,但我们必须始终向存储器队列中进行嗅探以完成它。使命中的嗅探上的两个条目都无效。并且在LASAF上重新执行加载/存储。
示例性使用:
A.远远在数据的使用之前在促进加载之后保存寄存器资源。
假设原始代码为
LDR R1,M[ea1]
ADD32 Rt,R1,R2
为了隐藏存储器访问时延,我们希望在执行流程中在R1数据(ADD)的使用之上尽快地促进LDR。
LDR R1,M[ea1]
...许多指令
ADD32 Rt,R1,R2
这样做的一个负面效应是其保持R1寄存器‘忙碌’等待数据,并且其不能被用于其他目的。存储器队列扩展资源池以保持数据。因此我们将LDR转换成LAD和后续LAD:
LAD QID,M[ea1]
...许多指令
LAF M[ea1]
ADD32 Rt,QID,R2
由于加载队列条目QID被使用,R1被自由地用于其他目的。
或者加载具有Rt-QID的差的Rt,或者如果QID不存在,则从M[ea1]重新加载数据,从其减去R2,并将结果放置在Rt中。
应足以的是用上述实现方式,不需要存储器地址计算在2个加载之间匹配。如果两个地址计算不同且QID仍是有效的,则很有可能存在不好的程序员。OS(在我们的示例32中)也不必在LAD与LAF之间匹配。比所需更多的数据可被LAD读取,在这种情况下,将使用数据读取的最低有效字节。或者LAF+后缀可能需要比LAD读更多的数据,在这种情况下将使用由LAD读取的最低有效字节,后面是0直至后缀操作足够为止。此外,地址计算操作数不必在LAD与LAF之间匹配,虽然为了有良好的编码,其应获得相同的结果产生的有效地址。
B.通过使正常ALU寄存器—寄存器操作变成ALU寄存器存储器操作,节省执行循环。
在这里,我们正在使用特殊QID=0(%0)仅仅是为了将正常寄存器—寄存器ADD指令变成存储器引用。由于LAF是前缀且必须直接耦合到ADD,所以在中间不存在指令。QID=0始终可供使用,因为其立即被使用。
LAF M[ea1]
ADD32 Rt,%qO,R2
LAF有效地将以上指令变成
ADD32 Rt,M[eal],R2
我们还可以使用SAF来将ALU寄存器—寄存器操作变体成将ALU操作的结果存储到存储器中的操作。
SAF M[ea1]
ADD %qO,R2,R3
将把将R2和R3相加的结果在地址ea1处存储到存储器中。
C.促进存储之上加载时,保持顺序语义
另一问题是我们想要促进存储(STR)之上加载(LDR),其可以也可不与加载的地址别名使用。别名:ea1的某些或所有数据地址与ea2相同.
STR M[ea2]
LDR R1,M[ea1]
ADD32 Rt,R1,R2
变成
LDR R1,M[ea2]
0至许多指令
STR M[ea2],R3
0至许多指令
ADD32 Rt,Rl,R2
为了安全地完成此操作(生成正确代码),我们需要工具以完成此操作。在这里,我们使用LAD和SAD指令两者及其相应的LAF和SAF前缀+后缀指令,并且能够保持执行顺序且生成正确的代码。
LOOP:
SAD M[ea2],R3
0至许多指令
a)
LAD R1,M[ea1]
0至许多指令
b)
SAF M[ea1],R3
0至许多指令
c)
saf-后缀
LAF M[ea1]
d)
BRN回路
在以上代码中,必须促进LAD和SAD两者且其保持相同的排序。可能发生什么?在每个点a、b、c、d处指示替换。
a1)中断,使SAD无效,后续SAF将不许重新执行a2,LAD与SAD别名使用,使SAD无效,或者将相反地不会被插入存储器队列中
b1)中断,使SAD和LAD无效
b2)SAF与LAD别名使用,并且使LAD无效
b3)SAF使用仍有效的SAF或者重新执行,
c1)中断,使LAD无效,
c2)如果仍有效,则LAF使用LAD的数据,否则重新执行。
c3)循环,利用硬件,用IP标记和执行序列ID的组合,并且适当的管理QID、LAD/SAD/LAF/SAF。
在LA/SA和LD/SD的上述描述中,使用LA和SA相对程序顺序位置来强制执行用于转发目的的顺序。在另一实施例中,可以使用LD/SD相对程序顺序位置来强制执行用于转发目的的顺序(例如,如下所述)。
图4示出了根据本发明的一个实施例的其中图示出用于实现从由加载存储重新排序和优化引发的推测性转发缺失预测/错误中恢复的规则的过程400的步骤的流程图。
如步骤401所示,本发明的实施例的目的是在该存储与该加载之间有地址匹配时找到向加载进行转发的存储。在步骤402处,最近的早先存储(例如,按机器顺序)向加载进行转发。
在步骤403中,当按机器顺序来分配LD/SD时,针对LA/SA更新实际年龄。为LA/SA实际年龄指派(assign)以与LD/SD年龄相同的值。LD/SD保持实际年龄并执行原始程序顺序语义。
步骤404—407示出了用于在支持推测性执行的同时保持程序连续语义的规则。步骤404—407被示为被相互水平地布置以指示同时地实现这些规则功能的机制。如步骤404中所示,如果存储具有实际年龄但加载还没有获得实际年龄,则存储早于加载。如步骤405中所示,如果加载具有实际年龄但存储还没有获得实际年龄,则加载早于存储。如在步骤406中所示,如果加载或存储都没有获得实际年龄,则将使用虚拟标识符(VID)来找出哪个较早(例如,在某些实施例中,与加载/存储指令相关联的QID表示VID)。如步骤407中所示,如果加载和存储两者都已经获得实际年龄,则使用实际年龄来找出哪个较早。
应注意的是用来确定加载与存储之间的相对年龄的图4实施例所述的算法还可以用来确定多个存储之间的相对年龄。这在如下面在图4和后续图中所述的更新存储年龄戳时有用。
图5示出了图示出根据本发明的一个实施例的用处理器的加载队列和存储队列资源来实现过程400的规则的方式的图。图5实施例示出了其中指令回路已解开成两个相同指令序列401—402的示例。应注意的是SA和LA可以自由地重新排序,然而,SD和LD必须保持其相对程序顺序。较早的存储可以向较晚的加载进行转发。较早意味着较小的VID(例如,保持在虚拟ID表中)或较小的年龄。如果SA具有VID但没有年龄,则SA比具有年龄的加载晚。LA/SA的实际年龄在LD/SD分配时被更新,并被指派LD/SD的相同年龄。如果存储或加载具有实际年龄,则其与实际年龄相比较,否则使用VID年龄。
应注意的是VID表通过经由存储对应于每个VID唯一标识符的LA/SA对应的机器ID和机器资源来跟踪LA/SA与LD/SD指令之间的关联而运行。还应注意的是术语“VID”与术语“QID”是同义词,如在图2A和图2B的讨论中所描述的。
现在描述图4实施例的操作示例。最初,考虑其中分配指针410最初为3的情况。V3 LA已在加载队列条目#4中分派和分配。V1 SA和V2 SA两者都已分派。它们与V3 LA相比较,并且由于V2 SA小于V3 LA且比V1 SA更接近于V3 LA,所以其潜在地向V3 LA进行转发,并且因此其更新用于V3 LA加载队列条目的存储初始年龄。
分配指针现在移动至6。V2 SA(#5)的存储实际年龄现在更新V3LA加载队列条目(因为V2 SA是已被加戳成向此加载进行转发的记录的存储)。V4 SA现在分派并与加载初始年龄相比较,并且由于V4大于V3LA,所以其并不进行转发。分配指针现在移动至11。在分配V3 LD时,其用V3 LD(#7)的实际年龄来更新加载队列条目#4。现在分派V1 SA#11。由于V3 LA#1现在具有实际年龄但V1 SA#11没有,则加载早于存储,并且因此转发是不可能的。
预测表用于检测其中默认假设不正确的情况。该默认假设是没有存储向加载进行转发。一旦针对加载存储对检测到转发,则记录加载存储对的程序计数器,使得加载将始终等待该存储地址被分配和被计算的地址以找出该加载地址是否与该存储地址匹配且因此需要从其进行转发。
应注意的是在一个实施例中,本文所述的特征促进给定指令序列中的在分支之前或在分支范围内的LA/SA的重新排序,其中,允许LD/SD在不存在LA/SA的情况下进行分派。如果由于分支而跳过LA和SA,或者由于已引发存储器例外情况而将其忽视,则LD和SD仍可以正确地运行,因为其包括分派两次所需的信息:第一次作为LA/SA,并且第二次作为LD/SD。在这种情况下,LD/SD的第一分派是执行地址计算(例如,加载地址)。随后,同一LD/SD可以再次地分派以满足加载或存储(例如,加载数据)的消耗部分。可以将此机制称为加载和存储指令的“双重分派”。
应注意的是在一个实施例中,LD/SD的双重分派在对应的经去融合的LA/SA不存在时发生(例如,如经融合的LD/SD的情况一样),或者如果由于分支而跳过LA/SA,或者其由于已引发存储器例外情况而被忽视等。
上述双重分派功能确保LD/SD不依赖于被丢失、忽视和/或跳过LA/SA而正确地执行。由上述特征提供的益处是由加载/存储指定的数据的预取读可以通过甚至在存在分支、潜在错误、例外情况等情况下较早地调度LA/SA而按照程序顺序较早地开始(例如,减少时延)。
图6示出了图示出根据本发明的另一个实施例的用处理器的加载队列和存储队列资源来实现过程400的规则的方式的另一图。在图6实施例中,考虑其中分配指针最初为3的情况。V3 LA已在加载队列条目#4中分派和分配。分配指针现在移动至6。V1和V2(#4,#5)的存储实际年龄现在用机器ID 2和3来更新对应的SA。V4 SA现在分派并与加载初始年龄相比较,并且由于V4 SA大于V3 LA,所以其并不转发。分配指针现在移动至11。在分配V3 LD时,其用V3 LD(#7)的实际年龄来更新加载队列条目#4。现在分派ID 10的V1 LA。
现在分派机器ID 2的V1 SA和机器ID 3的V2 SA两者。其与ID 10的V1 LA相比较,并且由于ID 10的V1 LA不具有机器年龄(其对应的LD尚未分配),所以虽然机器ID 2的V1 SA和机器ID 3的V2 SA具有实际年龄,然后已知V1和V2存储比V1更早/更旧。然后,这两个存储(V2)中最新的一个可以向ID 10的V1进行转发。现在分派SA(V2)#11。由于V1 LA和V2 SA不具有实际年龄,但其VID被用于比较,并且未检测到转发。分配指针现在移动至16。现在分派ID 16的V4 SA,并且其与ID 10的V1 LA相比较,并且由于V1 LA具有实际年龄但V4 SA不具有,所以V4 SA比V1 LA晚。因此,不可能从此存储向此较早的加载进行转发。
图7示出了图示出根据本发明的另一个个实施例的用处理器的加载队列和存储队列资源来实现过程400的规则的方式的另一图。在图7实施例中,考虑其中分配指针最初为3的情况。在存储队列条目#4和#5中已分派并分配V1 SA和V2 SA。分配指针现在移动至6并分派V4 SA。V1 SA和V2 SA两者都获得其4和5的实际年龄。
分配指针现在移动至11。V3 LA获得7的实际年龄。分派V1 SA#10V2 SA#11。分派V3 LA且其将其地址与存储队列条目相比较,并且找到跨V1 SA、V2 SA和V4 SA和V2 SA#11的匹配。由于V3 LA的实际年龄为7,其将其实际年龄与最接近它的存储年龄相比较,其为5岁,属于V2 SA,并且因此该加载将从第一存储进行转发,并在加载队列中被这样标记。
图8示出了根据本发明的一个实施例的其中在加载之后分派存储的分派功能的概述的过程800的流程图。
过程800在步骤801中开始,其中将存储指令分离成SA和SD。如先前所述,SA指令随SD指令保持语义以在在分离的SA与刚刚分配的SD之间不存在VID表中的匹配的情况下允许双重分派。在步骤802中,将SA重新排序成较早的机器可见程序顺序,并且使用VID表来跟踪SA以留存原始SD程序顺序。在步骤803中,在分派SA时,针对加载队列中的所有加载进行检查针对SA的地址匹配。
在步骤804中,在有地址匹配时,通过使用加载和SA的VID号或者使用加载和存储的实际年龄而比较匹配加载的程序顺序与SA的程序顺序。这是在图3的讨论中较早图示出的过程。如果存储具有实际年龄但加载没有,则存储早于加载。如果加载具有实际年龄但存储没有,则加载早于存储。如果加载或存储任一具有实际年龄,则可以使用虚拟标识符(VID)来找出哪个较早。如果加载和存储两者都具有实际年龄,则使用实际年龄来找出哪个较早。如上所述,VID号允许跟踪原始程序顺序及重新排序的SA和LA。VID表中的条目允许对应的SD和LD在其被分配时变得与指派给SA和LA的机器资源相关联。
在步骤805中,针对按程序顺序较晚的加载,存储将进行检查以查看该加载是否已由其他存储向其进行转发。在步骤806中,如果是这样,则存储检查先前向此加载进行转发的存储的戳以查看该存储是否按照程序顺序比其本身早。在步骤807中,如果是这样,则存储检查先前向此加载进行转发的存储的戳以查看该存储是否按照程序顺序比其本身早。在步骤808中,如果不是,则存储不向此加载进行转发。
图9示出了根据本发明的一个实施例的其中在存储之后加载被分派的分派功能的概述的过程900的流程图。
在步骤901中,以上述方式将加载指令分离成LA和LD。在步骤902中,将LA重新排序成较早的机器可见程序顺序并使用VID表来跟踪,如上所述。作为903的替代,针对存储队列中的所有存储而检查LA针对加载的地址匹配。
在904中,在有地址匹配时,通过使用加载和SA的VID号或者使用加载和存储的实际年龄而比较匹配加载的程序顺序与存储的程序顺序。这是在图3的讨论中较早图示出的过程。如果存储具有实际年龄但加载没有,则存储早于加载。如果加载具有实际年龄但存储没有,则加载早于存储。如果加载或存储任一具有实际年龄,则可以使用虚拟标识符(VID)来找出哪个较早。如果加载和存储两者都具有实际年龄,则使用实际年龄来找出哪个较早。如上所述,VID号允许跟踪原始程序顺序及重新排序的SA和LA。随后,在步骤905中,使加载消耗来自按程序顺序最接近于其自己的程序顺序的存储的数据。
图10示出了根据本发明的一个实施例的统一加载队列的图。虚拟加载/存储队列的目的是允许处理器在机器中分配比使用其加载/存储队列的实际物理大小可以容纳的更多的加载/存储。作为回报,这允许处理器超过其处理器的加载/存储队列的物理大小限制分配除加载/存储之外的其他指令。即使某些加载/存储在加载/存储队列中仍不具有空间,这些其他指令仍可以被分派和执行。
随着加载从加载队列退出,加载分派窗口移动至序列中的后续指令,并且将包括针对与已经从加载队列退出的加载数目等同的分派要考虑的更多已分配加载。在此图中,加载分派窗口将从左向右移动。
在一个实施例中,加载分派窗口将始终包括与加载队列中的条目的数目相等的加载数目。在任何时间不能在加载分派窗口之外分派加载。除加载之外的调度器窗口中的其他指令(例如,Sub、Add等)可以分派。加载分派窗口内的所有加载可以每当其准备就绪时分派。
图11示出了根据本发明的实施例的示出滑动加载分派窗口的统一加载队列。图11示出了与图10相比较的后续时刻。随着加载退出加载队列,加载分派窗口移动至序列中的后续指令,并且将包括针对与已经从加载队列退出的加载数目等同的分派要考虑的更多已分配加载。加载分派窗口将始终包括与加载队列中的条目数目相等的加载数目。在任何时间不能在加载分派窗口之外分派加载。除加载之外的调度器窗口中的其他指令(例如,Sub、Add等)可以分派。加载分派窗口内的所有加载可以每当其准备就绪时分派。因此,用此方案获得的一个益处是如果超过加载或存储队列容量,到调度器的分配不停止,替代地,尽管已超过加载或存储队列容量,我们继续在调度器内部分配指令,包括加载和存储,加载和存储动态窗口将确保将不会分派在加载或存储队列的容量之外的加载或存储。
图12示出了根据本发明的一个实施例的分布式加载队列。图12实施例的目的是实现分布式加载队列和分布式存储队列,其保持单个程序/线程连续语义,但仍允许跨多个核心/存储器片段进行加载和存储的乱序分派。
图12图示出了避免死锁的加载队列扩展解决方案。创建加载/存储队列的扩展并从引发死锁的加载/存储点(从该点向前)按程序顺序向该扩展队列分配死锁加载/存储直至加载/存储队列具有可用的自由的条目。在图12情形中,LD 3加载取决于SD,SD又取决于由于load_Q B已满而不能被分派的LD 2(具有映射到load_Q B的地址)。在此死锁情形中,在检测到死锁时,允许LD 1和LD 2按序一个接一个地向预留部分B中分派和退出。用于分布式加载/存储队列的保守策略是为每个加载/存储预留每个加载/存储分布式队列中的条目。在此图中,每个分配的加载需要预留load_Q A中的条目和load_Q B中的另一条目。
应注意的是在分布式加载/存储队列中,存在关于已分配加载/存储的问题,因为其地址在分配时是未知的。因此,在乱序分派时仅知道给定加载或存储将占用哪个分布式队列。
本发明的实施例可以采用用于分布式加载/存储队列的三个不同解决方案来避免关于乱序分派的死锁。
1.在死锁(不具有分派给加载/存储缓冲器的空间)的最早加载/存储处引发缺失预测和清刷并开始按序分派加载/存储达一段时间,或者通过其中每个加载/存储在所有分布式队列中分配空间的保守分配。一旦(在分派时)知道该加载/存储的地址,因此知道将接收该加载/存储的特定加载队列,其可以将其他队列中的预留空间解除分配。
2.创建加载/存储队列的扩展并用来从引发死锁的加载/存储点按程序顺序向该扩展队列分配死锁加载/存储(图9)。
3.动态分派窗口大小确定,其中,在连续性窗口之外的未分派加载的和应小于或等于该特定加载队列中的自由非预留空间的数目(例如,图11)。
图13示出了根据本发明的一个实施例的具有按序连续性窗口的分布式加载队列。确定动态分派窗口大小确定,使得在连续性窗口之外的未分派加载的和应小于或等于该特定加载队列中的自由非预留空间的数目。每个加载队列将使用如这里所示的其相应分派窗口来跟踪其条目。在任何时间用于每个加载队列的动态窗口大小=该队列的实际物理大小加虚拟条目(在这种情况下6+4=10),因此在这种情况下,窗口大小应仅覆盖10个负载。请注意,不对用于其他队列的负载进行计数(例如,LD 4)。
预留的预订比是3。该预订比是竞争每个预留空间的按序加载的数目。在本示例中,只有前两个按序未分派加载(从左向右扫描按序连续性窗口)可以向预留分配进行分派(假设队列的2个条目被分配给预留)。因此,虚拟条目的数目=(预订比-1)*预留条目的数目=(3-1)*2=4。
关于按序连续性窗口大小确定,未被分派给加载队列中的条目(被捕捉空间)的在任何时间的加载数目(从最旧的至最新的进行计数)加到预留空间的分派加载的数目必须小于或等于(预订比*预留条目的数目)。在这种情况下,加载的数目必须小于或等于3。该预订比是设计可配置性能度量,其确定预留空间的已接受(占用VS预订)比是什么。这在最早的未分派加载不能找到要分派到预留条目外面的队列空间的情况中实行。在这种情况下,从最早(最旧)加载开始的那些加载将竞争预留空间,预订比确定多少加载将等待占用每个预留条目,预留条目始终被首先分配给最旧的未分派加载,并且一旦该加载退出,则下一个最旧加载可以占用条目(预订比确定从所分派的最旧的一个开始一个接一个地占用预留条目的那些加载的数目)。
应注意的是在一个实施例中,来自每个队列的按序连续性窗口的加载可以在该队列的未预留部分中未留下空间(按序从最旧加载开始)时向该队列的预留空间进行分派。还应注意的是在一个实施例中,在任一队列的按序连续性窗口外面和在该队列的动态分派窗口内的加载不能向该队列的预留部分进行分派。
还应注意的是只要在队列的未预留部分中存在空间,该队列的整个动态分派窗口内的任何加载就可以向任何分布式队列的未预留部分的任何条目进行乱序分派。每个循环调整任一队列的按序连续性窗口和动态分派窗口两者的大小以反映每个加载分派或退出之后的在上文提供的等式中所述的其大小限制。
图14示出了根据本发明的一个实施例的用于多核处理器的分段存储器子系统的图。图13示出了线程之间和/或一般地加载和存储之间的同步方案的全面方案和实现。该方案描述跨加载/存储架构和/或跨存储器引用和/或线程的存储器访问的存储器引用的同步和消歧的优选方法。在图15中,示出了寄存器堆(地址和或数据寄存器)的多个分段以及执行单元、地址计算单元和1层高速缓存和/或加载存储缓冲器的片段和/或2层高速缓存和地址寄存器互连1200和地址计算单元互连1201。那些分段元素可以通过将其集中式资源分段并分布到多个引擎中而在一个核心/处理器内构造,或者其可由采取多核心/多处理器配置的不同核心/处理器的元件构成。那些片段1211中的一个在图中被示为片段1号;可以将片段按比例缩放至大的数目(一般地至N个片段,如图中所示)。
这种机制还充当用于那些引擎/核心/处理器之间的存储器架构的相干性方案。此方案通过来自一个片段/核心/处理器中的地址计算单元中的一个的地址请求开始。例如,假设由片段1(例如,1211)请求地址。其可以使用属于其自己的片段的地址寄存器和或使用地址互连总线1200根据跨其他片段的寄存器来获得并计算其地址。在计算该地址之后,其创建用来访问高速缓存和存储器的32位地址或64位地址的引用地址。此地址通常被分段成标签字段及设定和线路字段。此特定片段/引擎/核心将把地址存储到其加载存储缓冲器和/或L1和/或L2地址阵列1202中,同时其将通过使用压缩技术来创建标签的压缩版本(具有比地址的原始标签字段更小的位数)。
此外,不同的片段/引擎/核心/处理器将使用设定字段或设定字段的子集作为索引来识别地址被保持在哪个片段/核心/处理器中。由地址设定字段位进行的此片段编索引确保不包括特定片段/核心/引擎中的地址的所有权,即使对应于该地址的存储器数据可以存在于另一或多个其他片段/引擎/核心/处理器中。即使在每个片段中将地址CAM/标签阵列1202/1026示为与数据阵列1207耦合,其也可能仅在放置和布局的物理接近区域中被耦合,或者甚至由于两者都属于特定引擎/核心/处理器但在保持在地址阵列的地址与一个片段内部的数据阵列中的数据之间不存在关系的事实。
图15示出了如何由本发明的实施例来处理加载和存储的图。如图15中所描绘的,每个片段与其加载存储缓冲器和存储退出缓冲器相关联。针对任何给定片段,指定与该片段或另一片段相关联的地址范围的加载和存储被发送到该片段的加载存储缓冲器以用于处理。应注意的是其可随着核心乱序执行指令而乱序到达。在每个核心内,核心不仅可访问其自己的寄存器堆,而且可访问其他核心的寄存器堆中的每一个。
本发明的实施例实现分布式加载存储排序系统。该系统跨多个片段分布。在片段内,由该片段来执行本地数据相关性检查。这是因为该片段仅在该特定片段的存储退出缓冲器内加载和存储。这限制了必须注意其他片段以保持数据相干性的需要。以这种方式,本地地执行片段内的数据相关性。
关于数据一致性,存储分派门根据严格的按程序顺序存储器一致性规则来强制执行存储退出。存储乱序到达加载存储缓冲器处。加载也乱序到达加载存储缓冲器处。同时,乱序加载和存储被转发到存储退出缓冲器以用于处理。应注意的是虽然存储在给定片段内按序退出,但随着其转到存储分派门,其可以乱序从多个片段出来。存储分派门强制执行这样的策略,即确保即使存储可乱序跨存储退出缓冲器而驻留,并且即使缓冲器可相对于其他缓冲器的存储乱序将存储转发到存储分派门,分派门也确保其被严格地按序转发到片段存储器。这是因为存储分派门具有存储退出的全局视图,并且仅允许存储跨所有片段、例如全局地按序离开至存储器的全局可见侧。以这种方式,存储分派门充当全局观察者以确保存储最终跨所有片段按序返回到存储器。
图16示出了根据本发明的一个实施例的存储过滤算法的图。图16实施例的目的是过滤存储以防止所有存储必须针对加载队列中的所有条目进行检查。
存储针对地址匹配而嗅探高速缓存以保持相干性。如果线程/核心X加载从高速缓存线进行读取,则其标记其从那里加载数据的高速缓存线的部分。在另一线程/核心Y存储嗅探高速缓存时,如果任何此类存储与该高速缓存线部分重叠,则针对线程/核心X的该加载引发缺失预测。
用于过滤这些嗅探的一个解决方案是跟踪加载队列条目的引用。在这种情况下,存储不需要嗅探加载队列。如果存储具有与访问掩码的匹配,则从引用跟踪符获得的加载队列条目将引发该加载条目进行缺失预测。
在另一解决方案(其中不存在引用跟踪符)中,如果存储与访问掩码具有匹配,则该存储地址将嗅探加载队列条目并将引发匹配的加载条目进行缺失预测。
用两个解决方案,一旦加载从高速缓存线进行读取,其设定相应的访问掩码位。当该加载退出时,其将该位重置。
图17示出了根据本发明的一个实施例的具有组成从存储器按序进行读取的存储器一致性模型中的乱序加载的信号量实现方式。本文所使用的术语信号量指的是为多个线程/核心提供对公共资源的访问控制的数据构造。
在图17的实施例中,使用访问掩码来控制由多个线程/核心对存储器资源的访问。访问掩码通过跟踪高速缓存线的哪些字具有待决加载而运行。乱序加载在访问高速缓存线的字时设定掩码位,并在该加载退出时清除掩码位。如果来自另一线程/核心的存储在设定掩码位的同时向该字进行写入,则其将用信号通知对应于该加载的加载队列条目(例如,经由跟踪符)以被缺失预测/清刷或用其从属指令重试。访问掩码还跟踪线程/核心。
以这种方式,访问掩码确保正确地实现存储器一致性规则。存储器一致性规则规定对于此信号量而言存储按序更新存储器且加载按序从存储器读取以跨两个核心/线程工作。因此,由核心1和核心2执行的代码将被正确地执行,其中,其两者都访问存储器位置“标志”和“数据”。
图18示出了根据本发明的一个实施例的通过使用基于锁的模型和基于事务的模型两者而组成针对存储器进行按序读取的加载的到存储器一致性模型中的乱序加载。
如上所述,存储器一致性规则规定存储按序更新存储器且加载按序引用存储器以便两个核心/线程适当地进行通信。在图18中的右侧底部,示出了两个核心,核心1和核心2。使用两个存储器资源,标志和数据,实现通信并正确地在核心1与核心2之间共享数据。例如,当核心1想要将数据传递至核心2时,如核心1内的代码所指示的,其将存储数据且然后设定标志。如核心2内的代码所指示的,核心2将加载标志并检查标志是否等于1。如果标志不等于1,则核心2将向后转移并保持检查标志直至其确实等于1。在该时间点处,其将加载数据。
用其中加载和存储乱序执行的乱序架构,可以使用基于锁的存储器一致性模型来确保两个实体(例如,核心1和核心2)保持按序存储器一致性语义。这通过使用访问掩码、线程ID寄存器以及跟踪符寄存器而示出。通过在代码的关键段内设置任何加载的对应访问掩码位来设定该锁。如果发生从另一线程/核心到该高速缓存线字的任何访问,则锁将阻止该访问。在一个实施例中,这可以通过将访问示为缺失来实现。当该锁被清除时,允许对该字的访问。
替换地,可以使用基于事务的方法来保持按序存储器一致性语义。用基于事务的方法,通过设置事务内的任何加载的对应访问掩码位来设定原子数。如果在设定掩码位的同时发生从另一线程/核心或并行事务到该高速缓存线的任何访问,则其将用信号通知对应于该加载的加载队列条目(例如,经由跟踪符)以被缺失预测/清刷或用其从属指令重试。访问掩码还跟踪线程/核心。当该事务结束时,掩码位将被清除。使用线程ID寄存器来跟踪哪个线程正在访问统一存储队列条目的哪个字。
图19示出了根据本发明的一个实施例的多核分段存储器子系统的多个核心。本实施例示出了将如何防止来自多核分段存储器子系统内的加载访问被标记为进行中的事务的一部分(例如,看类似于锁定情况)的字。
应注意的是如果此多核分段子系统是较大集群的一部分,则存在具有共享存储器子系统的外部处理器/核心/集群。在这种情况下,属于其他外部处理器/核心/集群的加载将继续进行且将不会被防止从任何存储器位置进行加载,无论该存储器位置是否是事务访问的一部分。然而,所有加载将对访问掩码进行标记以通知作为事务的一部分的未来存储。
来自其他处理器的嗅探存储将其地址与掩码相比较。如果存储见到其正在尝试存储的地址在来自另一线程加载(作为事务的一部分的加载)的访问掩码中被标记,则存储将引发该加载被缺失预测。否则,将在该加载退出时清除该标记(例如,由此完成事务)。
图20示出了根据本发明的一个实施例的访问统一存储队列的异步核心的图,其中存储可以基于存储资历而将数据转发到任一线程中的加载。
如上所述,存储器一致性规则规定存储按序更新存储器且加载按序从存储器进行读取,使得核心/线程适当地进行通信。在图20中的右侧底部,示出了两个核心,核心1和核心2。两个核心是异步的,并执行在每个核心内所指示的代码以访问标志和数据存储器资源。
在图20的实施例中,统一存储队列对于可以访问它的多个线程中的任何线程而言是不可知的。在本实现方式中,来自不同线程的存储可以向不同线程的加载进行转发,而同时通过遵循一组算法规则而仍保持按序存储器一致性语义。线程可以基于存储资历而从彼此进行转发。
当在同一线程中的在一存储的前面的所有加载和存储都已被执行时,该存储是资深的。从另一线程接收到转发的线程不能独立地退出加载/存储。线程必须在它们从其接收到转发的其他线程已进行缺失预测的情况下有条件地进行缺失预测。特定加载可以从同一线程转发存储或从不同的线程资深存储进行转发,如果在同一线程内不存在向其进行转发的存储的话。
用图20方法,通过设置对统一存储队列条目中的字内的字节的任何访问的对应访问掩码位来设定原子数。如果在设定掩码位的同时发生从另一线程/核心或并行事务到该存储队列条目的任何访问,则其将用信号通知对应于该加载的加载队列条目(例如,经由跟踪符)以被缺失预测/清刷或用其从属指令重试。访问掩码还跟踪线程/核心。当该事务结束时,掩码位将被清除。
图21示出了根据本发明的一个实施例的描绘其中存储具有资历的功能的图。如图21中所描绘的,特定加载将从同一线程转发存储进行转发。如果不存在来自线程内的传送,则其可以从不同的线程资深存储进行转发。此原理在其中多个核心/线程正在访问共享存储器的情况下起作用。在这种情况下,存储可以基于存储资历从任一线程向来自任一线程的加载进行转发,然而,只有当不存在从线程内向特定加载的转发时。当在同一线程中的在一存储前面的所有加载和存储都已被执行时,该存储是资深的。
另外,应注意的是线程不能独立地退出加载/存储。线程在它从其接收到转发的另一线程进行存储缺失预测或清刷时必须进行加载缺失预测。
图21直观地描述了两个异步核心/线程(例如,核心/线程1和核心/线程2)之间的执行的示例性流。线2101—2105示出了存储基于其资历而向不同的加载进行转发的方式。为了帮助举例说明资历如何从存储向存储进展,紧挨着每个指令示出了数字以示出随着其从0进展至14的执行的不同阶段。特别地,根据上述规则,应注意线2103所指示的存储向同一线程内的加载进行转发的方式。因此,如上所述,从其自己的线程内进行转发的加载不能从任何相邻线程进行转发。这用跨转发线的黑色十字形示出。
图22示出了非推测性的根据本发明的一个实施例的未消歧乱序加载存储队列退出实现方式(例如,提供低功率、低裸片面积以及较低的定时紧迫性)。
加载退出/重新排序缓冲器(SRB)可以以两个实现方式、退出实现方式和重新排序实现方式进行操作。
在退出实现方式中,在存储退出时按照原始程序顺序从存储队列将存储加载到SRB中,使得按照原始程序顺序较早的存储在SRB的顶部处。后续加载然后寻找地址匹配(例如,使用地址CAM),并从SRB/存储高速缓存中的匹配条目进行转发。在其中存在两个或更多地址匹配的情况下,优先级编码器可以通过扫描第一个来定位正确的转发条目。这节省了到存储器的转移并允许机器向前继续进行。如果分派了加载且向其进行转发的存储已退出到SRB/存储高速缓存,则该加载从SRB/存储高速缓存进行转发并将配对关系记录在预测表中。为了检测其中在向加载进行转发的存储退出到SRB/存储高速缓存之前分派加载的情况,加载必须创建地址掩码,其在那里标记其自己的地址。这可以以不同的方式来实现(例如,图17的实施例)。
如上文所讨论的,图17描述访问掩码,其通过跟踪高速缓存线的哪些字具有待决加载而运行。乱序加载在访问高速缓存线的字时设定掩码,并在该加载退出时清除掩码位。如果来自同一线程/核心的存储在其退出时检测到其在掩码位被设置的同时向该字进行写入,则其将用信号通知对应于该加载的加载队列条目(经由跟踪符)以被缺失预测/清刷或用其从属指令重试。访问掩码还跟踪线程/核心。
图22是非消歧加载存储队列,因为其不包括用以将乱序加载和存储消歧的对应硬件的事实。加载和存储根据机器资源允许而乱序分派。传统上,在加载队列和存储队列两者中使用地址匹配和对应的消歧硬件以确保正确的存储队列条目被转发到请求加载队列条目,如上所述(例如,图5和图6)。加载队列和存储队列的内容对外面的核心/线程不可见。
在图22中,分派的加载和存储地址并未相对于存储队列或加载队列中的条目而被消歧。加载/存储队里现在是具有减小的裸片面积、功率消耗以及定时要求的改进的缓冲器实现方式。SRB将执行消歧功能。在SRB中检测到第一匹配时,使用那些匹配来填充存储至加载转发预测表中的条目以随着指令序列的执行向前进行而强制执行转发。
在加载被分派时,其检查预测表以查看其是否与对应的存储配对。如果加载被配对且该特定存储已被分派,则加载将从在预测表中记录的该存储队列条目号进行转发。如果该存储尚未被分派,则加载将其加载队列条目号寄存在预测表中并将在加载队列中标记其本身以等待存储数据被转发。当稍后分派存储时,其检查预测表以获得加载队列条目号并向该加载进行转发。
一旦针对加载存储对检测到转发,则记录加载存储对的PC和地址,使得地址匹配被验证。如果地址匹配,则加载将不会分派直至存储数据被分派,并且该加载将被标记为从其进行转发。使用预测阈值来设置加载存储对之间的转发关系中的置信度水平。
图23示出了根据本发明的一个实施例的未消歧乱序加载存储队列重新排序实现方式的重新排序实现方式。图23还提供非推测性的低功率、低裸片面积以及较低的定时紧迫性。
加载退出/重新排序缓冲器(SRB)可以以两个实现方式、退出实现方式和重新排序实现方式进行操作。
在图23的重新排序实现方式中,从存储队列将存储地址乱序加载到SRB中(例如,根据资源允许)。在分配每个存储时,其接收序列号。SRB然后通过根据它们的序列号将存储重新排序而运行,使得它们按照原始程序顺序而驻留于SRB中。按照程序顺序较早的存储在SRB的顶部处。后续加载然后寻找地址匹配和分配年龄(在加载和存储的分配时间给定的程序顺序序列号)。随着加载被分派,其查看SRB,如果其见到尚未分派(尚无地址计算)的较早存储(与其自己的序列号相比),则可以实现两个解决方案中的一个。
1.加载不分派,其在其将其本身分派之前等到所有较早存储都已分派。
2.加载分派并在高速缓存的访问掩码中标记其地址(如图17中所示)。后续存储检查访问掩码并遵循相同的方法,如图17中所描述的。
应注意的是优先级编码器如上所述地运行以定位正确的转发条目。
图24示出了根据本发明的一个实施例的指令序列(例如,踪迹)重新排序的推测性执行实现方式。在推测性模式下,存储在存储退出时按照原始程序顺序从存储队列移动至SRB中,使得按照原始程序顺序较早的存储在SRB的顶部处。后续加载然后寻找地址匹配(例如,使用地址CAM),并从SRB/存储高速缓存中的匹配条目进行转发。在其中存在两个或更多地址匹配的情况下,优先级编码器可以通过扫描第一个来定位正确的转发条目。这允许机器向前继续进行。如果分派了加载(其第一次检查SRB))且向其进行转发的存储退出到SRB/存储高速缓存,则该加载从SRB/存储高速缓存进行转发并将其配对关系记录在预测表中。为了检测其中在向加载进行转发的存储退出到SRB/存储高速缓存之前分派加载的情况,退出时的加载将再一次检查存储队列。如果加载发现转发存储匹配,则其将用信号通知对应于该加载的加载队列条目以使其被缺失预测/清刷或用其从属指令进行重试。转发预测器将从此缺失转发进行学习。
应注意的是加载将能够针对先前的存储在SRB中检查匹配地址,因为并非SRB中的所有存储都将被提交给外部高速缓存/存储高速缓存架构上可见状态(将SRB存储装置留给可见存储器)直至包括所述加载的踪迹中的所有指令都已达到踪迹提交(commit)状态(例如,全部变成非推测性的且踪迹整体上准备好提交)。
存储退出/重新排序缓冲器在功能上启用推测性执行。可以将推测性执行的结果保存在存储退出/重新排序缓冲器中直至已知推测性结果。推测性结果并不是在架构上可见的。一旦提交推测性状态,则可以将存储提交到存储高速缓存。在提交该状态之前,需要重新尝试的任何例外或加载和存储将用信号通知将防止状态提交的例外或缺失预测。存储与对应的加载之间的转发缺失预测可以是固定的(例如,通过引发在缺失=转发加载点处清刷机器的缺失预测等)。
在2012年1月27日由Mohammad Abdallah提交的代理人档案号SMII-033、“HARDWARE ACCELERATION COMPONENTS FORTRANSLATING GUEST INSTRUCTIONS TO NATIVE INSTRUCTIONS”的美国专利申请13/360,024中可以找到SRB功能的附加描述。
图25示出了根据本发明的一个实施例的示例性微处理器管线2500的图。微处理器管线2500包括取读模块2501,其实现用于识别并提取包括执行的指令的过程的功能,如上所述。在图25的实施例中,取读模块后面是解码模块2502、分配模块2503、分派模块2504、执行模块2505和退出模块2506。应注意的是微处理器管线2500仅仅是实现上述本发明的实施例的功能的管线的一个示例。本领域的技术人员将认识到可以实现包括上述解码模块的功能的其他微处理器管线。
出于说明的目的,前述描述参考并不意图为穷举的或限制本发明的特定实施例。根据以上讲授内容,可以有许多修改和变更。选择和描述实施例是为了最好地解释本发明的原理及其实际应用,从而使得本领域的技术人员在有和适合于其特定使用的各种修改的情况下最好地利用本发明及其各种实施例。
Claims (24)
1.在处理器中,一种无消歧乱序加载存储队列方法,包括:
实现能够被多个异步核心访问的存储器资源;
实现存储退出缓冲器,其中来自存储队列的存储具有按照原始程序顺序的所述存储退出缓冲器中的条目;
实现推测性执行,其中能够将推测性执行的结果保存在所述存储退出/重新排序缓冲器中作为推测性状态;
在分派来自加载队列的后续加载时,在所述存储退出缓冲器中搜索地址匹配;
在其中存在多个地址匹配的情况下,通过针对第一匹配扫描所述存储退出缓冲器来定位正确的转发条目,并且将来自所述第一匹配的数据转发至所述后续加载;
一旦已知推测性结果,则使所述推测性状态退出至存储器。
2.根据权利要求1所述的方法,其中所述存储队列和所述加载队列是无消歧的。
3.根据权利要求2所述的方法,其中所述存储队列和所述加载队列是无消歧的,因为不包括对乱序加载和存储进行消歧的对应的硬件。
4.根据权利要求1所述的方法,其中在将来自所述第一匹配的数据转发至所述后续加载时,将第一匹配存储和所述后续加载配对,并将对应的配对关系记录在预测表中。
5.根据权利要求1所述的方法,其中实现访问掩码,所述访问掩码通过跟踪所述存储退出缓冲器的哪些条目经由加载来访问而运行。
6.根据权利要求5的方法,其中在执行后续存储时检查所述访问掩码,并且其中当到所述存储退出缓冲器条目的后续存储在所述访问掩码中见到来自加载的在先标记时引发缺失预测。
7.根据权利要求1所述的方法,其中通过使用优先级编码器来找到所述第一匹配。
8.根据权利要求1所述的方法,其中所述推测性状态是通过输入指令序列的重新排序而得到的。
9.一种微处理器,包括:
多个核心和加载存储缓冲器,其中所述加载存储缓冲器通过以下方式来实现无消歧乱序加载存储队列方法:
实现能够被多个异步核心访问的存储器资源;
实现存储退出缓冲器,其中来自存储队列的存储具有按照原始程序顺序的所述存储退出缓冲器中的条目;
实现推测性执行,其中能够将推测性执行的结果保存在所述存储退出/重新排序缓冲器中作为推测性状态;
在分派来自加载队列的后续加载时,在所述存储退出缓冲器中搜索地址匹配;
在其中存在多个地址匹配的情况下,通过针对第一匹配扫描所述存储退出缓冲器来定位正确的转发条目,并且将来自所述第一匹配的数据转发至所述后续加载;
一旦已知推测性结果,则使所述推测性状态退出至存储器。
10.根据权利要求9所述的微处理器,其中所述存储队列和所述加载队列是无消歧的。
11.根据权利要求10所述的微处理器,其中所述存储队列和所述加载队列是无消歧的,因为不包括对乱序加载和存储进行消歧的对应的硬件。
12.根据权利要求9所述的微处理器,其中在将来自所述第一匹配的数据转发至所述后续加载时,将第一匹配存储和所述后续加载配对,并将对应的配对关系记录在预测表中。
13.根据权利要求9的微处理器,其中实现访问掩码,所述访问掩码通过跟踪所述存储退出缓冲器的哪些条目经由加载来访问而运行。
14.根据权利要求13所述的微处理器,其中在执行后续存储时检查所述访问掩码,并且其中当到所述存储退出缓冲器条目的后续存储在所述访问掩码中见到来自加载的在先标记时引发缺失预测。
15.根据权利要求9所述的微处理器,其中通过使用优先级编码器来找到所述第一匹配。
16.根据权利要求9所述的微处理器,其中所述推测性状态是通过输入指令序列的重新排序而得到的。
17.一种计算机系统,包括:
微处理器,具有核心和加载存储缓冲器的微处理器,其中所述加载存储缓冲器通过以下方式来实现无消歧乱序加载存储队列方法:
实现能够被多个异步核心访问的存储器资源;
实现存储退出缓冲器,其中来自存储队列的存储具有按照原始程序顺序的所述存储退出缓冲器中的条目;
实现推测性执行,其中能够将推测性执行的结果保存在所述存储退出/重新排序缓冲器中作为推测性状态;
在分派来自加载队列的后续加载时,在所述存储退出缓冲器中搜索地址匹配;
在其中存在多个地址匹配的情况下,通过针对第一匹配扫描所述存储退出缓冲器来定位正确的转发条目,并且将来自所述第一匹配的数据转发至所述后续加载;
一旦已知推测性结果,则使所述推测性状态退出至存储器。
18.根据权利要求17的计算机系统,其中所述存储队列和所述加载队列是无消歧的。
19.根据权利要求18所述的计算机系统,其中所述存储队列和所述加载队列是无消歧的,因为不包括对乱序加载和存储进行消歧的对应的硬件。
20.根据权利要求17所述的计算机系统,其中在将来自所述第一匹配的数据转发至所述后续加载时,将第一匹配存储和所述后续加载配对,并将对应的配对关系记录在预测表中。
21.根据权利要求17所述的计算机系统,其中实现访问掩码,所述访问掩码通过跟踪所述存储退出缓冲器的哪些条目经由加载来访问而运行。
22.根据权利要求21所述的计算机系统,其中在执行后续存储时检查所述访问掩码,并且其中当到所述存储退出缓冲器条目的后续存储在所述访问掩码中见到来自加载的在先标记时引发缺失预测。
23.根据权利要求17所述的计算机系统,其中通过使用优先级编码器来找到所述第一匹配。
24.根据权利要求17所述的计算机系统,其中所述推测性状态是通过输入指令序列的重新排序而得到的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261660539P | 2012-06-15 | 2012-06-15 | |
US61/660,539 | 2012-06-15 | ||
PCT/US2013/045008 WO2013188306A1 (en) | 2012-06-15 | 2013-06-10 | Reordered speculative instruction sequences with a disambiguation-free out of order load store queue |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104583957A true CN104583957A (zh) | 2015-04-29 |
CN104583957B CN104583957B (zh) | 2018-08-10 |
Family
ID=49758642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380043003.7A Active CN104583957B (zh) | 2012-06-15 | 2013-06-10 | 具有无消歧乱序加载存储队列的重新排序的推测性指令序列 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10019263B2 (zh) |
EP (1) | EP2862068B1 (zh) |
KR (2) | KR101996592B1 (zh) |
CN (1) | CN104583957B (zh) |
TW (2) | TWI639953B (zh) |
WO (1) | WO2013188306A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107077371A (zh) * | 2014-07-25 | 2017-08-18 | 英特尔公司 | 通过确保加载不在将要到相同地址的其他加载之前分派的jit(及时)优化实现重排序过程的系统转换器 |
CN111527479A (zh) * | 2018-01-10 | 2020-08-11 | Arm有限公司 | 推测性缓存存储区 |
US11281481B2 (en) | 2014-07-25 | 2022-03-22 | Intel Corporation | Using a plurality of conversion tables to implement an instruction set agnostic runtime architecture |
CN116578343A (zh) * | 2023-07-10 | 2023-08-11 | 南京砺算科技有限公司 | 指令编译方法及装置、图形处理单元、存储介质、终端设备 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2862069A4 (en) | 2012-06-15 | 2016-12-28 | Soft Machines Inc | DEFINING INSTRUCTIONS TO REORDER AND OPTIMIZE LOADING AND STORAGE |
KR101826080B1 (ko) | 2012-06-15 | 2018-02-06 | 인텔 코포레이션 | 통합된 구조를 갖는 동적 디스패치 윈도우를 가지는 가상 load store 큐 |
WO2013188701A1 (en) | 2012-06-15 | 2013-12-19 | Soft Machines, Inc. | A method and system for implementing recovery from speculative forwarding miss-predictions/errors resulting from load store reordering and optimization |
EP2862062B1 (en) | 2012-06-15 | 2024-03-06 | Intel Corporation | A virtual load store queue having a dynamic dispatch window with a distributed structure |
KR101996462B1 (ko) * | 2012-06-15 | 2019-07-04 | 인텔 코포레이션 | 명확화 없는 비순차 load store 큐 |
CN106030518B (zh) * | 2014-03-27 | 2019-03-26 | 英特尔公司 | 用于整理和退出存储的处理器、方法、系统和装置 |
US20160026484A1 (en) * | 2014-07-25 | 2016-01-28 | Soft Machines, Inc. | System converter that executes a just in time optimizer for executing code from a guest image |
KR101882429B1 (ko) * | 2014-07-25 | 2018-07-27 | 소프트 머신즈, 인크. | 명령어 집합의 애그노스틱 런타임 아키텍처용 시스템 |
US10353680B2 (en) | 2014-07-25 | 2019-07-16 | Intel Corporation | System converter that implements a run ahead run time guest instruction conversion/decoding process and a prefetching process where guest code is pre-fetched from the target of guest branches in an instruction sequence |
US10133576B2 (en) * | 2015-01-13 | 2018-11-20 | International Business Machines Corporation | Parallel slice processor having a recirculating load-store queue for fast deallocation of issue queue entries |
WO2019005169A1 (en) * | 2017-06-30 | 2019-01-03 | Intel Corporation | APPARATUS AND METHOD FOR MEMORY OPERATIONS READY FOR DATA |
US10963567B2 (en) * | 2017-10-12 | 2021-03-30 | Microsoft Technology Licensing, Llc | Speculative side-channel attack mitigations |
US11113065B2 (en) * | 2019-04-03 | 2021-09-07 | Advanced Micro Devices, Inc. | Speculative instruction wakeup to tolerate draining delay of memory ordering violation check buffers |
US10983797B2 (en) | 2019-05-28 | 2021-04-20 | International Business Machines Corporation | Program instruction scheduling |
US11614890B2 (en) * | 2019-07-30 | 2023-03-28 | Micron Technology, Inc. | Handling of host-initiated requests in memory sub-systems |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5788245A (en) * | 1993-11-30 | 1998-08-04 | Sega Enterprises, Ltd. | Game machine for playing ball throw and method of adjusting target behavior in the same |
US6058472A (en) * | 1997-06-25 | 2000-05-02 | Sun Microsystems, Inc. | Apparatus for maintaining program correctness while allowing loads to be boosted past stores in an out-of-order machine |
CN1307700A (zh) * | 1998-06-30 | 2001-08-08 | 英特尔公司 | 带有重放系统的计算机处理器 |
US6591342B1 (en) * | 1999-12-14 | 2003-07-08 | Intel Corporation | Memory disambiguation for large instruction windows |
US7340567B1 (en) * | 2004-04-14 | 2008-03-04 | Sun Microsystems, Inc. | Value prediction for missing read operations instances |
US7343477B1 (en) * | 2003-12-29 | 2008-03-11 | Sun Microsystems, Inc. | Efficient read after write bypass |
CN101627365A (zh) * | 2006-11-14 | 2010-01-13 | 索夫特机械公司 | 用于处理使用上下文切换的多线程架构中的指令的装置和方法 |
CN101901132A (zh) * | 2009-08-12 | 2010-12-01 | 威盛电子股份有限公司 | 微处理器以及相关储存方法 |
US20100306477A1 (en) * | 2009-05-28 | 2010-12-02 | Luttrell Mark A | Store prefetching via store queue lookahead |
US20110161632A1 (en) * | 2007-12-30 | 2011-06-30 | Tingting Sha | Compiler assisted low power and high performance load handling |
Family Cites Families (147)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4342080A (en) | 1978-11-08 | 1982-07-27 | Data General Corporation | Computer with microcode generator system |
US5487156A (en) | 1989-12-15 | 1996-01-23 | Popescu; Valeri | Processor architecture having independently fetching issuing and updating operations of instructions which are sequentially assigned and stored in order fetched |
EP0543560B1 (en) | 1991-11-19 | 1999-12-22 | Sun Microsystems, Inc. | Arbitrating multiprocessor accesses to shared resources |
US5367656A (en) | 1992-03-13 | 1994-11-22 | Bull Hn Information Systems Inc. | Controlling cache predictive prefetching based on cache hit ratio trend |
US5319766A (en) | 1992-04-24 | 1994-06-07 | Digital Equipment Corporation | Duplicate tag store for a processor having primary and backup cache memories in a multiprocessor computer system |
US5553266A (en) | 1992-04-24 | 1996-09-03 | Digital Equipment Corporation | Update vs. invalidate policy for a snoopy bus protocol |
US5778245A (en) * | 1994-03-01 | 1998-07-07 | Intel Corporation | Method and apparatus for dynamic allocation of multiple buffers in a processor |
US5553265A (en) | 1994-10-21 | 1996-09-03 | International Business Machines Corporation | Methods and system for merging data during cache checking and write-back cycles for memory reads and writes |
US6006324A (en) | 1995-01-25 | 1999-12-21 | Advanced Micro Devices, Inc. | High performance superscalar alignment unit |
US5751983A (en) * | 1995-10-03 | 1998-05-12 | Abramson; Jeffrey M. | Out-of-order processor with a memory subsystem which handles speculatively dispatched load operations |
US6298435B1 (en) | 1996-04-16 | 2001-10-02 | International Business Machines Corporation | Methods and apparatus for exploiting virtual buffers to increase instruction parallelism in a pipelined processor |
US5958042A (en) | 1996-06-11 | 1999-09-28 | Sun Microsystems, Inc. | Grouping logic circuit in a pipelined superscalar processor |
US5748987A (en) | 1996-06-25 | 1998-05-05 | Photo Dimensions | Producing smoothly blended double exposure composite images |
EP1005672B1 (en) | 1996-07-16 | 2010-10-06 | GlobalFoundries, Inc. | Load/store unit and method for non-blocking completion of loads in a superscalar microprocessor |
US6021485A (en) | 1997-04-10 | 2000-02-01 | International Business Machines Corporation | Forwarding store instruction result to load instruction with reduced stall or flushing by effective/real data address bytes matching |
US5943686A (en) | 1997-04-14 | 1999-08-24 | International Business Machines Corporation | Multiple cache directories for non-arbitration concurrent accessing of a cache memory |
US6006326A (en) | 1997-06-25 | 1999-12-21 | Sun Microsystems, Inc. | Apparatus for restraining over-eager load boosting in an out-of-order machine using a memory disambiguation buffer for determining dependencies |
US6157988A (en) | 1997-08-01 | 2000-12-05 | Micron Technology, Inc. | Method and apparatus for high performance branching in pipelined microsystems |
US6185660B1 (en) | 1997-09-23 | 2001-02-06 | Hewlett-Packard Company | Pending access queue for providing data to a target register during an intermediate pipeline phase after a computer cache miss |
US6463522B1 (en) * | 1997-12-16 | 2002-10-08 | Intel Corporation | Memory system for ordering load and store instructions in a processor that performs multithread execution |
CN1111297C (zh) | 1998-07-15 | 2003-06-11 | 北京多思科技工业园股份有限公司 | 指令控制排序方法及其装置 |
US6397306B2 (en) | 1998-10-23 | 2002-05-28 | Alcatel Internetworking, Inc. | Per memory atomic access for distributed memory multiprocessor architecture |
US6385708B1 (en) | 1998-11-16 | 2002-05-07 | Infineon Technologies Ag | Using a timing-look-up-table and page timers to determine the time between two consecutive memory accesses |
US6487639B1 (en) | 1999-01-19 | 2002-11-26 | International Business Machines Corporation | Data cache miss lookaside buffer and method thereof |
US6738896B1 (en) | 1999-02-01 | 2004-05-18 | Hewlett-Packard Development Company, L.P. | Method and apparatus for determining availability of a queue which allows random insertion |
US6336168B1 (en) | 1999-02-26 | 2002-01-01 | International Business Machines Corporation | System and method for merging multiple outstanding load miss instructions |
US6470444B1 (en) | 1999-06-16 | 2002-10-22 | Intel Corporation | Method and apparatus for dividing a store operation into pre-fetch and store micro-operations |
US6694421B2 (en) | 1999-12-29 | 2004-02-17 | Intel Corporation | Cache memory bank access prediction |
US6484254B1 (en) * | 1999-12-30 | 2002-11-19 | Intel Corporation | Method, apparatus, and system for maintaining processor ordering by checking load addresses of unretired load instructions against snooping store addresses |
US6651161B1 (en) | 2000-01-03 | 2003-11-18 | Advanced Micro Devices, Inc. | Store load forward predictor untraining |
US8266367B2 (en) | 2003-12-02 | 2012-09-11 | Super Talent Electronics, Inc. | Multi-level striping and truncation channel-equalization for flash-memory system |
AU2001236793A1 (en) | 2000-02-25 | 2001-09-03 | Sun Microsystems, Inc. | Apparatus and method for maintaining high snoop traffic throughput and preventing cache data eviction during an atomic operation |
US6598122B2 (en) | 2000-04-19 | 2003-07-22 | Hewlett-Packard Development Company, L.P. | Active load address buffer |
US6631460B1 (en) | 2000-04-27 | 2003-10-07 | Institute For The Development Of Emerging Architectures, L.L.C. | Advanced load address table entry invalidation based on register address wraparound |
US6463511B2 (en) | 2000-12-29 | 2002-10-08 | Intel Corporation | System and method for high performance execution of locked memory instructions in a system with distributed memory and a restrictive memory model |
JP3497832B2 (ja) | 2001-03-28 | 2004-02-16 | 株式会社半導体理工学研究センター | ロード・ストアキュー |
US20020188817A1 (en) | 2001-06-08 | 2002-12-12 | Norden Erik K. | Store buffer pipeline |
US6704841B2 (en) | 2001-06-26 | 2004-03-09 | Sun Microsystems, Inc. | Method and apparatus for facilitating speculative stores in a multiprocessor system |
US7752423B2 (en) | 2001-06-28 | 2010-07-06 | Intel Corporation | Avoiding execution of instructions in a second processor by committing results obtained from speculative execution of the instructions in a first processor |
US7406690B2 (en) | 2001-09-26 | 2008-07-29 | International Business Machines Corporation | Flow lookahead in an ordered semaphore management subsystem |
US20030065909A1 (en) | 2001-09-28 | 2003-04-03 | Jourdan Stephan J. | Deferral of dependent loads until after execution of colliding stores |
US6708879B2 (en) | 2001-11-16 | 2004-03-23 | Audio Visual Services Corporation | Automated unmanned rental system and method |
JP3727887B2 (ja) | 2002-02-19 | 2005-12-21 | 富士通株式会社 | マルチスレッドプロセッサにおける共有レジスタファイル制御方式 |
US20030172198A1 (en) | 2002-02-21 | 2003-09-11 | Ashutosh Tiwary | Workload playback for a system for performance testing of N-tiered computer systems using recording and playback of workloads |
US6782461B2 (en) | 2002-02-25 | 2004-08-24 | Intel Corporation | Dynamically adjustable load-sharing circular queues |
US6883086B2 (en) | 2002-03-06 | 2005-04-19 | Intel Corporation | Repair of mis-predicted load values |
US20030208665A1 (en) | 2002-05-01 | 2003-11-06 | Jih-Kwon Peir | Reducing data speculation penalty with early cache hit/miss prediction |
US7181598B2 (en) | 2002-05-17 | 2007-02-20 | Intel Corporation | Prediction of load-store dependencies in a processing agent |
US6920546B2 (en) | 2002-08-13 | 2005-07-19 | Intel Corporation | Fusion of processor micro-operations |
US6957305B2 (en) | 2002-08-29 | 2005-10-18 | International Business Machines Corporation | Data streaming mechanism in a microprocessor |
US7062636B2 (en) | 2002-09-19 | 2006-06-13 | Intel Corporation | Ordering scheme with architectural operation decomposed into result producing speculative micro-operation and exception producing architectural micro-operation |
US6889311B2 (en) | 2002-11-22 | 2005-05-03 | Texas Instruments Incorporated | Pipeline stage single cycle sliding alignment correction of memory read data with integrated data reordering for load and store instructions |
US6986010B2 (en) | 2002-12-13 | 2006-01-10 | Intel Corporation | Cache lock mechanism with speculative allocation |
US7080209B2 (en) | 2002-12-24 | 2006-07-18 | Intel Corporation | Method and apparatus for processing a load-lock instruction using a relaxed lock protocol |
US20040123078A1 (en) | 2002-12-24 | 2004-06-24 | Hum Herbert H | Method and apparatus for processing a load-lock instruction using a scoreboard mechanism |
US7114042B2 (en) | 2003-05-22 | 2006-09-26 | International Business Machines Corporation | Method to provide atomic update primitives in an asymmetric heterogeneous multiprocessor environment |
US7680990B2 (en) | 2003-05-30 | 2010-03-16 | Hewlett-Packard Development Company, L.P. | Superword memory-access instructions for data processor |
US7284097B2 (en) | 2003-09-30 | 2007-10-16 | International Business Machines Corporation | Modified-invalid cache state to reduce cache-to-cache data transfer operations for speculatively-issued full cache line writes |
US20050097304A1 (en) | 2003-10-30 | 2005-05-05 | International Business Machines Corporation | Pipeline recirculation for data misprediction in a fast-load data cache |
US7640419B2 (en) * | 2003-12-23 | 2009-12-29 | Intel Corporation | Method for and a trailing store buffer for use in memory renaming |
US7174428B2 (en) | 2003-12-29 | 2007-02-06 | Intel Corporation | Method and system for transforming memory location references in instructions |
US8301844B2 (en) | 2004-01-13 | 2012-10-30 | Hewlett-Packard Development Company, L.P. | Consistency evaluation of program execution across at least one memory barrier |
US20050228971A1 (en) | 2004-04-08 | 2005-10-13 | Samra Nicholas G | Buffer virtualization |
US8607241B2 (en) | 2004-06-30 | 2013-12-10 | Intel Corporation | Compare and exchange operation using sleep-wakeup mechanism |
US7703098B1 (en) | 2004-07-20 | 2010-04-20 | Sun Microsystems, Inc. | Technique to allow a first transaction to wait on condition that affects its working set |
JP4520788B2 (ja) | 2004-07-29 | 2010-08-11 | 富士通株式会社 | マルチスレッドプロセッサ |
US20060026371A1 (en) | 2004-07-30 | 2006-02-02 | Chrysos George Z | Method and apparatus for implementing memory order models with order vectors |
US7606998B2 (en) | 2004-09-10 | 2009-10-20 | Cavium Networks, Inc. | Store instruction ordering for multi-core processor |
US7315926B2 (en) | 2004-09-21 | 2008-01-01 | Emc Corporation | Lock management for concurrent access to a single file from multiple data mover computers |
US7392351B2 (en) | 2005-03-29 | 2008-06-24 | International Business Machines Corporation | Method and apparatus for filtering snoop requests using stream registers |
US7373462B2 (en) | 2005-03-29 | 2008-05-13 | International Business Machines Corporation | Snoop filter for filtering snoop requests |
US7380071B2 (en) | 2005-03-29 | 2008-05-27 | International Business Machines Corporation | Snoop filtering system in a multiprocessor system |
US7502895B2 (en) | 2005-09-13 | 2009-03-10 | Hewlett-Packard Development Company, L.P. | Techniques for reducing castouts in a snoop filter |
US7506132B2 (en) | 2005-12-22 | 2009-03-17 | International Business Machines Corporation | Validity of address ranges used in semi-synchronous memory copy operations |
US20070180158A1 (en) | 2006-02-01 | 2007-08-02 | International Business Machines Corporation | Method for command list ordering after multiple cache misses |
US7721071B2 (en) | 2006-02-28 | 2010-05-18 | Mips Technologies, Inc. | System and method for propagating operand availability prediction bits with instructions through a pipeline in an out-of-order processor |
US7590825B2 (en) | 2006-03-07 | 2009-09-15 | Intel Corporation | Counter-based memory disambiguation techniques for selectively predicting load/store conflicts |
US20070234014A1 (en) | 2006-03-28 | 2007-10-04 | Ryotaro Kobayashi | Processor apparatus for executing instructions with local slack prediction of instructions and processing method therefor |
CN101449256B (zh) | 2006-04-12 | 2013-12-25 | 索夫特机械公司 | 对载明并行和依赖运算的指令矩阵进行处理的装置和方法 |
US20070260754A1 (en) | 2006-04-13 | 2007-11-08 | Irish John D | Hardware Assisted Exception for Software Miss Handling of an I/O Address Translation Cache Miss |
DE112006003917T5 (de) | 2006-05-30 | 2009-06-04 | Intel Corporation, Santa Clara | Verfahren, Gerät und System angewendet in einem Cachespeicher-Kohärenzprotokoll |
US20070288725A1 (en) * | 2006-06-07 | 2007-12-13 | Luick David A | A Fast and Inexpensive Store-Load Conflict Scheduling and Forwarding Mechanism |
US20070288694A1 (en) | 2006-06-13 | 2007-12-13 | Sanjeev Ghai | Data processing system, processor and method of data processing having controllable store gather windows |
US7581068B2 (en) | 2006-06-29 | 2009-08-25 | Intel Corporation | Exclusive ownership snoop filter |
US9262326B2 (en) | 2006-08-14 | 2016-02-16 | Qualcomm Incorporated | Method and apparatus to enable the cooperative signaling of a shared bus interrupt in a multi-rank memory subsystem |
US7594079B2 (en) | 2006-09-29 | 2009-09-22 | Mips Technologies, Inc. | Data cache virtual hint way prediction, and applications thereof |
US9946547B2 (en) | 2006-09-29 | 2018-04-17 | Arm Finance Overseas Limited | Load/store unit for a processor, and applications thereof |
US7600098B1 (en) * | 2006-09-29 | 2009-10-06 | Sun Microsystems, Inc. | Method and system for efficient implementation of very large store buffer |
US7752613B2 (en) | 2006-12-05 | 2010-07-06 | Intel Corporation | Disambiguation in dynamic binary translation |
US7970957B2 (en) | 2006-12-20 | 2011-06-28 | Sandisk Il Ltd. | Apparatus, method and computer readable medium for disambiguating commands with respect to logical protocols |
US20080183972A1 (en) | 2007-01-26 | 2008-07-31 | James Norris Dieffenderfer | Snoop Filtering Using a Snoop Request Cache |
US8132172B2 (en) | 2007-03-26 | 2012-03-06 | Intel Corporation | Thread scheduling on multiprocessor systems |
US8135900B2 (en) | 2007-03-28 | 2012-03-13 | Kabushiki Kaisha Toshiba | Integrated memory management and memory management method |
KR101086791B1 (ko) | 2007-06-20 | 2011-11-25 | 후지쯔 가부시끼가이샤 | 캐시 제어 장치 및 제어 방법 |
US8447911B2 (en) | 2007-07-05 | 2013-05-21 | Board Of Regents, University Of Texas System | Unordered load/store queue |
US7890725B2 (en) | 2007-07-09 | 2011-02-15 | International Business Machines Corporation | Bufferless transactional memory with runahead execution |
US7765363B2 (en) | 2007-07-26 | 2010-07-27 | Hewlett-Packard Development Company, L.P. | Mask usable for snoop requests |
US8037252B2 (en) | 2007-08-28 | 2011-10-11 | International Business Machines Corporation | Method for reducing coherence enforcement by selective directory update on replacement of unmodified cache blocks in a directory-based coherent multiprocessor |
US8006073B1 (en) | 2007-09-28 | 2011-08-23 | Oracle America, Inc. | Simultaneous speculative threading light mode |
CN101447911B (zh) | 2007-11-27 | 2010-12-15 | 上海高性能集成电路设计中心 | 一种通过分布控制扩展访存队列容量的装置 |
TWI354996B (en) | 2007-12-31 | 2011-12-21 | Phison Electronics Corp | Wear leveling method and controller thereof |
US8719553B2 (en) | 2008-01-31 | 2014-05-06 | Arm Norway As | Method for re-circulating a fragment through a rendering pipeline |
US8627047B2 (en) | 2008-02-15 | 2014-01-07 | International Business Machines Corporation | Store data forwarding with no memory model restrictions |
US9146744B2 (en) | 2008-05-06 | 2015-09-29 | Oracle America, Inc. | Store queue having restricted and unrestricted entries |
US8464009B2 (en) | 2008-06-04 | 2013-06-11 | Oracle America, Inc. | Method for memory interleave support with a ceiling mask |
US8332852B2 (en) | 2008-07-21 | 2012-12-11 | International Business Machines Corporation | Thread-to-processor assignment based on affinity identifiers |
CN101673245B (zh) | 2008-09-09 | 2016-02-03 | 株式会社东芝 | 包括存储器管理装置的信息处理装置和存储器管理方法 |
WO2010060084A2 (en) | 2008-11-24 | 2010-05-27 | Intel Corporation | Systems, methods, and apparatuses to decompose a sequential program into multiple threads, execute said threads, and reconstruct the sequential execution |
US20100274972A1 (en) | 2008-11-24 | 2010-10-28 | Boris Babayan | Systems, methods, and apparatuses for parallel computing |
CN101763250B (zh) | 2008-12-25 | 2014-03-12 | 世意法(北京)半导体研发有限责任公司 | 地址比较电路和方法 |
US8041928B2 (en) | 2008-12-22 | 2011-10-18 | International Business Machines Corporation | Information handling system with real and virtual load/store instruction issue queue |
US8380964B2 (en) | 2009-04-03 | 2013-02-19 | International Business Machines Corporation | Processor including age tracking of issue queue instructions |
US8521982B2 (en) | 2009-04-15 | 2013-08-27 | International Business Machines Corporation | Load request scheduling in a cache hierarchy |
US8244988B2 (en) | 2009-04-30 | 2012-08-14 | International Business Machines Corporation | Predictive ownership control of shared memory computing system data |
US8677226B2 (en) * | 2009-05-04 | 2014-03-18 | Ikanos Communications, Inc. | Systems and methods for retransmission return channel error detection |
US8099566B2 (en) | 2009-05-15 | 2012-01-17 | Oracle America, Inc. | Load/store ordering in a threaded out-of-order processor |
US8392666B2 (en) | 2009-05-21 | 2013-03-05 | Via Technologies, Inc. | Low power high speed load-store collision detector |
US8930679B2 (en) | 2009-05-29 | 2015-01-06 | Via Technologies, Inc. | Out-of-order execution microprocessor with reduced store collision load replay by making an issuing of a load instruction dependent upon a dependee instruction of a store instruction |
US8533438B2 (en) * | 2009-08-12 | 2013-09-10 | Via Technologies, Inc. | Store-to-load forwarding based on load/store address computation source information comparisons |
US8452991B2 (en) * | 2009-08-20 | 2013-05-28 | International Business Machines Corporation | Partition level power management using fully asynchronous cores with software that has limited asynchronous support |
US9286075B2 (en) | 2009-09-30 | 2016-03-15 | Oracle America, Inc. | Optimal deallocation of instructions from a unified pick queue |
US20110119469A1 (en) | 2009-11-13 | 2011-05-19 | International Business Machines Corporation | Balancing workload in a multiprocessor system responsive to programmable adjustments in a syncronization instruction |
US8397238B2 (en) | 2009-12-08 | 2013-03-12 | Qualcomm Incorporated | Thread allocation and clock cycle adjustment in an interleaved multi-threaded processor |
TWI484335B (zh) | 2010-01-07 | 2015-05-11 | Alibaba Group Holding Ltd | Cached data processing method, processing system, and means |
US8938605B2 (en) | 2010-03-05 | 2015-01-20 | International Business Machines Corporation | Instruction cracking based on machine state |
US20110225297A1 (en) | 2010-03-11 | 2011-09-15 | International Business Machines Corporation | Controlling Access To A Resource In A Distributed Computing System With A Distributed Access Request Queue |
CN101944068A (zh) | 2010-08-23 | 2011-01-12 | 中国科学技术大学苏州研究院 | 一种共享高速缓存的性能优化方法 |
US20120059971A1 (en) | 2010-09-07 | 2012-03-08 | David Kaplan | Method and apparatus for handling critical blocking of store-to-load forwarding |
US8713263B2 (en) | 2010-11-01 | 2014-04-29 | Advanced Micro Devices, Inc. | Out-of-order load/store queue structure |
US8756374B2 (en) | 2010-11-05 | 2014-06-17 | Oracle International Corporation | Store queue supporting ordered and unordered stores |
US8321635B2 (en) | 2010-11-08 | 2012-11-27 | Lsi Corporation | Synchronizing commands for preventing data corruption |
US20120117335A1 (en) | 2010-11-10 | 2012-05-10 | Advanced Micro Devices, Inc. | Load ordering queue |
US9529594B2 (en) | 2010-11-30 | 2016-12-27 | Oracle International Corporation | Miss buffer for a multi-threaded processor |
WO2012103359A2 (en) | 2011-01-27 | 2012-08-02 | Soft Machines, Inc. | Hardware acceleration components for translating guest instructions to native instructions |
US8966184B2 (en) | 2011-01-31 | 2015-02-24 | Intelligent Intellectual Property Holdings 2, LLC. | Apparatus, system, and method for managing eviction of data |
US9043363B2 (en) | 2011-06-03 | 2015-05-26 | Oracle International Corporation | System and method for performing memory management using hardware transactions |
CN104620223B (zh) | 2012-06-15 | 2018-11-16 | 英特尔公司 | 对于基于存储资历实现从不同线程进行转发的线程不可知的加载存储缓冲器 |
KR102248470B1 (ko) | 2012-06-15 | 2021-05-06 | 인텔 코포레이션 | 메모리로부터 순차적으로 판독하는 load들을 구성하는 메모리 일관성 모델에서 비순차 load들을 갖는 세마포어 방법 및 시스템 |
EP2862062B1 (en) | 2012-06-15 | 2024-03-06 | Intel Corporation | A virtual load store queue having a dynamic dispatch window with a distributed structure |
KR101826080B1 (ko) | 2012-06-15 | 2018-02-06 | 인텔 코포레이션 | 통합된 구조를 갖는 동적 디스패치 윈도우를 가지는 가상 load store 큐 |
CN104583942B (zh) | 2012-06-15 | 2018-02-13 | 英特尔公司 | 乱序加载的基于锁的和基于同步的方法 |
US9639469B2 (en) | 2012-09-28 | 2017-05-02 | Qualcomm Technologies, Inc. | Coherency controller with reduced data buffer |
US9244837B2 (en) | 2012-10-11 | 2016-01-26 | Texas Instruments Incorporated | Zero cycle clock invalidate operation |
US9455048B2 (en) | 2013-06-28 | 2016-09-27 | Sandisk Technologies Llc | NAND flash word line management using multiple fragment pools |
SG10201811729PA (en) | 2013-12-12 | 2019-02-27 | Life Technologies Corp | Membrane-penetrating peptides to enhance transfection and compositions and methods for using same |
US9448936B2 (en) | 2014-01-13 | 2016-09-20 | Apple Inc. | Concurrent store and load operations |
EP3224744A4 (en) | 2014-11-28 | 2018-08-01 | Nasuni Corporation | Versioned file system with global lock |
-
2013
- 2013-06-10 KR KR1020187002947A patent/KR101996592B1/ko active IP Right Grant
- 2013-06-10 CN CN201380043003.7A patent/CN104583957B/zh active Active
- 2013-06-10 EP EP13803665.2A patent/EP2862068B1/en active Active
- 2013-06-10 WO PCT/US2013/045008 patent/WO2013188306A1/en active Application Filing
- 2013-06-10 KR KR1020157000647A patent/KR101825585B1/ko active IP Right Grant
- 2013-06-14 TW TW106108151A patent/TWI639953B/zh active
- 2013-06-14 TW TW102121090A patent/TWI585682B/zh active
-
2014
- 2014-12-12 US US14/569,551 patent/US10019263B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5788245A (en) * | 1993-11-30 | 1998-08-04 | Sega Enterprises, Ltd. | Game machine for playing ball throw and method of adjusting target behavior in the same |
US6058472A (en) * | 1997-06-25 | 2000-05-02 | Sun Microsystems, Inc. | Apparatus for maintaining program correctness while allowing loads to be boosted past stores in an out-of-order machine |
CN1307700A (zh) * | 1998-06-30 | 2001-08-08 | 英特尔公司 | 带有重放系统的计算机处理器 |
US6591342B1 (en) * | 1999-12-14 | 2003-07-08 | Intel Corporation | Memory disambiguation for large instruction windows |
US7343477B1 (en) * | 2003-12-29 | 2008-03-11 | Sun Microsystems, Inc. | Efficient read after write bypass |
US7340567B1 (en) * | 2004-04-14 | 2008-03-04 | Sun Microsystems, Inc. | Value prediction for missing read operations instances |
CN101627365A (zh) * | 2006-11-14 | 2010-01-13 | 索夫特机械公司 | 用于处理使用上下文切换的多线程架构中的指令的装置和方法 |
US20110161632A1 (en) * | 2007-12-30 | 2011-06-30 | Tingting Sha | Compiler assisted low power and high performance load handling |
US20100306477A1 (en) * | 2009-05-28 | 2010-12-02 | Luttrell Mark A | Store prefetching via store queue lookahead |
CN101901132A (zh) * | 2009-08-12 | 2010-12-01 | 威盛电子股份有限公司 | 微处理器以及相关储存方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107077371A (zh) * | 2014-07-25 | 2017-08-18 | 英特尔公司 | 通过确保加载不在将要到相同地址的其他加载之前分派的jit(及时)优化实现重排序过程的系统转换器 |
CN107077371B (zh) * | 2014-07-25 | 2020-09-29 | 英特尔公司 | 用于不可知的运行时架构的系统、微处理器和计算机系统 |
US11281481B2 (en) | 2014-07-25 | 2022-03-22 | Intel Corporation | Using a plurality of conversion tables to implement an instruction set agnostic runtime architecture |
CN111527479A (zh) * | 2018-01-10 | 2020-08-11 | Arm有限公司 | 推测性缓存存储区 |
CN116578343A (zh) * | 2023-07-10 | 2023-08-11 | 南京砺算科技有限公司 | 指令编译方法及装置、图形处理单元、存储介质、终端设备 |
CN116578343B (zh) * | 2023-07-10 | 2023-11-21 | 南京砺算科技有限公司 | 指令编译方法及装置、图形处理装置、存储介质、终端设备 |
Also Published As
Publication number | Publication date |
---|---|
TW201743200A (zh) | 2017-12-16 |
US20150100766A1 (en) | 2015-04-09 |
KR101825585B1 (ko) | 2018-02-05 |
EP2862068B1 (en) | 2022-07-06 |
EP2862068A4 (en) | 2016-12-21 |
TWI585682B (zh) | 2017-06-01 |
KR101996592B1 (ko) | 2019-07-04 |
KR20180014864A (ko) | 2018-02-09 |
KR20150027208A (ko) | 2015-03-11 |
US10019263B2 (en) | 2018-07-10 |
CN104583957B (zh) | 2018-08-10 |
TW201428616A (zh) | 2014-07-16 |
TWI639953B (zh) | 2018-11-01 |
EP2862068A1 (en) | 2015-04-22 |
WO2013188306A1 (en) | 2013-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104620223A (zh) | 对于基于存储资历实现从不同线程进行转发的线程不可知的加载存储缓冲器 | |
CN104583957A (zh) | 具有无消歧乱序加载存储队列的重新排序的推测性指令序列 | |
CN104583943A (zh) | 拥有具有分布式结构的动态分派窗口的虚拟加载存储队列 | |
CN104583975A (zh) | 无消歧乱序加载存储队列 | |
CN104823154A (zh) | 具有拥有统一结构的动态分派窗口的虚拟加载存储队列 | |
CN104583942A (zh) | 用于在使用共享存储器资源的存储器一致性模型中的乱序加载的基于锁的和基于同步的方法 | |
CN104583936A (zh) | 具有组成按序从存储器进行读取的加载的存储器一致性模型中的乱序加载的信号量方法和系统 | |
CN104823168A (zh) | 用于实现从由加载存储重新排序和优化所引发的推测性转发缺失预测/错误中恢复的方法和系统 | |
CN104583956A (zh) | 用于实现加载存储重新排序和优化的指令定义 | |
CN104583939A (zh) | 用于过滤存储以防止所有存储都必须针对高速缓存的所有字进行嗅探检查的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20170315 Address after: American California Applicant after: Intel Corporation Address before: American California Applicant before: Soft Machines Inc. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |