[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4246922B2 - 保護機能付き最近最低使用頻度置換方法 - Google Patents

保護機能付き最近最低使用頻度置換方法 Download PDF

Info

Publication number
JP4246922B2
JP4246922B2 JP2000618844A JP2000618844A JP4246922B2 JP 4246922 B2 JP4246922 B2 JP 4246922B2 JP 2000618844 A JP2000618844 A JP 2000618844A JP 2000618844 A JP2000618844 A JP 2000618844A JP 4246922 B2 JP4246922 B2 JP 4246922B2
Authority
JP
Japan
Prior art keywords
list
reuse
cache data
cache
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000618844A
Other languages
English (en)
Other versions
JP2002544624A5 (ja
JP2002544624A (ja
Inventor
ウイルカーソン,クリストファー,ビイ
ウェード,ニコラス,デイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2002544624A publication Critical patent/JP2002544624A/ja
Publication of JP2002544624A5 publication Critical patent/JP2002544624A5/ja
Application granted granted Critical
Publication of JP4246922B2 publication Critical patent/JP4246922B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • G06F12/121Replacement control using replacement algorithms
    • G06F12/123Replacement control using replacement algorithms with age lists, e.g. queue, most recently used [MRU] list or least recently used [LRU] list

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Description

【0001】
【発明の分野】
本発明は、一般的に、電子コンピュータシステムのキャッシュメモリに記憶されたデータの置換に関し、さらに詳細には、望ましくない置換が起こらないように保護する最近最小使用頻度置換方法に関する。
【0002】
【発明の背景】
キャッシュメモリは、データへの高速アクセスのため、高いシステム速度必要とする高速で高価なメモリを備えた高性能コンピュータシステムに使用されることが多い。プロセッサの動作速度が速ければ速いほど、プロセッサはメモリからデータ及び命令を高速で取り出す必要がある。このため、高速でアクセス可能なメモリが必要となる。このメモリは、非常に高いクロック速度が使用されることが多いため、プロセッサに近いところに配置するのが一般的である。しかしながら、キャッシュとして動作可能な高速メモリは高価であり、大きなまたは特注のメモリをプロセッサに近いところに配置するのは実際的でない場合が多い。従って、限られた数のキャッシュメモリのバンクを、大きい主システムメモリとは別個に、プロセッサのコア近くに配置することが多い。
【0003】
キャッシュメモリは、通常、スタティックランダムアクセスメモリ(SRAM)のような高速メモリと、キャッシュコントローラとより成る。コントローラは、プロセッサがどのデータを早期に必要とする可能性があるかの予測に応じて比較的低速の主メモリからキャッシュメモリへコピーされるデータを管理する。キャッシュメモリの容量は、システムの全メモリ容量の10%と1%の間であることが多いが、部分的にコンピュータシステムのメモリアクセス特性の予測可能性に応じて大きな範囲で変化する。
【0004】
通常、メモリへのアクセスはメモリアドレスの比較的小さな領域で次々に起こるため、アクセス頻度の最も高いデータをキャッシュメモリに記憶させると、システム性能を有意に改善することができる。使用頻度の最も高いデータが比較的高速のキャッシュメモリからアクセスされるようにすると、低速の主メモリからデータがアクセスされる間プロセッサが待機を余儀なくされることがなく、これは「キャッシュヒット」と呼ばれる。プロセッサが必要とするデータがキャッシュに存在せず、主メモリから取り出さなければならない場合、そのリクエストは同様に、「キャッシュミス」と呼ばれる。
【0005】
キャッシュがメモリへのアクセス速度を事実上増加させる度合は、キャッシュヒットとキャッシュミスとのメモリリクエスト数により測定可能である。キャッシュコントローラ設計者の目標は、プロセッサが必要とする可能性が最も高いデータをキャッシュに配置して、キャッシュミスに対するキャッシュヒットの比率を最大限にすることである。かかる方式を用いると、システムは、高速メモリを備える利点を最大限に活用すると共に大部分のデータを比較的低価格の低速メモリに記憶させてシステムの全体コストを減少させることができる。
【0006】
使用頻度の低いデータを使用頻度の高いデータに置換するかかる方式の1つは、キャッシュに記憶されたデータのうち最近の使用頻度が最低(LRU)であるデータに着目してそのデータをキャッシュにロードされる新しいデータと置換することである。かかる方式は通常、データが最後にアクセスされた時からの時間を示すデータを含む、キャッシュに記憶された各データブロックに関連する多数のLRUビットを使用する。かかる方式は、キャッシュのサイズに限りがあるため、再び必要になる前にデータを大きなデータセットから変位させる。さらに、LRUアルゴリズムは、最近の使用頻度の高いデータを、そのデータの使用頻度が格段に低く、たとえただ1回使用されたものであったとしても、どちらかと言えば使用頻度の高いデータと置換する。従って、再びリクエストされる可能性の高いデータが、最近使用されたが使用頻度が低いデータに置換されないようにする方式が必要とされる。
【0007】
【発明の概要】
本発明は、キャッシュメモリシステムにデータを記憶させる方法を提供する。キャッシュデータエントリーリストは、キャッシュメモリに記憶されるキャッシュデータエントリーを記録するが、このリストは、フィルタリストと、再使用リストに分割されている。フィルタリストは、フィルタリストに新しいキャッシュデータエントリーを全て記憶させることによりエントリーが行われ、また再使用リストは、キャッシュデータエントリーをフィルタリストから選択的に昇進させることによりエントリーが行われる。選択されたキャッシュデータエントリーを再使用リストとフィルタリストのいずれかから捨てるように動作する保護プロセスが作動すると、フィルタリストと再使用リストとから要素が排除される。
【0008】
【実施例の詳細な説明】
本発明の以下の詳細な説明において、本願の一部であり、本発明の特定の実施例を例示する添付図面を参照する。これらの実施例は、当業者が本発明を実施できるように十分に詳しく記載されている。他の実施例も可能であり、本発明の範囲から逸脱することなく構造的、論理的及び電気的な設計変更を行うことができる。従って、以下の詳細な説明は限定的な意味に解すべきでなく、本発明の範囲は、頭書の特許請求の範囲と、特許請求の範囲が当然受けるべき均等物の全範囲とにより規定される。
【0009】
LRUキャッシュメモリシステムを改良して、新たなキャッシュスペースが必要になると最近最低使用頻度のキャッシュデータエントリーをただ排除する場合に生じる問題の影響を減少する方法が必要とされている。本発明は、単純なLRU置換方式を改良するものであり、キャッシュサイズに限りがあるため、再使用の前に大きなデータセットからデータを排除する問題に対処するものである。また、使用頻度の高いデータを使用頻度は低いが最近使用されたデータと置換する問題に対処するものである。本発明は、LRUキャッシュのこれら共通の問題に対する解決法を提供する。
【0010】
典型的なキャッシュメモリは、種々のバンクで同じ短縮アドレスを有する多数のメモリセルを備えており、これらのバンクは「ウェイ」と呼ばれる。例えば、アドレス長が16ビットのシステムのメモリは、4ウェイのキャッシュを備えており、各々が8ビットのアドレスを有する4つのバンクのメモリより成る。主メモリからのデータをキャッシュに記憶させる場合、データの主メモリアドレスの8つの最上位ビットが捨てられて、残りの8ビットがデータが記憶されるキャッシュアドレスとなる。所望のアドレスを有する4つのウェイ、またはメモリバンクが存在するため、最近最低使用頻度のデータを有するウェイは、通常、データが記憶されるウェイとして選択される。これは、他のメモリのウェイに記憶された使用頻度の高いデータの前に、最近最低使用頻度のデータが必要とされる可能性が低いことによる。この仮定は常に正しい訳ではなく、LRUデータが実際、使用頻度が高い場合がある。多数の異なるキャッシュアーキテクチャ及びキャッシュ記入/置換アルゴリズムが存在するが、上記説明は、最近最低使用頻度(LRU)置換アルゴリズムを用いる1つのかかるマルチウェイキャッシュの一例にすぎない。
【0011】
本発明は、キャッシュメモリから排除されるデータが早期使用の可能性が最低ではないデータを含むウェイから選択される普通の方式である、容量による変位法及び関連性による変位法の問題を克服するように設計されたLRUアルゴリズムを含む。
【0012】
容量による変位は、データの使用頻度が低いため、最近最低使用頻度のデータの早期アクセス可能性が、最近使用頻度の高いウェイのデータよりも実際に大きい場合に起こる。例えば、容量による変位は、16kBのキャッシュに一部が記憶される32kBの大きさのデータより成る画像に対する画像編集プロセスに、その画像を反復してアクセスする必要がある場合に、影響を与える。画像を構成するデータバイトが次々にアクセスされ、アクセスと共にキャッシュに記憶される場合、キャッシュには常に16kBの大きさの画像情報が存在するが、そのプロセスは、キャッシュに実際に記憶された情報を再び必要とする前に、もう1つの16kBの画像情報をアクセスする必要がある。画像ファイルの第1の部分を再びアクセスする時、キャッシュは画像の第2の部分からの最近使用頻度の最も高いデータだけを含んでいる。同様に、プロセスが画像の第2の部分からのデータを必要とする時、そのデータは、画像の第1の部分からより最近アクセスされたデータと置換されている。かかるプロセスにはキャッシュミスが必ず大きな割合で起こるが、その理由は、キャッシュが反復使用される全てのデータを記憶する容量をただ備えていないためである。
【0013】
データがキャッシュから排除されるもう1つの普通の方式は、関連性による変位である。これは、ある特定のデータが、繰り返し必要とされるが、使用頻度の低い多量のデータがアクセスされるため、排除される時に起こる。例えば、データ構造Aと、データ要素Bとを取り扱うただ4つのエントリーを有するキャッシュを考える。データがA1、A2、A3、A4、A5,B、A6、A7、A8、A9、B、A10、A11、A12、A13、A14、Bなどの順序でアクセスされる場合、キャッシュはBを決して含まず、データ構造Aの最近使用頻度の高い要素を含む。Bはデータ構造Aの何れの単一要素より使用頻度は格段に高いが、従来のLRUアルゴリズムはBのようなアクセス頻度の高いデータは優先しない。
【0014】
LRUアルゴリズムを実現するためには、キャッシュコントローラは、ウェイ内の特定のアドレスについて何れのウェイが最近使用頻度が最も高いかを示すデータを処理しなければならない。キャッシュコントローラは、何れのウェイが最近使用頻度が最も高いかに関するデータを記憶させると共に、そのデータを復号して、何れのウェイが、最近使用頻度が最低であり、新しく使用されるデータと置換しなければならないかを決定する役割を有する。図1は、4ウェイキャッシュの特定のアドレスについて何れのウェイの最近使用頻度が最低かを追跡する1つの方式を部分的に示す表である。
【0015】
図1は、各ウェイ内の特定のアドレスの使用順序を記録するために使用可能な要素(i,j)の二次元マトリックスより成る表であり、この要素(i,j)は、ウェイ(i)のデータがウェイ(j)のデータより使用頻度が高い場合は1であり、ウェイ(i)のデータがウェイ(j)のデータより使用頻度が低い場合は0である。マトリックスの対角線上要素であるアドレス(0,0)乃至(3,3)は、(i)及び(j)が共に同じウェイを参照するため、無視できるから、意味のある情報を含まないことに注意されたい。また、この対角線の一方の側の要素は他方の側の要素の逆数であるため、(3,2)が1で、ウェイ3がウェイ2よりも使用頻度が高いことを意味する場合、ウェイ2の最近使用頻度はウェイ3より高いことはありえず、(2、3)は論理0でなければならない。従って、対角線の一方の側の要素は対角線と共に捨てることが可能であり、使用順序の記録に重要なマトリックスの数で表される要素だけを残す。従って、これら5個の数字を付したマトリックス要素が、5個のマトリックス要素(i,j)のアレイLで表される5ビットの列により表され、L={(0,1),(0,2),(1,2),(0,3),(1,3),(2,3)}であり、各ビットは、要素(i)が要素(j)よりもより最近使用頻度が高ければ1を含む。アレイLのこれら5つのビットは、単一の数で容易に参照することができるため、L=(0,1,2,3,4,5)であり、各ビットはアレイLの前のマトリックス表示で与えられる順序のマトリックス要素に対応する。
【0016】
図2は、新しいデータにアクセスし、新しくアクセスしたデータをキャッシュに書き込む時、アレイLの5つのビットを更新するためにキャッシュのこの例の動作に用いる更新表を示す。この更新マトリックスは、新しくアクセスするデータを記憶させるために何れのウェイを使用するかに応じて、Lの何れのビットを特定のアドレスに対して変化させるかを示す。キャッシュは4ウェイキャッシュであり、4つのウェイのうちの任意の1つがデータを記憶させるために選択可能であるため、マトリックスの1つの軸はキャッシュシステムの4つのウェイを表す。もう1つの軸は、4つのウェイのうち最近使用頻度が最も高いウェイにデータを記憶させ、もう1つの軸に表されるようにアクセスされるウェイに対応する、アレイLの5つのビットを表す。例えば、ウェイ2がワードLのチェックにより特定のアドレスについて最近使用頻度が最も低いと判定される動作では、ウェイ2は入来データと置換される。ウェイ軸のウェイ2を参照して、マトリックスは、ビット0、3及び4は不変であるが、ビット1及び2は0にセットされ、ビット5は1に変化していることを示す。アレイLのマトリックス要素表示法を再び参照して、その式は、ビット1及び2を0にセットすると、ウェイ0がウェイ2よりも最近使用頻度が低く、ウェイ1がウェイ2よりも最近使用頻度が低いことを示す。同様に、ビット5を1にセットすると、ウェイ2がウェイ3よりも最近使用頻度が高いことを示す。アレイLのマトリックス表示法をさらに検討すると、ビット0、3及び4はウェイ2についての情報を含まず、そのため不変であることがわかる。キャッシュへの書き込みの毎にこの方法に従ってビットを更新することにより、アレイLは、キャッシュのウェイの使用順序についての正確な情報を常に含むことになるため、キャッシュコントローラが新しいデータをキャッシュの最近使用頻度が最も低いウェイに割り当てるために使用することができる。
【0017】
キャッシュコントローラは、図2の更新表の補足物に過ぎない犠牲者選択表を用いてこれを行う。図3は、マトリックスの全ての1が0で置換され、全ての0が1で置換され、全ての不変ビットが不変のままであるような、この例のキャッシュの犠牲者選択表を示す。マトリックスから読み取られる要素の補足物の発見は、エレクトロニクスまたは他の手段により全く容易に行うことが可能であるため、犠牲者選択表を維持する必要はないが、図2の更新表からデータを取り出しながら変換することによって行うことができる。図3の各要素は動作時にマスクとして使用されるため、マスクの内容がアレイLに記憶されたデータと比較される。4つのマスクのうちの任意のもののデータがアレイLのデータとマッチする場合、そのマスクに関連するウェイが、最近使用頻度が最も低く新しいデータの目標となるウェイとして選択される。図3のマスクが、ウェイ間で互いに排他的なビットデータを含むため、4つのマスクのうち1つだけがアレイLの任意可能な組み合わせのビットにマッチし、特定のマスクを最近使用頻度が最も低いものとして指示することに注意されたい。これは、マスクとアレイLとは同時に比較可能であることを意味し、ただ1つのウェイだけがキャッシュの書き込み動作のための目標として選択される。
【0018】
例えば、特定のアドレスのウェイが2、3、0、1の順序で使用されており、ウェイ1が最近使用頻度が最も高く、ウェイ2が最近使用頻度が最も低い場合を考える。図2の更新表を用いると、全ての更新を行った後、アレイLはデータL=(0,1,1,1,1,0)を含む。このワードを図3のマスクと比較すると、ウェイ0では、ビット0、1及び3が不正確であり、ウェイ1では、ビット1及び3が不正確であり、ウェイ2では、ビット1、2、5が不正確であることがわかる。ウェイ2では、犠牲者選択マトリックスのマスクのビット1、2及び5はアレイLのデータとマッチするため、ウェイ2は最近使用頻度が最も低いウェイとして適正に選択される。
【0019】
前の段落で説明した例は、キャッシュシステムにおけるLRU置換の一例であり、前述したような普通のLRU置換方式の短所を有する。本発明は、上述した方式を改良するもので、関連性及び容量による変位のありふれた問題に対処するものである。
【0020】
保護機能付きLRU、即ち、LRUPは、従来のLRUウェイリストを少なくとも2つのサブリストに分割したものである。1つの実施例では、従来のLRUウェイリストを改良するために、各ウェイが、そのウェイに記憶されるデータが再使用サブリストまたはフィルタサブリストの一部であるかを示す再使用/フィルタビットを含むようにする。LRUの順序は大域的に維持されるため、LRUウェイから最近使用頻度が最も高いウェイまでの任意のウェイは、大域的リストに加えて、再利用リストまたはフィルタリストのいずれか1つの一部である。再使用リスト及びフィルタリストのデータを別個に管理する種々のプロセスは、その後、変位の問題に対処し、LRUPキャッシュの性能を最適化するように調整される。
【0021】
本発明の1つの実施例において、キャッシュ要素を、フィルタリストの一部として最初に割り当てる。フィルタリストの選択要素を、指名プロセスにより再使用リストに昇進させ、再使用リストへエントリーとして記入する。指名によりキャッシュラインがフィルタリストから再使用リストへ移動するため、指名を引き続き行うと、再使用リストが無限に大きくなって、最終的にキャッシュ要素がフィルタリストから押し出されることになる。従って、保護プロセスは、入来データを記憶させるために新しいキャッシュラインを割り当てると、再使用リストまたはフィルタリストの間で排除するメンバーの選択を行うことにより、フィルタリストと再使用リストの間で要素が適正に分配されるようにする。
【0022】
フィルタリストから再使用リストへの要素の指名は、望ましくない変位減少させるように調整された多数のプロセスにより行われる。関連性による変位を減少させるトリガーによる指名は、記憶されるデータがフィルタリストにある間に再使用されるなら、キャッシュラインをフィルタリストから再使用リストへ移動させることを含む。容量による変位を減少させるランダムな指名では、再使用リストに含まれるようにするために、フィルタリストから、新しく割り当てられたキャッシュラインがランダムに選択される。トリガーによる指名とランダムな指名との組み合わせ及び変更は、本発明の範囲内に含まれると考えられ、かかるものの幾つかの実施例を以下において説明する。
【0023】
トリガーによる指名は、ある特定の要素を使用リストに昇進させるのがそれほど望ましくない特定の状況を評価することにより、フィルタリストにある間使用されるキャッシュラインを再使用リストに昇進させるという簡単な規則を変更するものである。例えば、大域リストの最近使用頻度の最も高い位置にある間に参照される要素は、単一の演算または計算の一部として再アクセスされるため、2つの異なる時間にアクセスされる要素より再アクセスの可能性が低い。これらの要素は、その後、昇進から除外されるが、後で再使用または排除されるまでは、フィルタリストの一部として留まる。同様に、フィルタリストの最近使用頻度が最も高い位置にある間に参照される要素は、トリガーによる指名の間、再使用リストへの昇進から除外されるか、または、大域リストまたはフィルタリストの何れかの最近使用頻度の高い多数の位置にある要素が指名から除外される。
【0024】
ランダムな指名は、ランダムに選択したキャッシュラインを再使用リストへ指名することを含む。通常のランダムな指名の変形例は、大域リストに対する使用リストのサイズをモニターし、再使用リストが大きくなるにつれてランダムな指名をますます可能性の低いものとするランダムな選択アルゴリズムを用いることを含む。上述の例に加えて、データをランダムに選択するための多数の他の方法が存在するが、これらは本発明の範囲内に含まれるものと考えられる。
【0025】
トリガーによる指名とランダムな指名との組み合わせを用いて、関連性による変位及び容量による変位の両方に対処することが可能であり、これら両方のアルゴリズム及びそれらの変形例を、特定のキャッシュ構成についてキャッシュヒットとキャッシュミスの比率を最適化するように選択する。例えば、本発明との間に一貫性がある1つの指名プロセスの実施例は、使用リストのサイズが増大するにつれてランダムな指名の可能性がますます低くなるランダムな指名アルゴリズムと共に、フィルタリストの最近使用頻度の最も高い要素を排除するトリガーによる指名方式を使用する。かかる組み合わせによると、トリガーによる指名アルゴリズムによる指名と、ランダムな指名アルゴリズムによる指名とが自動的に平衡するという利点があるが、その理由は、ランダムな指名アルゴリズムが再使用リストのサイズに依存するからである。これにより、再使用リストのサイズの安定化が得られると共に、関連性による変位と容量による変位の両方への対処を依然として効果的に行うことができる。
【0026】
再使用リストへのエントリーの記入は、データの特定の特性に応じてキャッシュデータのエントリーを使用リストに昇進させる分類方式などのような、他の指名プロセスにより行うことができる。種々の指名プロセスにより昇進されるキャッシュラインは、再使用リストからデータを昇進させるか、または新しく割り当てられたキャッシュデータエントリーを昇進させるか、もしくは別の方法により選択されたキャッシュデータエントリーを昇進させる。指名プロセスを組み合わせて用いることにより、容量及び関連性による変位、あるいはキャッシュを非効率にする他の問題に対処することができる。再使用リストへの昇進のためにキャッシュラインを選択する他の指名プロセスが存在し、また展開可能であると予想されるが、これらは本発明の範囲内であると考えるべきである。
【0027】
保護アルゴリズムは、大域リストまたはフィルタリストから排除される要素を選択することにより、再使用リストのサイズをさらに制御する。大域リストはフィルタリストと再使用リストの両方から構成されるため、大域リストからの排除は、再使用リストまたはフィルタリストの何れかからの排除であることに注意されたい。2つの保護アルゴリズム、即ち、ストライクアルゴリズムと、LRUカウンタアルゴリズムについて説明する。
【0028】
ストライクアルゴリズムは、ストライクカウンタを用いて、再使用リストの最近使用頻度が最も低い要素が不変である間にメモリへのアクセスがキャッシュミスとなった回数を追跡する。最大許容ストライクしきい値を予めセットし、ストライクカウンタの値と比較して、ストライクカウンタの値が最大許容ストライクしきい値を超えると、大域リストのLRU要素が排除されるようにする。再使用リストにおける要素の寿命は、再使用リストを大きくするか、または最大許容ストライクしきい値を増加させることにより延長可能であるが、最大許容ストライクしきい値を大きくすると、大域リストの要素の寿命が増加する。従って、比較的大きな再使用リストでは、最大許容ストライクしきい値を低くするのが望ましく、比較的小さい再使用リストでは、このしきい値を高くするのが望ましい。従って、ストライクアルゴリズムの1つの実施例は、再使用リストのサイズに応じてストライクしきい値を変化させる方法を使用する。
【0029】
LRUカウンタ保護アルゴリズムは、フィルタリストからのキャッシュラインの排除に対する再使用リストからのキャッシュラインの排除コストを予想しようとする。カウンタは、フィルタリスト及び使用リストの両方のLRU要素への参照を追跡するため、各リストのLRU要素がアクセスされる可能性の見積りを比較することができる。かかる方式の1つの実施例は、0でスタートし、再使用リストのLRU要素が参照される毎にカウントアップし、フィルタリストのLRU要素が参照される毎にカウントダウンするカウンタを使用する。別法として、ヒステリシスビットをカウンタに追加して、フィルタリストまたは再使用リストのいずれか一方のリストのLRUビットが連続して(もう一方のリストのLRUへの中間的な参照なしに)参照されると、1つおきの参照たびにカウンタが増分または減分されるようにする。
【0030】
排除が必要な場合、LRUのカウンタの値を用いて、再使用リストの最大許容サイズを求め、再使用リストまたはフィルタリストのいずれからキャッシュラインを排除すべきであるかを決定する。一例として、1つの実施例で排除が必要であり、カウンタが再使用リストへの頻繁なアクセスを示す正の数をホールドするケースを考える。その場合、LRUカウンタの値を、再使用リストのしきい値と比較する。カウンタ値がしきい値を越える場合、所定の大きなサイズのリストが示唆されており、カウンタ値がしきい値よりも小さい場合、所定の小さいサイズのリストが必要とされる。その後、選択された所定のリストサイズを再使用リストの実際のサイズと比較し、所定のサイズが再使用リストの実際のサイズよりも小さい場合に限り、再使用リストからラインを排除する。そうでなければ、フィルタリストからラインを排除する。表は、多数の所定しきい値と、それらに対応する使用リストのサイズとを含み、その目的は再使用リストのサイズ及びそのリストからの排除最適化にあることに注意されたい。かかる方式は、再使用リストのサイズを制御するだけでなく、フィルタリストまたは再使用リストの何れにあるかに関係なく、使用される可能性が最も低いデータを排除する作用を有する。
【0031】
動作時、再使用リストとフィルタリストとを管理するには、各キャッシュ要素が何れのリストの一部であるかを示すデータビットを使用する必要がある。高速キャッシュを最適動作させて、大きなキャッシュヒット対ミスの比率から得られる利点を得るためには、各リストの順序付けを、それぞれ独立に、且つそれらを組み合わせた大域リストとして、迅速且つ効率良く行わなければならない。
【0032】
再使用リスト指示ビットを使用するLRUPキャッシュの実施例を、かかるキャッシュの使用リスト及びフィルタリストを管理する1つの方法の一例として、ここで説明する。
【0033】
再使用リストまたはフィルタリストのメンバーであるキャッシュ要素間の識別は、かかるキャッシュにおいて、各キャッシュ要素に関連する再使用ビットをチェックすることにより容易に行うことができる。例えば、図4において、キャッシュ要素が再使用リストのメンバーである場合、使用ビットは、ウェイ1及び2のように、1にセットされている。要素がフィルタリストのメンバーである場合、再使用ビットは、ウェイ0及び3のように、0にセットされている。キャッシュコントローラが、LRUPキャッシュの一部として説明するプロセスの1つを実行するために、フィルタリストまたは再使用リストの何れのLRUウェイかを判定する必要がある場合、キャッシュコントローラが求める順序の少なくともそのリストについて使用順序を維持して、大域リストを2つのリストに分離しなければならない。このプロセスを、サブリスト順序抽出と呼び、かかるプロセスの一例を以下において説明する。
【0034】
この例の方法におけるサブリスト順序抽出の目的は、大域リストのLRU要素が抽出を受けるサブリストのLRU要素であるように、順序を変更した大域リストを作成することである。大域リストのMRU位置へ、抽出されないサブリストの要素を再び挿入する方式についてここで説明するが、この方法は、抽出されるリストの順序を保持して、リストのLRUビットが正しく識別されるようにするが、抽出されないリストの要素順序情報は失われる。
【0035】
図4を再び参照して、再使用リストのLRU要素の抽出について説明する。抽出されるサブリスト(再使用リスト)は、関連の再使用ビットにより示されるように、要素1及び2より成り、要素0及び3が抽出中でないサブリストのメンバーであることも示す。図4の要素0−4を表すために数字を付した各行は、リストのメンバーが新しいアレイを引き出すために抽出中でない場合、アレイLに適用されるマスクを表す。この新しいアレイは、LRUが抽出中のサブリストのLRUである順序を変更した大域リストを表す。
【0036】
例えば、「古い」と記した行は、元のLRUリストを表し、3、2、1、0の順序を示すが、3は最近使用頻度が最も低く、0は最近使用頻度が最も高いキャッシュ要素である。再使用リストを抽出するため、再使用リストの一部でない要素0及び3のマスクがアレイLに適用される。これにより、「新しい」と記した行に示す新しいアレイが生まれるが、これは抽出中のリストの要素の順序を反映する一方、抽出中でないリストの要素がMRU位置にあることをアレイが示すようにする。しかしながら、抽出中のリストの一部でない要素のマスクが、古いアレイLに、アレイLのそれらの古い位置を表さない順序で適用されるため、抽出中でないリストの順序情報が失われる。
【0037】
この特定の例では、新しいアレイ(0、0、0、0、1、1)は2、1、0、3の順序を表すが、2はLRU要素、3はMRU要素である。ウェイ0及び3のマスクがランダムな順序で適用されたため、新しいアレイは、0が実際に3より最近使用頻度が高い時、3が0より最近使用頻度が高いことを示す。しかしながら、この情報はアレイLに保管されず、また抽出中のリストの順序の維持だけに興味があるため、このタイプのエラーは本願にとっては重要ではない。
【0038】
あたらしいアレイの作成によるサブリストの抽出は、1つの例において組み合わせ論理を用いることにより行うことが可能であり、従って、非常に迅速に完了することができる。サブリストの順序を異なる方式で取り出す他の実施例が存在するが、それは、抽出中でないサブリストの順序を保持することを含む。サブリストを抽出するについて新しいアレイを作成し使用した後、新しいアレイは古いアレイLに書き戻さない。従って、アレイLはそのままであり、実際の要素の順序が保持され、必要に応じて組み合わせ論理のような方法により、サブリストの非破壊的抽出を繰り返し行うことができる。
【0039】
ここで説明するようなキャッシュシステムは、図5に示すシステムにおけるようなコンピュータに使用されるプロセッサの一部である。キャッシュシステムはプロセッサコアの一部である必要はないが、大きなプロセッサモジュールの一部として、別個のデバイスとして、またはプロセッサへ接続されるものとして実現可能である。システムは、システムバス502に取り付けられたプロセッサコア501を有する。システムバスとプロセッサは、キャッシュコントローラ503によりリンクされ、このコントローラはキャッシュ504にも接続されている。バスは、ハードディスクドライバ505のようなデータ記憶装置に接続され、またポート506のような1またはそれ以上の入出力ポートに接続されている。キャッシュコントローラは、プロセッサからメモリフェッチリクエストを受信し、リクエストされたデータがそこに記憶されておれば、キャッシュからリクエストに対応し、そうでなければ、主メモリからそのリクエストに対応する。キャッシュコントローラは、前述したように、本発明に従って、キャッシュ要素置換のLRUP方式により、キャッシュ504におけるデータを維持する。
【0040】
キャッシュコントローラ503のようなキャッシュコントローラは、集積回路上の論理回路として物理的に実現して、集積回路の少なくとも一部が、前述したように、LRUP方式によりキャッシュにおいてデータを維持するように作動可能である。例えば、上述したように、キャッシュを再使用リストと、フィルタリストに分割し、再使用リストと、フィルタリストにエントリーを記入し、再使用リスト及びフィルタリストからデータエントリーを排除する機能を実行可能なモジュールを備えた集積回路は、本発明の実施例と一貫性を有するものである。特に、本発明は、プロセッサまたはプロセッサモジュール、マザーボードチップセット、キャッシュコントローラチップ、または他の集積回路の少なくとも一部より成る回路で実施されることを企図されており、これらは全て本発明の範囲内にあると考えるべきである。
【0041】
図6は、データ記憶サブシステムを示す。このシステムは、コンピュータシステムのシステムバス602に記憶コントローラ601が接続されたものである。記憶コントローラは、多量のデータの非揮発性記憶装置として一般的に使用される、1またはそれ以上のハードディスクドライブ603にも接続されている。記憶コントローラはさらに、キャッシュ604に接続され、このキャッシュは、ハードディスクドライブ603よりも迅速にデータの記憶及び取り出しを行なうことができるが、一般的に高価で小容量である。記憶コントローラ601は、ハードディスクドライブからのデータを記憶し、取り出すリクエストに応答し、キャッシュ604に使用頻度の高いデータを維持する。キャッシュコントローラは、本願のLRUPキャッシュの説明に従って、キャッシュのデータを管理する。
【0042】
上述したような保護機能付きLRUは、従来のLRU置換方式の共通の問題に対する解決法を与えることにより、従来のLRU置換方式に対して実質的な性能上の利点を提供する。キャッシュエントリーリストをフィルタサブリストと、再使用リストに分割することにより、エントリー記入及び保護プロセスを実行して、関連性及び容量による変位を減少させることができる。新しいキャッシュエントリーは最初にフィルタリストに記憶され、フィルタリストから昇進したエントリーが再使用リストに記入される。フィルタリスト及び再使用リストからの排除は、フィルタリスト、再使用リストまたは大域リストからデータエントリーを排除する保護プロセスにより行われる。保護及び排除プロセスの多くの変形例を、それぞれが従来のLRU置換方式に存在する望ましくない変位の問題の影響を軽減することにより得られる利点と共に説明した。
【0043】
特定の実施例を図示説明したが、当業者にとっては、同じ目的を達成する任意の構成を図示の特定の実施例に置き換えることが可能であることがわかるであろう。本願は、本発明の任意の変形例または設計変更を包含するように意図されている。本発明は、特許請求の範囲及びその均等物の全範囲によってのみ限定されることを意図されている。
【図面の簡単な説明】
【図1】 図1は、本発明の実施例と一貫する、最近最小使用頻度(LRU)順序マトリックスを表す表である。
【図2】 図2は、本発明の実施例と一貫する、特定のウェイのデータへのアクセスに応答して変化するマルチウェイのLRU置換キャッシュワードのビットを表す表である。
【図3】 図3は、本発明の実施例と一貫する、マルチウェイLRUキャッシュ置換における犠牲者選択に使用する復号マスクを表す表である。
【図4】 図4は、本発明の実施例と一貫する、サブリスト順序付けマスクと、関連のLRUウェイ保護ビットを備えたLRUワードへのかかるマスクの適用例とを表す表である。
【図5】 図5は、本発明の実施例と一貫する、プロセッサ、メモリ及びLRUPキャッシュを備えた汎用コンピュータを示す。
【図6】 図6は、本発明の実施例と一貫する、LRUPキャッシュを組み込んだデータ記憶システムを示す。

Claims (21)

  1. キャッシュメモリシステムにデータを記憶させる方法であって、
    キャッシュメモリに記憶させたデータのリストを含むキャッシュデータエントリーリストを作成し、
    キャッシュデータエントリーリストを再使用リストとフィルタリストに分割し、
    新しいキャッシュデータエントリーをフィルタリストに割り当てることによりフィルタリストにエントリーを記入し、
    昇進プロセスにより再使用リストにエントリーを記入し、
    選択されたキャッシュデータエントリーを再使用リストとフィルタリストのいずれかから捨てるように動作する保護プロセスの作動によりフィルタリスト及び再使用リストからキャッシュデータエントリーを排除するステップより成る、キャッシュメモリシステムへのデータ記憶方法。
  2. キャッシュデータエントリーの再使用リストとフィルタリストへの分割は、各キャッシュデータエントリーに関連する再使用ビットを所定の値にセットすることにより行われる請求項1の方法。
  3. 再使用リストへのエントリーの記入は、フィルタリストの一部である間にアクセスされたキャッシュデータエントリーを再使用リストに昇進させることにより行われる請求項1の方法。
  4. 再使用リストへのエントリーの記入は、指名プロセスにより選択されたキャッシュデータエントリーを再使用リストに昇進させることにより行われる請求項1の方法。
  5. 再使用リストへのエントリーの記入は、キャッシュデータエントリーをフィルタリストから再使用リストへランダムに昇進させることにより行われる請求項1の方法。
  6. キャッシュデータエントリーは、キャッシュメモリシステムに現在記憶されていないデータに対するリクエストであるキャッシュミスに限り応答して、フィルタリストから再使用リストへランダムに昇進される請求項5の方法。
  7. 再使用リストへのエントリーの記入は、さらに、フィルタリストから、新しく割り当てられたキャッシュラインをランダムに選択して再使用リストへ含まれるようにすることである請求項1の方法。
  8. 再使用リストまたはフィルタリストからのキャッシュデータエントリーの排除は、
    再使用リスト及びフィルタリストの各々の長さを計算し、
    再使用リスト及びフィルタリストの長さを所望の長さと比較し、
    キャッシュメモリシステムに記憶させる新しいキャッシュデータエントリーを受け、
    キャッシュデータエントリーを何れかのリストから排除して、新しいキャッシュデータエントリーの記憶場所を提供することより成り、
    キャッシュデータエントリーは、計算した長さと所望の長さとの比較結果に応じて選択されたリストから排除される請求項1の方法。
  9. データを電子的に記憶させ、取り出すように作動可能で、キャッシュメモリを実現するコンピュータシステムであって、
    キャッシュメモリへのデータの記憶は、
    キャッシュメモリに記憶させたデータのリストを含むキャッシュデータエントリーリストを作成し、
    キャッシュデータエントリーリストを再使用リストとフィルタリストに分割し、
    新しいキャッシュデータエントリーをフィルタリストに割り当てることによりフィルタリストにエントリーを記入し、
    フィルタリストからキャッシュデータエントリーを昇進させることにより再使用リストにエントリーを記入し、
    選択されたキャッシュデータエントリーを再使用リストとフィルタリストのいずれかから捨てるように動作する保護プロセスの作動によりフィルタリスト及び再使用リストからキャッシュデータエントリーを排除するように行われるコンピュータシステム。
  10. キャッシュメモリにデータを記憶させる方法であって、
    キャッシュメモリに記憶させたデータのリストを含むキャッシュデータエントリーリストを作成し、
    キャッシュデータエントリーリストを再使用リストとフィルタリストに分割し、
    キャッシュデータエントリーリストの各キャッシュデータエントリーの使用順序を追跡し、
    新しいキャッシュデータエントリーをフィルタリストに割り当てることによりフィルタリストにエントリーを記入し、
    フィルタリストからキャッシュデータエントリーを昇進させることにより再使用リストにエントリーを記入し、
    選択されたキャッシュデータエントリーを再使用リストとフィルタリストのいずれかから捨てるように動作する保護プロセスの作動によりフィルタリスト及び再使用リストからキャッシュデータエントリーを排除するステップより成る、キャッシュメモリへのデータ記憶方法。
  11. 再使用リストへのエントリーの記入は、さらに、フィルタリストの一部である間にアクセスされたキャッシュデータエントリーを再使用リストに昇進させることにより行われる請求項10の方法。
  12. 再使用リストへのエントリーの記入は、さらに、キャッシュデータエントリーがフィルタリストにあるが、フィルタリストにおける最近使用頻度が最も高いキャッシュデータエントリーではない間に使用されると、フィルタリストから再使用リストに昇進させることにより行われる請求項10の方法。
  13. 再使用リストへのエントリーの記入は、さらに、キャッシュデータエントリーがフィルタリストにあるが、キャッシュデータエントリーリストにおける最近使用頻度が最も高いキャッシュデータエントリーではない間に使用されると、フィルタリストから再使用リストに昇進させることにより行われる請求項10の方法。
  14. 再使用リストへのエントリーの記入は、さらに、フィルタリストから、新しく割り当てられたキャッシュラインをランダムに選択して再使用リストへ含まれるようにすることである請求項10の方法。
  15. フィルタリストから再使用リストへの昇進のための新しく割り当てられたキャッシュラインのランダムな選択は、再使用リストのサイズが大きくなるにつれてますます可能性が低くなる請求項14の方法。
  16. 保護プロセスは、さらに、
    キャッシュメモリに現在記憶されていないデータに対するリクエストであるキャッシュミスを、再使用リストの最近使用頻度が最も低いキャッシュデータエントリーが不変である間に、ストライクカウンタにおいてカウントし、
    ストライクカウンタの値を最大許容ストライクしきい値と比較し、
    ストライクカウンタの値が最大許容ストライクしきい値よりも大きい場合、キャッシュデータエントリーリストの最近使用頻度が最も低いキャッシュデータエントリーを排除するステップより成る請求項10の方法。
  17. 保護プロセスは、さらに、
    再使用リストの最近使用頻度が最も低いキャッシュデータエントリーを参照する毎にカウンタを増分し、
    フィルタリストの最近使用頻度が最も低いキャッシュデータエントリーを参照する毎にカウンタを減分し、
    カウンタの値に基づき再使用リストの最大許容サイズを計算し、
    再使用リストの実際のサイズを計算し、
    再使用リストの実際のサイズが再使用リストの最大許容サイズより大きい場合、キャッシュデータエントリーリストの最近使用頻度が最も低いキャッシュデータエントリーを排除し、
    フィルタリストの最近使用頻度が最も低いキャッシュデータエントリーが存在し、且つ再使用リストの実際のサイズが再使用リストの最大許容サイズよりも大きくない場合、フィルタリストのかかるキャッシュデータエントリーを排除し、
    フィルタリストが空であり、再使用リストの実際のサイズが再使用リストの最大許容サイズより大きくない場合、キャッシュデータエントリーリストの最近使用頻度が最も低いキャッシュデータエントリーを排除するステップより成る請求項10の方法。
  18. 保護プロセスはさらに、
    カウンタの値をしきい値と比較し、
    しきい値に対するカウンタの値に基づき再使用リストの最大許容サイズを発生させるステップより成る請求項17の方法。
  19. 保護プロセスは、さらに、
    フィルタリストの最近使用頻度が最も低いキャシュデータエントリーへの中間的な参照なしに再使用リストの最近使用頻度が最も低いキャッシュデータエントリーを連続して参照すると、1つおきの参照毎にカウンタを増分し、
    再使用リストの最近使用頻度が最も低いキャシュデータエントリーへの中間的な参照なしにフィルタリストの最近使用頻度が最も低いキャッシュデータエントリーを連続して参照すると、1つおきの参照毎にカウンタを減分し、
    カウンタの値に基づき再使用リストの最大許容サイズを計算し、
    再使用リストの実際のサイズを計算し、
    再使用リストの実際のサイズが再使用リストの最大許容サイズより大きい場合、キャッシュデータエントリーリストの最近使用頻度が最も低いキャッシュデータエントリーを排除し、
    フィルタリストの最近使用頻度が最も低いキャッシュデータエントリーが存在し、再使用リストの実際のサイズが再使用リストの最大許容サイズよりも大きくない場合、フィルタリストのかかるキャッシュデータエントリーを排除し、
    フィルタリストが空であり、再使用リストの実際のサイズが再使用リストの最大許容サイズより大きくない場合、キャッシュデータエントリーリストの最近使用頻度が最も低いキャッシュデータエントリーを排除するステップより成る請求項10の方法。
  20. キャッシュメモリにデータを記憶させるように作動可能な回路を有する集積回路であって、
    キャッシュデータエントリーリストを再使用リストとフィルタリストに分割し、
    キャッシュデータエントリーリストの各キャッシュデータエントリーの使用順序を追跡し、
    新しいキャッシュデータエントリーをフィルタリストに割り当てることによりフィルタリストにエントリーを記入し、
    フィルタリストからキャッシュデータエントリーを昇進させることにより再使用リストにエントリーを記入し、
    選択されたキャッシュデータエントリーを再使用リストとフィルタリストのいずれかから捨てるように動作する保護プロセスの作動によりフィルタリスト及び再使用リストからキャッシュデータエントリーを排除するように動作する集積回路。
  21. データを電子的に記憶させ、取り出すように作動可能で、キャッシュメモリより成るコンピュータシステムであって、
    キャッシュメモリへのデータの記憶は、
    キャッシュデータエントリーリストを再使用リストとフィルタリストに分割し、
    キャッシュデータエントリーリストの各キャッシュデータエントリーの使用順序を追跡し、
    新しいキャッシュデータエントリーをフィルタリストに割り当てることによりフィルタリストにエントリーを記入し、
    フィルタリストからキャッシュデータエントリーを昇進させることにより再使用リストにエントリーを記入し、
    選択されたキャッシュデータエントリーを再使用リストとフィルタリストのいずれかから捨てるように動作する保護プロセスの作動によりフィルタリスト及び再使用リストからキャッシュデータエントリーを排除するように行われるコンピュータシステム。
JP2000618844A 1999-05-18 2000-05-17 保護機能付き最近最低使用頻度置換方法 Expired - Fee Related JP4246922B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/314,233 US6393525B1 (en) 1999-05-18 1999-05-18 Least recently used replacement method with protection
US09/314,233 1999-05-18
PCT/US2000/013569 WO2000070468A1 (en) 1999-05-18 2000-05-17 Least recently used replacement method with protection

Publications (3)

Publication Number Publication Date
JP2002544624A JP2002544624A (ja) 2002-12-24
JP2002544624A5 JP2002544624A5 (ja) 2008-09-04
JP4246922B2 true JP4246922B2 (ja) 2009-04-02

Family

ID=23219131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000618844A Expired - Fee Related JP4246922B2 (ja) 1999-05-18 2000-05-17 保護機能付き最近最低使用頻度置換方法

Country Status (8)

Country Link
US (1) US6393525B1 (ja)
EP (1) EP1190327A1 (ja)
JP (1) JP4246922B2 (ja)
CN (1) CN100489817C (ja)
AU (1) AU5024600A (ja)
BR (1) BR0010620A (ja)
HK (1) HK1048176B (ja)
WO (1) WO2000070468A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6745291B1 (en) * 2000-08-08 2004-06-01 Unisys Corporation High speed LRU line replacement system for cache memories
TWI228704B (en) * 2001-03-23 2005-03-01 Yamaha Corp Music sound synthesis with waveform caching by prediction
US6918020B2 (en) * 2002-08-30 2005-07-12 Intel Corporation Cache management
US6973540B2 (en) * 2003-07-25 2005-12-06 Freescale Semiconductor, Inc. Method and apparatus for selecting cache ways available for replacement
EP1667028A4 (en) * 2003-09-19 2008-10-29 Matsushita Electric Ind Co Ltd ANTEMEMOIRE AND METHOD FOR CONTROLLING ANTEMEMOIRE
CN1311367C (zh) * 2003-10-23 2007-04-18 英特尔公司 用于提高存取数据请求的处理速度的方法、装置和系统
CN100424658C (zh) * 2003-11-18 2008-10-08 松下电器产业株式会社 高速缓冲存储器及其控制方法
US7069389B2 (en) * 2003-11-26 2006-06-27 Microsoft Corporation Lazy flushing of translation lookaside buffers
US7146466B2 (en) * 2004-03-23 2006-12-05 International Business Machines System for balancing multiple memory buffer sizes and method therefor
KR100577384B1 (ko) * 2004-07-28 2006-05-10 삼성전자주식회사 페이지 정보를 이용한 페이지 대체 방법
US7321954B2 (en) * 2004-08-11 2008-01-22 International Business Machines Corporation Method for software controllable dynamically lockable cache line replacement system
EP1842134A1 (en) * 2005-01-26 2007-10-10 Infineon Technologies AG Improvements in and relating to memory updating
US7380065B2 (en) * 2005-03-30 2008-05-27 International Business Machines Corporation Performance of a cache by detecting cache lines that have been reused
US20060282620A1 (en) * 2005-06-14 2006-12-14 Sujatha Kashyap Weighted LRU for associative caches
US7360043B1 (en) * 2005-08-17 2008-04-15 Sun Microsystems, Inc Method and apparatus for efficiently determining rank in an LRU list
US20070118695A1 (en) * 2005-11-18 2007-05-24 International Business Machines Corporation Decoupling storage controller cache read replacement from write retirement
US7543112B1 (en) 2006-06-20 2009-06-02 Sun Microsystems, Inc. Efficient on-chip instruction and data caching for chip multiprocessors
US7844778B2 (en) * 2006-07-11 2010-11-30 International Business Machines Corporation Intelligent cache replacement mechanism with varying and adaptive temporal residency requirements
US7908236B2 (en) * 2006-07-20 2011-03-15 International Business Machines Corporation Using multiple data structures to manage data in cache
US7793044B1 (en) * 2007-01-16 2010-09-07 Oracle America, Inc. Efficient caching of stores in scalable chip multi-threaded systems
US7457920B1 (en) * 2008-01-26 2008-11-25 International Business Machines Corporation Method and system for cache eviction
US8745334B2 (en) * 2009-06-17 2014-06-03 International Business Machines Corporation Sectored cache replacement algorithm for reducing memory writebacks
US8392658B2 (en) 2009-07-10 2013-03-05 Apple Inc. Cache implementing multiple replacement policies
AU2010201718B2 (en) 2010-04-29 2012-08-23 Canon Kabushiki Kaisha Method, system and apparatus for identifying a cache line
US20120124291A1 (en) * 2010-11-16 2012-05-17 International Business Machines Corporation Secondary Cache Memory With A Counter For Determining Whether to Replace Cached Data
CN102314397B (zh) * 2011-09-23 2014-03-19 浙江大学 缓存数据块的处理方法
CN102521049B (zh) * 2011-11-18 2013-07-10 清华大学 多核间内存调度方法
US9170955B2 (en) * 2012-11-27 2015-10-27 Intel Corporation Providing extended cache replacement state information
US9043554B2 (en) 2012-12-21 2015-05-26 Apple Inc. Cache policies for uncacheable memory requests
US9158702B2 (en) 2012-12-28 2015-10-13 Intel Corporation Apparatus and method for implementing a scratchpad memory using priority hint
US9223710B2 (en) 2013-03-16 2015-12-29 Intel Corporation Read-write partitioning of cache memory
WO2016057672A1 (en) * 2014-10-07 2016-04-14 Google Inc. Methods and systems for cache lines de-duplication
US20170168957A1 (en) * 2015-12-10 2017-06-15 Ati Technologies Ulc Aware Cache Replacement Policy
US10223278B2 (en) 2016-04-08 2019-03-05 Qualcomm Incorporated Selective bypassing of allocation in a cache
US20190303037A1 (en) * 2018-03-30 2019-10-03 Ca, Inc. Using sequential read intention to increase data buffer reuse

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0389151A3 (en) * 1989-03-22 1992-06-03 International Business Machines Corporation System and method for partitioned cache memory management
JPH0371347A (ja) * 1989-08-11 1991-03-27 Mitsubishi Electric Corp 参照頻度主導型記憶装置
JPH0492941A (ja) * 1990-08-09 1992-03-25 Digital Equip Corp <Dec> キャッシュメモリの順次参照管理方法および装置
JPH05189316A (ja) * 1992-01-10 1993-07-30 Fujitsu Ltd ディスクキャッシュ制御方法
US5434992A (en) * 1992-09-04 1995-07-18 International Business Machines Corporation Method and means for dynamically partitioning cache into a global and data type subcache hierarchy from a real time reference trace
US5778442A (en) * 1996-03-25 1998-07-07 Oracle Corporation Method and apparatus for buffering data in a computer system
US5974507A (en) * 1997-04-14 1999-10-26 International Business Machines Corporation Optimizing a cache eviction mechanism by selectively introducing different levels of randomness into a replacement algorithm
US6138213A (en) * 1997-06-27 2000-10-24 Advanced Micro Devices, Inc. Cache including a prefetch way for storing prefetch cache lines and configured to move a prefetched cache line to a non-prefetch way upon access to the prefetched cache line
US6105111A (en) * 1998-03-31 2000-08-15 Intel Corporation Method and apparatus for providing a cache management technique
JP3279253B2 (ja) * 1998-05-27 2002-04-30 日本電気株式会社 キャッシュページの管理方法およびキャッシュページの管理プログラムを記憶した媒体

Also Published As

Publication number Publication date
HK1048176B (zh) 2009-12-31
WO2000070468A1 (en) 2000-11-23
JP2002544624A (ja) 2002-12-24
US6393525B1 (en) 2002-05-21
AU5024600A (en) 2000-12-05
BR0010620A (pt) 2002-03-05
CN100489817C (zh) 2009-05-20
HK1048176A1 (en) 2003-03-21
CN1361887A (zh) 2002-07-31
EP1190327A1 (en) 2002-03-27

Similar Documents

Publication Publication Date Title
JP4246922B2 (ja) 保護機能付き最近最低使用頻度置換方法
US10019369B2 (en) Apparatuses and methods for pre-fetching and write-back for a segmented cache memory
US6339813B1 (en) Memory system for permitting simultaneous processor access to a cache line and sub-cache line sectors fill and writeback to a system memory
US7284096B2 (en) Systems and methods for data caching
US6446145B1 (en) Computer memory compression abort and bypass mechanism when cache write back buffer is full
US10831678B2 (en) Multi-tier cache placement mechanism
US7552286B2 (en) Performance of a cache by detecting cache lines that have been reused
US7360015B2 (en) Preventing storage of streaming accesses in a cache
US10169232B2 (en) Associative and atomic write-back caching system and method for storage subsystem
US7610438B2 (en) Flash-memory card for caching a hard disk drive with data-area toggling of pointers stored in a RAM lookup table
US6877065B2 (en) Advanced read cache management
US9811456B2 (en) Reliable wear-leveling for non-volatile memory and method therefor
KR20180123625A (ko) 하이브리드 메모리에서 쓰기 및 플러시 지원을 위한 시스템 및 방법
US20030046493A1 (en) Hardware updated metadata for non-volatile mass storage cache
US9672161B2 (en) Configuring a cache management mechanism based on future accesses in a cache
US6286080B1 (en) Advanced read cache emulation
US7386679B2 (en) System, method and storage medium for memory management
US7089394B2 (en) Optimally mapping a memory device
US5809526A (en) Data processing system and method for selective invalidation of outdated lines in a second level memory in response to a memory request initiated by a store operation
US9996478B1 (en) No allocate cache policy
JP2001216195A (ja) 分数的二進寸法型キャッシュ
JP2001051892A (ja) キャッシュサーバ性能値算出方法及び装置及びキャッシュサーバ性能値算出プログラムを格納した記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070620

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070919

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071018

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071025

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071116

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080410

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080417

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080508

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080515

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080613

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080620

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20080715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080801

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081027

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081211

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090109

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees